Ces quatre critères incluent d'abord le délai de propagation entre deux points d'extrémité et le délai de sérialisation (temps requis par l'interface réseau pour coder les informations et les envoyer). Ces délais sont peu variables : le premier est basé sur la vitesse de la lumière alors que le deuxième dépend de la vitesse de liaison. Vient ensuite le délai de traitement au niveau des routeurs. Les routeurs logiciels offrent un peu de marge d'optimisation, par rapport aux routeurs physiques paramétrés une bonne fois pour toutes pour un volume donné. Le délai de file d'attente, enfin, dépend pour sa part du volume du trafic en attente. Quand les données prioritaires sont clairement définies et marquées, les règles de mise en file d'attente peuvent être ajustées pour éviter toute congestion.

En conséquence, il est essentiel de prendre en compte des délais de latence difficilement compressibles entre sites distants. Les données de latence publiées par les opérateurs télécoms américains AT&T et Sprint livrent des points de repère : la latence entre New-York et San Jose (plus de 400 kilomètres) se situe en général autour de 70 millisecondes. Pour améliorer malgré tout la performance des applications entre sites, les entreprises n'ont pas besoin de déployer une myriade de réseaux étendus en local. L'évaluation des quatre délais décrits plus hauts les aide à identifier les points stratégiques du réseau où installer des hubs de performance. A la clé, la latence baisse, la performance applicative s'accélère, le tout avec bien moins d'équipements à gérer.