Pour gérer vos consentements :
Categories: Cloud

Réseau : Google suggère une refonte du protocole TCP

Google mise sur une refonte du protocole TCP pour minimiser l’encombrement des réseaux et le temps de latence, accélérant ainsi le chargement des pages Web.

Il s’agirait notamment d’élargir la fenêtre de congestion, de diviser par 3 le timeout initial, d’avoir recours à la technologie Fast Open et de remodeler les algorithmes de restauration des paquets perdus ou cassés au cours d’une transaction.

Mis sur pied en 1973, le dénommé TCP (pour Transmission Control Protocol) constitue, de par sa fiabilité, une interface idéale entre la couche réseau et la sphère applicative.

A l’heure où le commun des salariés connectés ne compte plus les requêtes adressées en premier lieu aux moteurs de recherche tels que Google Search, de telles transactions foisonnent et occasionnent, à l’appui de force kilo-octets, une congestion du trafic.

A cet égard, il devient nécessaire d’améliorer les performances du système. Dans le collimateur, de substantiels gains de temps et une productivité accrue d’autant.

Les dernières versions des principaux navigateurs Web s’attachent à combler tant bien que mal ce déficit. Mais l’artifice impliqué, en l’occurrence la multiplication des connexions TCP simultanées, rencontre des limites techniques.

A en croire les équipes de Google, auteures d’une étude en ce sens, réduire le timeout initial contribuerait à accélérer le chargement des pages, indépendamment des réseaux (localisation, débit…) d’accès.

En parallèle, rehausser de 4 à 10 segments l’envergure de la fenêtre de congestion (contrôle du trafic des paquets) diminuerait le temps de réponse et accoucherait d’une vélocité de l’ordre de 10% supplémentaires.

La firme de Mountain View recommande par ailleurs l’utilisation du TCP Fast Open. L’inclusion, au sein du paquet TCP SYN, de la requête préliminaire de rigueur pour certains hôtes HTTP distants, déchargerait la fenêtre de congestion et accoucherait d’un chargement jusqu’à 40% plus rapide.

Quant à l’algorithme PRR (Proportional Rate Reduction), plus efficace qu’un simple ajustement du débit des données, il offrirait flexibilité et sécurité à l’exercice de récupération des paquets perdus ou corrompus des suites d’une surcharge réseau.

Recent Posts

IA et RGPD : sont-ils compatibles ?

Quelle part d’incertitude faut-il accepter dans la mise en conformité des IA avec le RGPD…

2 semaines ago

Windows 10 : quel coût pour le support étendu ?

Microsoft a dévoilé les prix des mises à jour de sécurité étendues pour Windows 10.…

3 semaines ago

Cybersécurité : la plan de Docaposte pour convaincre les PME

Docaposte a sélectionné une douzaine de spécialistes français pour créer un Pack cybersécurité spécialement étudié…

4 semaines ago

Surface Pro 10 : plus autonome et un peu plus réparable

La Surface Pro 10 sera disponible le 9 avril en France. Passage en revue de…

1 mois ago

Office 2024 : ce qu’on sait de la prochaine version

Que réserve Office 2024 ? Une première version de test officielle sera disponible en avril.…

1 mois ago

Microsoft Teams : comment fonctionne le double usage « pro-perso »

Microsoft Teams évolue dans une version « unifiée » qui permet de combiner les usages…

1 mois ago