Pour gérer vos consentements :
Categories: Cloud

500 milliards de pages sur le Web !

Le moteur de recherche Google, qui propose depuis peu une barre d’outils pour IE 5 sous Windows (voir édition du 12 décembre 2000), a beau se vanter de donner accès à plus d’un milliard de pages (voir édition du 29 juin 2000), il lui reste encore du pain sur la planche. En effet, la société Bright Planet estime quant à elle que le Web serait plutôt formé de 500 milliards de pages ! Et d’indiquer que les moteurs de recherche traditionnels ne surfent que sur la surface du Web, sans tenir compte des pages cachées en profondeur et qui formeraient donc la plus large majorité. Pour prouver sa théorie, elle se base sur l’utilisation d’un moteur maison, baptisé Lexibot, dont on peut télécharger un exemplaire sur son site.

Les pages dynamiques ne sont pas indexables par les moteurs traditionnels

La théorie de Bright Planet repose sur le fait que de plus en plus de sites proposent des contenus sous forme de pages dynamiques, c’est-à-dire « fabriquées » à la demande à partir de bases de données, plutôt qu’à l’aide de pages statiques. Ce qui est d’ailleurs notre cas à VNUnet.fr. Et souvent, ces pages ne sont accessibles qu’au travers du propre moteur de recherche du site, capable de chercher directement dans les bases. Résultat, ces pages dynamiques sont invisibles aux moteurs de recherche du Web, comme Google, Altavista ou AllTheWeb, dont le principe repose sur l’utilisation de robots d’indexation allant de liens en liens. Le programme Lexibot, lui, identifie les champs de recherche des sites, s’en sert pour effectuer des requêtes et indexe le contenu des pages de résultats.

En mai dernier, une équipe formée d’ingénieurs d’IBM, de Compaq et d’Altavista avait montré que le Web était finalement loin de ressembler à la fameuse toile d’araignée qui sert toujours à le décrire, mais avait plutôt la forme générale d’un noeud papillon, d’où s’échapperait une multitude de filaments (voir l’étude sur le site d’IBM). Après avoir épluché l’index d’Altavista, les chercheurs ont en effet déterminé quatre catégories de pages. Le coeur est constitué des pages connectées les unes aux autres. A partir de l’une d’elles, on peut accéder à toutes les autres pages de ce coeur. L’aile gauche du noeud pap’ est constitué des pages qui permettent d’accéder à ce coeur, le voyage de retour étant impossible. L’aile droite regroupe les pages auxquelles on peut accéder du coeur, sans retour possible non plus. Reste donc les filaments, constitués de tout un ensemble de pages « déconnectées », reliées à l’une ou l’autre des ailes du papillon mais qui ne permettent pas d’atteindre le coeur. Il semble donc que la photographie faite à l’époque était loin d’être complète.

Pour en savoir plus :

Un résumé de la théorie (en anglais)

Recent Posts

IA et RGPD : sont-ils compatibles ?

Quelle part d’incertitude faut-il accepter dans la mise en conformité des IA avec le RGPD…

3 semaines ago

Windows 10 : quel coût pour le support étendu ?

Microsoft a dévoilé les prix des mises à jour de sécurité étendues pour Windows 10.…

3 semaines ago

Cybersécurité : la plan de Docaposte pour convaincre les PME

Docaposte a sélectionné une douzaine de spécialistes français pour créer un Pack cybersécurité spécialement étudié…

1 mois ago

Surface Pro 10 : plus autonome et un peu plus réparable

La Surface Pro 10 sera disponible le 9 avril en France. Passage en revue de…

1 mois ago

Office 2024 : ce qu’on sait de la prochaine version

Que réserve Office 2024 ? Une première version de test officielle sera disponible en avril.…

1 mois ago

Microsoft Teams : comment fonctionne le double usage « pro-perso »

Microsoft Teams évolue dans une version « unifiée » qui permet de combiner les usages…

1 mois ago