Google vient de lancer un outil, en version bêta, qui offre aux éditeurs de sites Web la possibilité de donner au moteur de recherche plus d’informations sur leur site au lieu d’attendre que les robots de Google ne le visitent. Avec l’application Sitemaps, on pourra ainsi préciser la structure d’un site donné ainsi que la fréquence à laquelle il est modifié. Ce qui permettrait théoriquement à Google d’établir un index plus précis et de fournir de meilleurs résultats de recherche.
L’outil est destiné à la fois aux sites amateurs et professionnels, a indiqué Google. Les éditeurs de sites Web peuvent télécharger cette application gratuite qui crée un fichier XML contenant toutes les informations relatives au site. Le fonctionnement de Sitemaps est similaire à celui de Robots Exclusion Standard (RES), une autre technologie destinée à aider les moteurs de recherche.
Des informations accessibles à tous les moteurs
Grâce à un fichier texte nommé « robots.txt » et placé à la racine d’un serveur Web, RES indique aux robots des moteurs quels fichiers et répertoires ils doivent ajouter à leurs index. Alors que RES est un standard de l’industrie, la technologie Sitemaps est uniquement développée par Google. Cependant, rien n’empêche les moteurs de recherche concurrents d’accéder aux informations contenues dans le fichier XML et de les utiliser afin d’améliorer leur indexation.
Article traduit de VNUnet.com
Quelle part d’incertitude faut-il accepter dans la mise en conformité des IA avec le RGPD…
Microsoft a dévoilé les prix des mises à jour de sécurité étendues pour Windows 10.…
Docaposte a sélectionné une douzaine de spécialistes français pour créer un Pack cybersécurité spécialement étudié…
La Surface Pro 10 sera disponible le 9 avril en France. Passage en revue de…
Que réserve Office 2024 ? Une première version de test officielle sera disponible en avril.…
Microsoft Teams évolue dans une version « unifiée » qui permet de combiner les usages…