Pour gérer vos consentements :
Categories: Cloud

SEO : Google affine son algorithme d’indexation Penguin

Pour lutter contre le référencement abusif et les spammeurs qui utilisent des techniques d’automatisation contraires aux bonnes pratiques en matière de SEO, Google projette une refonte de ses algorithmes.

Le groupe Internet de Mountain View se donne pour objectif d’éclaircir, d’ici la fin de l’été, dans son moteur de recherche, les zones grises qui subsistent entre les « White Hats » et les « Black Hats ».

Dans la nomenclature, les premiers s’alignent sur les recommandations en vigueur et recourent au référencement naturel ; a contrario, les seconds renforcent artificiellement leur visibilité sur la Toile en générant automatiquement du contenu (liens, commentaires, sites…)

Et les deux catégories ont tendance à coexister dans les pages de résultats, parfois au désavantage de ceux qui montrent pourtant patte blanche sur le dossier du SEO.

Directeur des opérations de recherche et développement chez Google, Matt Cutts assure que la situation devrait sensiblement évoluer dans les prochains mois.

Il détaille ses plans dans une vidéo postée sur YouTube, avec dix points principaux à prendre néanmoins avec des pincettes, « rien [n’étant] gravé dans le marbre« .

La consigne numéro un à destination des éditeurs reste de se concentrer sur le contenu à valeur ajoutée. Les sites considérés comme des références dans certains domaines verront ainsi leur PageRank rehaussé.

Ce sera le premier critère pris en compte par la nouvelle version de l’algorithme Penguin (2.0). Comme à son habitude, Google livre peu de détails, sinon que cette mouture est « plus exhaustive » que les précédentes.

Le discours est plus clair quant au durcissement des mesures contre le publireportage non distingué de l’éditorial, ainsi que les liens achetés ou loués.

Qu’il soit interne ou externe, le maillage « non naturel » déroge effectivement aux guidelines de Google, qui réitère son appel aux webmestres, invités à ne pas fonder exclusivement leur stratégie de référencement sur le netlinking artificiel.

Le contrôle des hyperliens sera d’ailleurs renforcé avec des outils d’analyse plus performants. Notamment sur les requêtes exposées au spam. Typiquement, celles qui concernent la finance ou les contenus à caractère pornographique.

Comme le note Search Engine Land, les travaux vont se porter plus tangiblement sur la détection des sites piratés et sur leur signalement via les Webmaster Tools.

En aparté, l’impact de la mise à jour Panda, appliquée en février 2011, devrait s’estomper progressivement pour de nombreux sites qui se sont vus désindexés alors qu’ils respectaient le plus clair des consignes de SEO.

—— A voir aussi ——
Quiz ITespresso.fr : connaissez-vous les secrets et astuces de Google ?

Recent Posts

IA et RGPD : sont-ils compatibles ?

Quelle part d’incertitude faut-il accepter dans la mise en conformité des IA avec le RGPD…

2 semaines ago

Windows 10 : quel coût pour le support étendu ?

Microsoft a dévoilé les prix des mises à jour de sécurité étendues pour Windows 10.…

3 semaines ago

Cybersécurité : la plan de Docaposte pour convaincre les PME

Docaposte a sélectionné une douzaine de spécialistes français pour créer un Pack cybersécurité spécialement étudié…

1 mois ago

Surface Pro 10 : plus autonome et un peu plus réparable

La Surface Pro 10 sera disponible le 9 avril en France. Passage en revue de…

1 mois ago

Office 2024 : ce qu’on sait de la prochaine version

Que réserve Office 2024 ? Une première version de test officielle sera disponible en avril.…

1 mois ago

Microsoft Teams : comment fonctionne le double usage « pro-perso »

Microsoft Teams évolue dans une version « unifiée » qui permet de combiner les usages…

1 mois ago