SEO : comment PagesJaunes.fr s’est ouvert à Google
Beaucoup de choses ont changé chez Pages Jaunes, rebaptisé Solocal, en l'espace de quelques années. Notamment en matière de SEO. Si, auparavant, le site empêchait carrément les robots de Google d'indexer son contenu, il cherche aujourd'hui à mieux les faire venir. Ce qui n'est pas une mince affaire pour un site de l'envergure de PagesJaunes.fr et sa dizaine de millions de pages.
D'ailleurs, une fois que les robots ont pu librement crawler le site, et que leur parcours a pu être analysé dans les logs, une des premières choses qui a été faite a été… de supprimer de l'index de Google de nombreuses pages : 6 millions d'URL en tout. Il s'agissait «de pages vides, ou sans intérêt pour l'internaute, qui ralentissaient les robots de Google, et qui empêchaient le moteur d'aller parcourir et indexer du contenu plus intéressant», explique Jean-Benoit Moingt, responsable SEO pour le groupe Solocal.
Optimiser l'indexation de Google.
L'un des défis auxquels est aujourd'hui confrontée la cellule en charge du SEO de PagesJaunes.fr est justement d'optimiser cette indexation. Le maillage interne (soit tout de même 400 millions de liens, et encore, après, là aussi, un travail conséquent de réduction) a été particulièrement travaillé pour optimiser le crawl des robots, et leur permettre d'atteindre du contenu auparavant trop enfouis. La vigilance s'est notamment portée sur la cohérence thématique des pages liées par ces liens.
À lire plus tard
Vous devez être inscrit pour ajouter cet article à votre liste de lecture
S'inscrire Déjà inscrit ? Connectez-vous