Les tendances à retenir du SEO Camp'us 2019

01/04/2019

De retour du SEO Camp'us 2019, la grande messe du SEO qui s'est déroulée les 28 et 29 mars derniers à Paris, Objectif Papillon vous livre son ressenti sur 2 jours de conférences riches par la qualité de ses intervenants et la variété des sujets traités. Voici donc les tendances et enseignements que nous retenons de l'événement.

Crawler pour mieux indexer

Première tendance lourde la notion de "crawl", ou "exploration" en bon français, est sur toutes les lèvres.

  • L'optimisation du "crawl budget" (temps et fréquence d'exploration consacrés par Googlebot à un site), repose sur un enjeu d'exploration et d'indexation des bonnes url d'un site en identifiant les pages sans valeur (masse noire ou "pages zombies" selon l'expression d'Olivier Duffez de Webrankinfo, cf son article La méthode pages zombies SEO). Nous avons d'ailleurs abordé dans notre précédent billet de blog le sujet de l'optimisation du crawl et de l'indexation qui  fait selon nous partie intégrante de l'hygiène SEO.
  • La simulation du crawl "à la manière de Google" est aussi un sujet récurrent avec des outils comme Oncrawl ou Botify qui associent exploration et analyse de logs : il s'agit évaluer la bonne explorabilité d'un site et les freins techniques à l'indexation et au référencement, comme la fuite de PagRank par exemple. Des outils puissants, mais souvent réservés à de gros acteurs du e-commerce par leur prix, et les ressources nécessaires à l'analyse.
  • Le suivi du crawl et de l'indexation d'un site via des fichiers sitemap.xml, sujet pour lequel Olivier Duffez a dédié une conférence. L'idée est de lister de manière exhaustive les urls indexables d'un site dans des fichiers xml et de les déclarer dans la Google Search Console pour assurer le suivi. Réciproquement, Olivier Duffez conseille aussi la technique pour inciter Google à crawler et donc désindexer des pages pages inutiles, url redirigées toujours indexées (dans le cadre d'une refonte par exemple..). L'usage d'un simple fichier texte hébergé sur le serveur fonctionne aussi. A noter cependant la complexité de mise en œuvre et de gestion d'un ou plusieurs sitemaps et surtout listant automatiquement les seules url utiles.

A fond sur les données structurées (Schema.org)

Schema.org, vous ne connaissez peut-être pas. En revanche, vous avez noté les étoiles dans les résultats de recherche de Google (rich snippets), les encarts à droite des résultats mettant en valeur un acteur ou un monument (le Knowledge Graph), les réponses directes à une question en position 0 au-dessus des résultats natruels. Tout cela est généré par Google qui interprète les données structurées balisant les contenus des sites selon la nomenclature Schema.org (reconnue par Google, Bing, Yandex) associées à l'agrégation d'immenses bases de données sémantiques open source (Freebase, Wikidata...).

Bill Slawski définit les données structurées comme des outils permettant d'attribuer un identifiant unique à toute entité (un film, un monument, un produit...) sans se soucier du langage. L'objectif pour Google est de ramener tout le web à un ensemble d'entités reliées entre elles (un film > un réalisateur, des acteurs... ; un monument > un architecte, un lieu, une date de construction ; un produit > un prix, un fabricant, une disponibilité...).

B. Slawski va plus loin en estimant que l'usage pertinent des données structurées sur un site augmenterait son degré de fiabilité aux yeux de Google. Réciproquement, si x sites donnent la même information structurée, celle-ci est validée par Google dans ses résultats.

Gennaro Cuofano propose de raisonner comme Google en ne faisant plus de SEO (Search Engine Optimization) mais du AEO (Answer Engine Optimization) : votre site doit être structuré comme un Knowledge Graph, en organisant ses pages en fonction des entités et de leurs relation (les liens), dans une organisation sémantique logique. Nous ne sommes pas très loin du concept de cocon sémantique développé par Laurent Bourrelly.

Le sujet nous semble central pour le SEO de nos clients dans la mesure où ces données structurées Schema.org mâchent le travail de compréhension de Google. Bonne nouvelle, leur implémentation est simple et bon marché, autant le faire de suite !

Intentions de recherche et sémantique

L'intention de recherche internaute - la problématique sous-jacente à la requête d'un internaute - est souvent revenu dans les conférences. Tous ont souligné l'apparition du bloc "autres questions posées" dans les résultats de Google et destinées à affiner la requête selon des intentions plus précises : tout l'enjeu du référenceur est de s'en inspirer pour affiner sa stratégie de contenus et répondre ainsi avec exactitude aux besoins en informations de l'internaute. En développant des pages répondant aux intentions de recherche des internautes et structurées selon un schéma intentionnel logique du général au particulier, on ne peut que penser au fameux concept de cocon sémantique développé par Laurent Bourrelly.

Christian Méline, qui a animé une conférence sur la "sémantique prédictive" balaie de la main l'idée répandue selon laquelle Google serait un moteur sémantique et apporte un éclairage sur la façon de structurer les contenus pour les donner à comprendre aux moteurs.

  • Inutile de se focaliser sur la "densité sémantique" d'un contenu sur une requête donnée, comparée à celle de la concurrence : travailler ainsi reviendrait tout au plus à rester moyen.
  • Inutile aussi de rajouter "au hasard" des mots-clés pour renforcer le contexte sémantique d'une page : au mieux, vous gagnerez en trafic de longue traîne, mais vous ne rankerez pas sur la requête stratégique.
  • Pensez "sémantique prédictive" en prédisant la nature et l'intention du contenu que vous proposez à l'internaute, par le wording de vos ancres de liens que vous donnez à Google.
  • Choisissez finement le verbe qui déterminera l'intention de recherche et le niveau d'attente de l'internaute. Exemple : acheter, offrir, choisir, réparer un bijou...
  • Renforcez le signal émis par le lien en direction de Google en fonction de son contexte éditorial, son environnement immédiat : les 15 mots avant et après devront y référer.
  • La page recevant le lien devra aussi être contextualisée et elle-même préparer le départ vers une autre page

En suivant cette logique, on réalise des "glissements sémantiques" progressifs entre des pages traitant de la même thématique et on construit un... cocon sémantique, ou un Knowledge Graph comme vu plus haut, qui répondra de manière exhaustive aux intentions de recherche. Sa pertinence et sa compréhension sera renforcée aux yeux de Google si les relations sémantiques sont correctement prédites par les liens et leur contexte immédiat.

Petite astuce de Christian Méline : la proximité du lien avec un titre ou un sous-titre H s'y référant renforcera sa puissance sémantique.

Le retour, du retour, du retour... du blog !

Pourquoi encore parler de blog en 2019 alors que l'on est dans le règne absolu d'Instagam ? Parce que, selon Laurent Peyrat (dont voici les slides de la présentation Blog d'entreprise et SEO), il apporte toujours un côté très rassurant à votre site pour Google (signifie qu'il y a une équipe derrière), il reste un excellent support de communication interne, externe et événementielle, ses posts sont les supports de votre visibilité sociale, il permet de travailler vos contenus chauds, et sont toujours une des pierres angulaires d'une stratégie d'inbound marketing (livres blancs, newsletters, contenus exclusifs). Et cela, aussi bien sur des problématiques B2B que B2C.

Et le SEO dans tout ça ? La fréquence de publication de contenus restant un critère d'évaluation majeur de Google, le blog permet de pallier ainsi une offre produit très statique. Mais, selon Laurent Peyrat, le blog ne sert pas à ranker ; sa fonction SEO est de faire ranker les pages business. Et oui, il est toujours plus facile d'obtenir des liens externes spontanés sur un billet de blog un peu sexy que sur une classique page produit. Un partenaire business sera lui-même plus enclin à faire un lien vers vous si vous parlez de lui sur le blog (une interview par exemple). Tout l'enjeu est ensuite de travailler le maillage interne en dirigeant le PageRank interne vers les pages business.

Astuce bonus, L. Peyrat suggère de se pencher sur les guidelines de Google Actualités pour concevoir le blog. Si l'idée n'est pas nécessairement d'être référencé sur le moteur de news, ces bonnes pratiques permettent de montrer patte blanche.

Le consultant toulousain conseille aussi d'angler les contenus, c'est-à-dire, de leur donner un style plus attractif que vos pages FAQ par exemple. Pensez linkbaiting : c'est l'attractivité d'un contenu qui attire le lien spontané.

Pour poursuivre la réflexion, nous avons toujours cru à la puissance du blog. Nous les proposons toujours à nos clients en travaillant justement l'angle éditorial, mais aussi la stratégie à développer dans une logique plus globale de discours de marque. Aussi, si la technique reste la même (un blog), la nature évolue vers de réels médias de marque, autant connectés à la stratégie de communication de l'entreprise qu'à ses enjeux de visibilité SEO. Le blog est un outil tactique, certes, mais aussi un excellent outil de communication corporate, interne ou externe.

Google a dit !

Enfin, comment ne pas revenir sur un des temps forts du SEO Camp'us, la séance de questions/réponses avec Vincent Courson, speaker officiel de Google en France pour le SEO. Les occasions de communiquer directement avec Google sont si rares qu'il vaut mieux en profiter ! Voici les sujets abordés :

  • Balises rel=next/prev : au détour d'un tweet de John Muller, speaker de Google sur les questions SEO techniques, nous avons appri fin mars que ces balises servant à structurer les contenus paginé n'étaient pas prises en compte par Google. Ce qui n'a pas manqué de faire grincer des dents les consultants SEO qui recommandaient leur usage en toute bonne fois, et dans le respect des guidelines de Google. V. Courson a expliqué ce couac qui viendrait d'une mauvaise communication interne avec les équipes techniques. Cependant, il rappelle que leur usage est utile pour les navigateurs, l'accessibilité, l'internaute, ainsi que d'autres moteurs : bref, on continue à les utiliser
  • Optimisation du crawl budget : Selon lui, seuls 2% des sites seraient concernés par l'optimisation du crawl budget, de gros sites de plusieurs milliers de pages. Il estime aussi que l'analyse du crawl est "compliquée sans analyse de logs". Il avoue cependant que la démarche est aussi utile sur des sites anciens qui ont vécu plusieurs refontes et où d'anciennes url subsistent, souvent oubliées des webmasters et monopolisant du temps d'exploration inutile.
  • Désindexer ou non les pages de mentions légales, CGV, etc. : ne vous en préoccupez pas. Si mention est faite de la prise en compte de ces pages dans les guidelines de quality raters de Google, le moteur sait faire la part des choses avec ces pages qui reçoivent souvent une énorme quantité de liens structurels (footer) et apparaissent anormalement prépondérantes dans les rapports des outils de crawl. Bref, elles ne canalisent pas du PageRank sur des pages inutiles.
  • UX (expérience utilisateur) : oui, Google prend en compte les comportements des internautes dans les résultats de recherche (taux de clic, taux de rebond), mais jamais pour faire varier les positions, dans la mesure où ces critères comportementaux peuvent être faussés par des tentatives frauduleuses. Il s'agit uniquement de tests internes sur l'utilité ou non de certains formats de résultats de recherche (extraits enrichis, résultats universels...).
  • Vitesse de chargement d'un site : il s'agit d'une critère mineur de classement. Mais à qualité égale, la page la plus rapide peut potentiellement être mieux classée. V. Courson estime que la vitesse de chargement a un impact sur le crawl. Un site plus rapide sera mieux crawlé par Googlebot, sur un volume plus grand de pages et plus souvent (retour au crawl budget !).
  • L'outil de spam report de Google : il serait utile mais pas prioritaire pour les équipes techniques. Donc mystère.
  • Des résultats de recherche faisant apparaître plusieurs urls différentes d'un même nom de domaine : rien d'anormal, Google ne fixe pas de limite. Si plusieurs pages d'un  même nom de domaine apparaissent dans les résultats pour requête donnée, c'est que Google les juge pertinents. 
  • Le formulaire de désaveu de liens "spammy" est-il utile ? Non ! Google saurait faire la part des choses entre un lien naturel et un autre artificiel.

A noter que Vincent Courson a communiqué à plusieurs reprises sur l'évolution de la Google Search Console. La migration des anciens rapports se poursuit, en particulier les statistiques d'exploration qui arriveront prochainement. Et les données de couverture (indexation, erreurs 404...) resteront sur 3 mois (contrairement aux données de performances qui sont passées sur 16mois) : la seule possibilité de conserver un historique est de les exporter tous les 3 mois.

Quitter Facebook Ads ? Peut-être pas... Mais, au regard des tendances, les annonceurs devraient certainement se poser la question du poids de leurs investissements sur Facebook Ads. Lire la suite >
A la rentrée, le mercure n'est pas prêt de s'arrêter de grimper pour l'agence. Celle-ci sera en effet... Lire la suite >

Des outils internet, e-marketing et éditoriaux dédiés à la performance internet des professionnels de l'immobilier neuf