Déployé depuis fin 2019 dans plus de 70 langues dont le français, BERT pour « Bidirectional Encoder Representations from Transformers » est une des dernières mises à jour importantes de Google. Il s’agit d’un algorithme de deep learning visant à mieux comprendre les internautes dans leurs requêtes, en considérant le contexte d’utilisation des mots-clés.
Selon de récentes études, BERT impacte positivement le dixième des requêtes sur le moteur de recherche. Il s’agit donc vraisemblablement d’un nouvel élément que les marques et entreprises devront maîtriser, pour mieux se positionner sur Google. Mais comment ça marche ? Quel est son enjeu en matière de référencement ? Comment bien en profiter ?
Qu’est-ce que Google BERT ?
Le « Bidirectional Encoder Representations from Transformers » ou BERT est lancé en 2019. Après avoir été initialement implémenté pour les résultats organiques de la version anglaise du moteur de recherche, il a été déployé la même année. Il s’agit d’une mise à jour Google implémentée dans la continuité de Panda, Colibri ou encore Rank Brain. Basé sur un réseau neuronal visant à mieux cerner le langage naturel, son concept consiste globalement à la reconnaissance du contexte d’utilisation du ou des mots-clés d’une requête, en vue de maximiser la pertinence des résultats SERP. La firme de Mountain View elle-même considère BERT comme une évolution majeure du moteur de recherche, ayant entrainé un véritable changement de paradigme en matière de recherche depuis Rank Brain.
Objectifs du logarithme BERT
De manière générale, le logarithme BERT va aider le moteur à comprendre les nuances contextuelles des mots dans les recherches. Cette mise à jour Google vise donc à donner au moteur de recherche la capacité de résoudre les ambiguïtés des mots et des expressions, en les contextualisant. Elle sert notamment à interpréter l’utilisation des pronoms dans les longues requêtes, à clarifier les homonymies et les problèmes d’étymologie, à anticiper la suite d’une phrase… en vue d’établir des réponses directement dans les pages de résultats.
Mais en tant qu’outil de traitement de langage naturel innovant, BERT est également implémenté dans d’autres applications. Le modèle est particulièrement utilisé pour la conception de système de questions-réponses, pour l’analyse des opinions ou encore la détection de tweets compromettants, la création d’un système d’appariement des phrases, ainsi de suite.
Fonctionnement du BERT de Google
Basé sur le traitement du langage naturel ou NLP (Natural Language Processing) tout en étant associé aux assistants vocaux personnels, BERT se sert principalement du machine learning et de l’intelligence artificielle pour appréhender les requêtes sur Google Search. Il interprète ainsi les intentions de recherche. Au lieu de se cantonner à chaque mot saisi, BERT sélectionne l’expression entière (le mot , ses précédents et ses subséquents), tout en définissant le contexte d’utilisation. Aussi, si le robot de Google était long ou ne pouvait pas comprendre la tournure d’une phrase, l’algorithme de BERT résout ce problème.
Comme son nom l’indique, BERT est basé sur un modèle du type « transformer » pré-entraîné. Cela veut dire qu’il utilise un mécanisme « d’attention » pour établir le lien entre les mots d’une phrase. Les « transformers » sont des modèles de machine ou deep learning qui apprennent à représenter les mots et expressions de manière dynamique, en les contextualisant à l’échelle d’une phrase ou d’un paragraphe. Ainsi, pour déterminer le sens d’un mot ambigu, le robot va prêter attention à un ou plusieurs autres mots de la phrase. Il va considérer une séquence de gauche à droite, puis de droite à gauche (mode bidirectionnel), pour une meilleure compréhension du texte.
BERT : une mise à jour de taille, mais pas pour le référencement sur Google
L’augmentation des requêtes sur les moteurs de recherche génère davantage de trafic vers les sites internet, et contribue de ce fait à leur meilleur positionnement. En ce qui concerne l’utilisation de l’algorithme BERT, bien qu’elle suscite plus d’intentions de recherches de la part des internautes (les résultats sont plus pertinents), elle n’aura pas d’impact significatif sur le modèle de référencement actuel. En effet, la technologie de BERT est surtout efficace sur les requêtes à longue traîne et singulières, particulièrement en mode vocal. Selon Google, l’impact du mécanisme BERT profitera surtout aux sites de niche, via des requêtes de niche.
Comment mettre à profit la puissance de BERT ?
À la différence des précédentes mises à jour du moteur de Google, ce modèle évite de pénaliser les sites web, sachant qu’il touche principalement aux formulations longues et complexes. Cela étant dit, dans une optique d’amélioration de la compréhension des requêtes et des intentions de recherche, mais surtout pour assurer une bonne position dans les SERP, les sites doivent avoir des contenus de pages de qualité et de haute précision.
Autrement dit, une optimisation SEO ne permettra pas de séduire BERT, puisque cette mise à jour privilégie l’expérience utilisateur et la pertinence des requêtes, plus que la densité de mots-clés entre autres. Pour mettre à profit ce logarithme, on ne peut que compter sur une structure de pages bien élaborée et à forte valeur ajoutée, tout en optimisant la sémantique. L’important est de bien répondre aux intentions de recherche, en se référant aux recherches associées à la requête.
En somme, pour le modèle BERT, seul compte le contenu pertinent et de grande qualité. Celui-ci sera rédigé dans les formes adéquates et naturelles, pour être compris par les internautes, mais aussi pour répondre à leur besoin d’informations de la manière la plus exacte et précise possible.
Vous souhaitez vous former au Big Data ? Retrouvez les formations Data Full Stack et Data Analyst qui vous forment aux métiers de Data Analyst, Data Scientist, Data Engineer et AI Scientist.
Merci pour votre lecture ! Si vous souhaitez lire nos prochains articles autour de la Data et de l’IA, vous pouvez nous suivre sur Facebook, LinkedIn et Twitter pour être notifié lorsqu’un nouvel article est publié !