Articles

Depuis 2021, les Core Web Vitals sont intégrés parmi les éléments pris en compte par les algorithmes de Google pour classer un site web sur les pages de résultats de recherche, ou SERPs. L’objectif du moteur de recherche est de favoriser une bonne expérience client (UX).

Désormais, les responsables de sites web doivent prendre en compte ces éléments pour optimiser le classement de leur site, ou au moins maintenir leur position. Ils doivent s’appuyer sur de nombreuses métriques pour mesurer les Core Web Vitals et ainsi évaluer le classement de leurs sites.

Comprendre l’impact des Core Web Vitals sur le référencement est essentiel pour toute stratégie de visibilité en ligne. Dans cet article, nous explorerons en profondeur ces indicateurs et fournirons des conseils précieux sur la manière de les optimiser efficacement.

Que sont les Core Web Vitals ?

Le terme Core Web Vitals, qui se traduit par “Signaux Web Essentiels”, désigne un ensemble de métriques clés mises en place par Google. Ils servent à analyser le bon fonctionnement UX d’un site web. Ils mesurent en effet les performances et l’expérience utilisateur d’un site, grâce à des indicateurs révélateurs, tels que la vitesse de chargement de la page, ou encore l’interactivité et la stabilité visuelle du site.

Quels sont les 3 Core Web Vitals ?

Les Core Web Vitals se composent de 3 indicateurs importants : le LCP, le CSL et l’INP (qui remplace le FID depuis le 12 mars 2024).

LCP ou Largest Content Painful

Le largest Content Painful ou LCP est un indicateur de performance de chargement. Il mesure la vitesse de chargement d’une page web, autrement dit le temps qu’il faut pour le site de montrer les premiers éléments visibles. La vitesse de chargement d’une page est considérée comme élevée si ses premiers éléments s’affichent en moins de 2.5 secondes.

CLS ou Cumulative Layout Shift

Le Cumulative Layout Shift, aussi connu sous l’acronyme CLS, mesure la stabilité visuelle d’une page web. L’indicateur s’intéresse à la manière dont la page s’affiche lors du chargement, en assurant que les divers éléments de la page ne changent pas d’emplacement de manière inappropriée. Google propose un score entre 0 et 1 pour mesurer la stabilité visuelle d’un site web. Le meilleur indicateur se situe entre 0 et 0.1.

INP ou Interaction to Next Paint

L’INP remplace désormais le FID (First Input Delay). Il s’agit d’une métrique évaluant la réactivité d’une page web. Il mesure le délai entre l’interaction d’un utilisateur (comme un clic) et la réponse du navigateur. Un faible INP indique une interactivité rapide, favorisant une meilleure expérience utilisateur. Les sites web cherchent à réduire cet indice afin d’offrir une navigation fluide et réactive à leurs visiteurs.

Pour évaluer l’Interaction to Next Paint d’un site web, Google donne une valeur comprise dans l’une des trois fourchettes suivantes :

  • INP supérieur à 500 ms : cela signifie que la page est très lente et a une très mauvaise réactivité ;
  • INP entre 200 ms et 500 ms : la page est moyennement réactive. Elle exige ainsi des mesures d’optimisation, comme la réduction du volume de JavaScript ;
  • INP inférieur à 200 ms : la page est rapide et offre une meilleure expérience utilisateur.

Comme nous l’avons évoqué plus haut, l’INP remplace le FID depuis le 12 mars 2024. Ce dernier était aussi utilisé à mesurer la réactivité d’un site web, précisément le délai entre la première interaction de l’utilisateur d’une page et la réponse du navigateur à cette action. Comparé au FID, l’INP est plus précis et plus complet. Si le premier ne s’intéressait qu’à la première interaction de l’utilisateur, le second, quant à lui, mesure toutes ses intéractions.

Trois éléments constituent les Core Web Vitals : le LCP, le CLS et l'INP.

Quels sont les impacts des Core Web Vitals sur le référencement d’un site web ?

Les Core Web Vitals ont un impact important sur toutes les phases de vie d’un site web, du développement jusqu’au référencement.

Les impacts lors de la phase du développement du site web

Il est plus judicieux d’intégrer les Core Web Vitals dès la conception du site web afin d’obtenir une expérience utilisateur optimale. Dans cette perspective, les techniques de développement appliquées sont choisies minutieusement et les frameworks sont optimisés. L’objectif en est de favoriser la performance et la vitesse de chargement du site.

L’intégration des Core Web Vitals en amont d’un projet web implique d’ailleurs la réalisation des tests et des optimisations itératifs. Cela vise à maintenir les bons scores.

Les répercussions sur l’activité de crawl des robots de Google

Avoir de bons “signaux web essentiels” a des effets sur l’activité des robots d’indexation de Google. En effet, Googlebots crawlent et indexent facilement les pages qui disposent de meilleurs scores. Ainsi, elles sont mises en avant dans les SERPs.

La possession de meilleurs Core Web Vitals permet d’ailleurs d’optimiser le budget de crawl d’un site. Plus une page est fluide et lisible, plus les robots mettent moins de temps à passer sur celle-ci, ce qui leur permet d’indexer un nombre de pages élevé.

Les impacts sur les activités des e-commerçants

Optimiser les signaux web essentiels d’un site e-commerce présente des avantages économiques. En effet, quand la plateforme obtient de meilleurs scores, elle offre une meilleure expérience utilisateur, ce qui peut entraîner une augmentation du taux de conversion. Citons par exemple le site de Vodafone Italie. Après avoir effectué des améliorations sur leur plateforme en optimisant de 31 % l’ICP de celle-ci, ils ont constaté une augmentation des ventes de 8%.

Les Core Web Vitals réduisent d’ailleurs le taux de rebond, grâce à la vitesse de chargement rapide et à l’interactivité élevée du site. Il en résulte que le référencement du site est optimisé, puisque les éléments du Core Web Vitals (vitesse de chargement, interactivité et la stabilité visuelle) font partie des critères de classement dans les SERPs.

Quels sont les outils qui permettent de mesurer les Core Web Vitals ?

Les signaux web essentiels se mesurent avec un outil spécifique, comme :

  • Google PageSpeed Insights : celui-ci fournit des informations détaillées sur les performances d’une page web, y compris les Core Web Vitals ;
  • Google Search Console : cette plateforme offre des rapports sur les performances de votre site, y compris les Core Web Vitals, pour vous aider à identifier les domaines à améliorer ;
  • Lighthouse : il s’agit d’un outil d’audit de performance et d’accessibilité fourni par Google Chrome. Il mesure également les signaux web essentiels ;
  • WebPageTest : cet outil permet de tester les performances d’une page web, y compris les Core Web Vitals, à partir de différents emplacements dans le monde ;
  • Chrome DevTools : l’onglet Performance de DevTools peut être utilisé pour enregistrer et analyser les métriques des Core Web Vitals pendant le chargement d’une page web.

Quelles sont les techniques qui permettent d’optimiser les Core Web Vitals ?

Optimiser les Core Web Vitals d’un site web consiste à améliorer ses 3 indicateurs clés d’expérience utilisateur, à savoir le LCP, le CLS et l’INP.

Comment optimiser le LCP (Largest Content Painful) ?

Il est utile d’optimiser le LCP s’il dépasse 2.5. Pour cela, il faut réduire le temps de réponse du serveur. En effet, quand un internaute ouvre une page sur son navigateur web, ce dernier envoie une commande au serveur. Le délai entre l’envoi de cette demande jusqu’à obtention du premier octet du contenu s’appelle Time to First Byte ou TTFB. Plus ce dernier est bas, plus le LCP est meilleur.

L’autre solution pour optimiser le LCP consiste à utiliser un Content Delivery Network (CDN). Celui-ci permet de réduire le temps de latence pour les utilisateurs qui se trouvent loin du serveur.

D’autres astuces existent pour obtenir un LCP optimal, comme :

  • La suppression des JavaScript inutilisés ;
  • L’amélioration de la taille des images ;
  • La mise en cache, dans le but d’éviter le recours au codage HTML.

Comment optimiser le CLS (Cumulative Layout Shift) ?

Il est utile d’optimiser le CLS de votre site web s’il est compris entre 0.1 et 1. Pour cela, de nombreuses actions peuvent être appliquées :

  • Retravailler le web design ;
  • Non imbriquer de nouveaux contenus sur des contenus déjà existants ;
  • Définir automatiquement les tailles des vidéos et des images ;
  • Optimiser la largeur et la hauteur des bannières publicitaires, des iframes et des embeds ;
  • Utiliser des polices de caractères web standards pour éviter un défaut d’affichage lors de la mise en page lors du chargement.

Quelles mesures appliquer pour améliorer l’INP (Interaction to Next Paint) ?

Comme nous l’avons mentionné plus haut, l’INP remplacera le FID à partir de 12 Mars 2024. Des mesures d’optimisation doivent être appliquées si cet indicateur dépasse 500 ms. Parmi ces mesures figurent :

  • La désactivation des fonctionnalités inutiles qui s’ouvrent automatiquement lors du chargement de la page ;
  • La détection de la partie de la page dont le chargement nécessite plus de travail au navigateur. Il convient d’améliorer cette partie pour optimiser le chargement de la page entière ;
  • Le décèlement des éléments de la page qui doivent s’afficher prioritairement sur le premier écran de défilement.

Optimisez l’expérience utilisateur (UX) de votre site web avec l’agence Pongo

Pongo est à votre service pour améliorer l’expérience utilisateur et ainsi le référencement naturel de votre site internet. Au début du partenariat, nous réalisons un audit SEO des Core Web Vitals. Aussi, nous examinons attentivement les besoins de votre audience cible pour concevoir une interface intuitive, ergonomique et conviviale. Les tests d’utilisabilité et les données d’analyse obtenues nous permettent ensuite d’identifier les axes d’amélioration les plus adéquats afin d’offrir une meilleure expérience utilisateur à vos visiteurs tout au long du cycle de vie de votre site internet.

Contactez-nous pour démarrer une collaboration qui renforce votre présence en ligne ou pour obtenir plus d’informations sur nos prestations.

Une fois de plus, Google, par la voix de John Mueller, son Webmaster Trend Analyst, rappelle que les contenus générés automatiquement par une intelligence artificielle dédiée à la rédaction sont contraires à ses directives pour les webmasters. En effet, ce type de content est non seulement fortement susceptible d’être considéré comme un spam, mais aussi punissable par le moteur de recherche phare.

Qu’est-ce que Google considère comme un contenu généré automatiquement ?

Quelques simples recherches sur la toile permettent de comprendre ce qu’est un contenu généré automatiquement selon les normes de la firme de Mountain View :

« Le contenu généré automatiquement (également appelé contenu « auto-généré ») est un contenu qui a été généré de manière programmatique. Dans les cas où il est destiné à manipuler les classements de recherche et non à aider les utilisateurs, Google peut prendre des mesures concernant ce type de contenu. Voici quelques exemples de cas, non exhaustifs :

  • Un texte qui n’a aucun sens pour le lecteur, mais qui peut contenir des mots-clés de recherche ;
  • Texte traduit par un outil automatisé sans révision humaine ou reformulation avant publication ;
  • Texte généré par des processus automatisés, tels que les chaînes de Markov ;
  • Texte généré par des techniques automatisées de synonymisation ou d’obscurcissement ;
  • Texte généré par l’extraction de flux Atom/RSS ou de résultats de recherche ;
  • L’assemblage ou la combinaison de contenus provenant de différentes pages web sans y ajouter une valeur suffisante. »

Les conseils de Google aux webmasters : « si vous hébergez ce type de contenu sur votre site, empêchez-le d’apparaître dans les résultats de recherche. »

Comment les contenus peuvent-ils être générés automatiquement ?

GPT-3 est un modèle de prédiction linguistique. Plus clairement, il est doté d’un modèle d’apprentissage automatique à réseau neuronal capable de prendre un texte source puis de le réécrire de manière à ce qu’il obtienne un score élevé de référencement. De nombreux sites internet décrivent les résultats obtenus comme étant très similaires à ceux produits par les humains.

Néanmoins, un tel système possède ses limites :

  • L’absence d’apprentissage permanent ;
  • Une incapacité à expliciter un contenu qu’il a créé à partir d’une source ;
  • Une limitation de la taille de la source fournie pour obtenir un résultat ;
  • Un temps de traitement relativement long ;
  • Le manque de discernement parmi les thèmes abordés dans les contenus créés (complotisme, racisme, etc.) ;
  • Une qualité telle qu’il est possible de créer des fake news automatiquement.

Pourquoi les contenus générés automatiquement sont-ils pénalisables par Google ?

Créé avec une intervention humaine minime pour ne pas dire inexistante, le contenu généré automatiquement à l’aide d’un logiciel. En face, il y a les règles relatives au référencement, à respecter scrupuleusement par les sites internet, s’ils veulent être avantageusement positionnés sur les moteurs de recherche.

Or, pour y parvenir, lesdits sites internet doivent fournir une vitesse optimale de chargement de ses pages, des caractéristiques conviviales, mais aussi, et surtout… des contenus pertinents, originaux et utiles.

Comment Google peut-il pénaliser les contenus générés automatiquement ?

L’algorithme Panda de Google a été spécialement conçu pour détecter les contenus de mauvaise qualité. Lorsque le cas se présente, le site internet concerné est pénalisé au niveau du domaine par Google. Le résultat ne se fait pas attendre, le site connaît une baisse drastique de son classement, entraînant naturellement une diminution tout aussi significative de son trafic organique.

Pourquoi Google a-t-il décidé de faire un rappel sur le sujet des contenus auto-générés ?

Google a profité d’une question posée sur les outils de rédaction d’IA GPT-3 à l’occasion d’un hangout du bureau de Google Search Central SEO pour aborder de nouveau ce sujet délicat. En effet, depuis plusieurs années, l’usage de tels outils, leur acceptabilité du point de vue du géant est sujet à débat parmi les référenceurs.

Pour John Mueller, y compris si les systèmes de Google sont incapables de détecter ces types de contenus, ces derniers ont toujours été considérés comme appartenant à cette catégorie particulière par Google. C’est « essentiellement la même chose que si vous vous contentez de mélanger des mots, de chercher des synonymes ou de mettre en pratique des astuces de traduction ». « Je pense que la qualité du contenu est peut-être un peu meilleure que celle des outils de la vieille école, mais pour nous, il s’agit toujours d’un contenu généré automatiquement, ce qui signifie qu’il est toujours contraire aux directives destinées aux webmasters. Nous considérons donc que c’est du spam. »

« Actuellement, tout cela va à l’encontre des directives pour les webmasters. Donc de notre point de vue, si nous devions tomber sur quelque chose comme ça, si l’équipe de webspam le voyait, elle le considérerait comme du spam. ».

Quel est le conseil de Google aux webmasters en matière de contenu ?

Dans son Google Webmaster Guideline, la firme rappelle que « l’une des étapes les plus importantes pour améliorer le classement de votre site dans les résultats de recherche Google est de veiller à ce qu’il contienne beaucoup d’informations riches, notamment des mots-clés pertinents, utilisés de manière appropriée, qui indiquent le sujet de votre contenu. » Quant aux webmasters et propriétaires de sites tentés d’optimiser leur référencement en créant des contenus longs, mais peu, voire pas du tout authentiques, leur site peut tout simplement être supprimé des résultats de recherches.

Peut-on mélanger les contenus originaux et les contenus générés automatiquement ?

Il n’existe à ce jour aucun outil suffisamment intelligent pour imiter parfaitement la capacité de création de contenu d’un humain, y compris si de nombreuses entreprises vantent la qualité de leur produit pour ce faire.

Pour éviter tout faux pas et ne pas être tenté de mélanger contenu généré automatiquement et contenu créé par une personne en chair et en os, il est préférable pour certains spécialistes d’investir dans des outils de correction, des outils certes de création de contenu, mais nécessitant impérativement une amélioration par un(e) rédacteur(trice) !