Articles

Qu’est-ce que les balises No Index?

Les directives « No index » demandent aux moteurs de recherche d’exclure une page de l’index, la rendant inéligible pour apparaître dans les résultats de recherche.

Les balises Meta Robots « Noindex »

La façon la plus courante d’ordonner aux moteurs de recherche de ne pas indexer une page est d’inclure une balise Meta Robots dans la balise <head> d’une page HTML avec une directive « noindex » comme ci-dessous :

<meta name= »robots » content= »noindex » />

Vers 2007, les principaux moteurs de recherche ont commencé à mettre en œuvre la prise en charge des directives « noindex » dans les balises Meta Robots. Les balises Meta Robots peuvent également inclure d’autres directives, comme la directive « follow » ou « nofollow », qui indique aux moteurs de recherche d’explorer ou non les liens trouvés sur la page actuelle.

Typiquement, les webmasters utiliseront la directive « noindex » pour empêcher l’indexation de contenus qui ne sont pas destinés aux moteurs de recherche.

Certains cas d’utilisation courants des directives « noindex » :

  • Pages contenant des informations sensibles
  • Pages de panier ou de caisse sur un site de commerce électronique
  • Versions alternatives de pages pour des tests A/B ou fractionnés actifs
  • Versions de pages « Staging » (ou en cours de réalisation) qui ne sont pas encore prêtes pour un usage public

En-têtes de réponse « Noindex »

En outre, les moteurs de recherche prennent en charge une directive « noindex » délivrée via les en-têtes de réponse HTTP pour une page donnée. Bien que cette approche soit moins courante et puisse être plus difficile à identifier à l’aide d’outils de référencement courants, il est parfois plus facile pour les ingénieurs ou les webmasters de l’inclure en fonction de la configuration de leur serveur.

Le nom et la valeur d’un en-tête de réponse « noindex » sont les suivants :

X-Robots-Tag : noindex

Bonnes pratiques de référencement pour les directives « noindex »

Éviter d’utiliser « noindex » sur des pages de valeur

L’inclusion accidentelle d’une balise ou d’une directive « noindex » sur une page de valeur peut entraîner la suppression de cette page des index des moteurs de recherche et l’arrêt de la réception de tout trafic organique.

Par exemple, si une nouvelle version du site Web est lancée, mais que les balises « noindex », qui ont été incluses pour empêcher les moteurs de recherche d’indexer les nouvelles versions de la page avant qu’elles ne soient prêtes, sont laissées en place, la nouvelle version du site Web peut immédiatement cesser de recevoir du trafic de la part des moteurs de recherche

Comprendre que « noindex » est éventuellement traité comme « nofollow »

Les webmasters ont souvent utilisé des balises Meta Robots ou des en-têtes de réponse pour signaler aux moteurs de recherche que la page actuelle ne doit pas être indexée mais que les liens de la page doivent tout de même être explorés, comme avec la balise Meta Robots suivante :

<meta name= »robots » content= »noindex,follow » />

Ceci est couramment utilisé pour les pages de listing paginées. Par exemple, « noindex,follow » peut être appliqué aux listes d’archives d’un blog, afin d’empêcher les pages d’archives elles-mêmes d’apparaître dans les résultats de recherche mais de permettre aux moteurs de recherche d’explorer, d’indexer et de classer les articles de blog eux-mêmes.

Cependant, cette approche peut ne pas fonctionner comme prévu, car Google a expliqué que ses systèmes finissent par traiter une directive « noindex,follow » comme un « noindex,nofollow » – en d’autres termes, ils finiront par arrêter d’explorer les liens sur toute page avec une directive « noindex ». Cela peut empêcher les pages de destination des liens d’être indexées du tout ou réduire leur PageRank ou leur autorité, ce qui abaisse leur rang pour les mots-clés pertinents.

Évitez d’utiliser les règles « noindex » dans les fichiers Robots.txt

Bien qu’elles n’aient jamais été officiellement prises en charge, les moteurs de recherche ont respecté les directives « noindex » dans les règles robots.txt pendant un certain temps. Comme les règles robots.txt avec caractères génériques peuvent s’appliquer à de nombreuses pages à la fois sans qu’aucune modification ne soit nécessaire dans les pages elles-mêmes, cette méthode était préférée par de nombreux webmasters. Google ne recommande pas cette utilisation des fichiers robots.txt pour définir des directives « noindex » et a retiré le code qui prenait en charge ces règles en septembre 2019.

.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *