Comprendre le référencement naturel (SEO)

Le référencement naturel, le référencement organique, ou encore le SEO (Search Engine Optimization), est l’ensemble des techniques et des meilleures pratiques qui ont pour objectif le positionnement d'un site web dans les 10 premiers résultats organiques (SERP) des moteurs de recherche (principalement Google).

Le but ultime du référencement naturel est de booster la visibilité ainsi que le trafic vers les pages d'un site web donné, en manipulant plusieurs critères intrinsèques "On-page" et extrinsèques "Off-page" du site web sans investissement pécuniaire.

A contrario, le référencement payant permet de positionner un site web en tête de la liste des resultats des moteurs de recherche sur des de mots-clés bien sélectionnés. Le référencement payant nécessite l'investissement d'un budget dans l'achat de mots-clés auprès de régies publicitaires.


Les liens organiques et les liens sponsorisés :

référencement naturel

La page de resultats (SERP) des moteurs de recherche est constituée de deux zones de positionnement:

  • Zone de liens sponsorisés (référencement payant).
  • Zone de liens organiques (référencement naturel).
Lors d'une recherche, les moteurs de recherche priorisent les liens sponsorisés des sites ayant dépensé un budget pour l'achat de mots-clés. Le classement des liens organiques s'effectue ensuite par la pertinence et la qualité du contenu.

Dans le cas du moteur de recherche Google, Adwords représente la régie publicitaire. Les clients de cette régie peuvent acheter des liens sponsorisés qui apparaitront au top de la liste des résultats du moteur de recherche, ce qui permet une visibilité ciblée et instantanée pour le client (site Web).

La zone des liens organiques contient que des liens naturels. La particularité d'un lien naturel c'est qu'il a été positionné spontanément par le moteur de recherche, et sans contre-partie de la part du propriétaire du site web. La priorité d'ordre de classement des liens organiques est déterminée par des algorithmes de positionnement des moteurs de recherche.


Les axes du référencement naturel :

Il existe 2 leviers d'amélioration possibles sur lesquels un référenceur peut agir, ces leviers peuvent favoriser ou, au contraire, pénaliser le référencement et le positionnement d'un site web.

1-Les critères On-page :

Les facteurs dits "On-page" font référence essentiellement :

  • A la structure :

    il s’agit de l'organisation et la qualité du langage HTML et les feuilles de style en cascade (CSS).
    Un site conforme aux standards W3C et son code est "clean", sera compréhensible par les spiders et donc facilement crawlable et indexable.

    Autrement, il faut que le site web soit bien structuré avec des balises sémantiques, et respecte quelques bonnes prariques, à savoir :

    • La balise <title></title> : Cette balise définit le titre de la page, qui est un composant essentiel dans le cadre d’une bonne optimisation puisqu’il est parmis les facteurs les plus importants pour les moteurs de recherche. Cela dit, chaque page du site web doit avoir un titre descriptif unique contenant au plus 70 mots (entre 10 et 70).
      Exemple d'un titre optimisé : <title>Référencement naturel SEO (Search Engine Optimization) — Wikipédia;</title>
    • Les balises <meta> : Les balises meta fournissent aux moteurs de recherche des informations (metadata) sur le contenu d’une page web.
      Les balises meta ont désormais moins d’importance pour les moteurs de recherche qu’il y a quelques années en matière de critère de pertinence et de positionnement.
      La balise meta description permet d’indiquer au moteur de recherche une phrase résumant le contenu de la page. Cette description sera affichée par les moteurs de recherche dans leur page de résultats (SERP), sous le titre. Or, si la page ne contient pas de balise meta description, ou si elle est trop courte, ou si le moteur décide de ne pas l’afficher, un extrait du contenu de la page sera affiché à la place.
      La balise meta keywords n'a plus d'utilité pour le référencement. (pour plus d'informations sur les balises meta)
    • L'encodage des caractères : Ce critère est important car il permet de fournir un contenu lisible en assurant un affichage correcte sur tous les navigateurs et partout dans le monde.
      Il est préférable d'opter pour le UTF-8 car il intègre pratiquement tous les caractères mondiaux.
      Exemple : <meta http-equiv="Content-Type" content="text/html; charset=utf-8">
    • La balise <strong></strong> : Cette balise sert à la mise en gras des mots-clés, Les moteurs de recherche généralement priorisent les mots qui sont mis en exergue dans les pages web.
      Ainsi, une page qui contient un mot-clé en gras sera donc mieux positionnée, par rapport à une page contenant ce même mot-clé en police normale.
      NB:Il est préférable d'utilisé la balise <strong> au lieu de la balise <b>.
    • La balise <hn></hn> : Les balises <h1> à </h6> sont utilisées pour mettre en valeur les titres dans les pages web. La balise h1 est utilisée pour encadrer un titre principal, la balise h2 vient ensuite pour décrire les sous-titres,etc...
      Il est possible d'utiliser les balises h4, h5 et h6 pour structurer une hiérarchie plus profonde, mais leur poids sémantique sera très faible. Les moteurs de recherche prennent en compte ces balises (<h1> à </h6>) pour donner un poids aux pages web sur une requête donnée. Un mot-clé compris entre des balises <h1> à </h1> aura un poids important pour le positionnement de la page sur ce mot-clé.
    • Les attributs alt et title : Le moteur de recherche Google prend en compte les termes insérés dans les attributs alt & title, mais le poids qui leur est affecté dans l’algorithme de pertinence est faible.

    D'autres critères d'optimisations viennent s'ajouter dans cette catégorie :
    • Le nom de domaine : C'est un facteur déterminant, en effet le bon choix d'un nom de domaine, sa longueur, sa facilité de mémorisation et les mots-clés qui le composent ont influence favorable aux utilisateurs : Les bots et les internautes.
      L'ancienneté, la localisation de l'hébergeur et l'historique du nom de domaine ont aussi leurs poids en positionnement dans les moteurs de recherche.
    • Le fichier Robots.txt : Ce fichier est déstiné aux robots et a pour but de facilité et de bloquer l'indexing de liens, comme la partie administration du site, les pages vides, les dossiers privés.
      L'utilisation du fichier Robots.txt n'est pas obligatoire, mais une utilisation erronée peut blouquer le crawling et l'indexation du site.
    • Le fichier sitemap.xml : Bien que ce fichier n'a pas d'influence directe sur le positionnemment d'un site, il peut s'avérer très utile car il accélère le procoessus d'indexation.
      Le référenceur doit soumettre manuellement le fichier à Google et à Bing (par exemple) pour leur fournir les liens à visiter, la fréquence de mises à jour, la priorité des liens...
    • La vitesse de chargement : Le temps de chargement d'une page peut améliorer ou pénaliser le positionnement, en effet les moteurs de recherche ne favorisent pas les pages surchargées car elles augmentent le temps nécessaire au crawling.
      Réduire le temps de chargement est un processus itératif est perpétuel; Il y a plusieurs facteurs à prendre en considération pour atteindre une vitesse de chargement acceptable, ci-dessous une liste non-exhaustive :
      • Les fichiers JS et CSS : Il faut externalisé au maximun les codes JavaScript et les feuilles de style CSS.
      • Compression du code HTML : La compression HTML permet de réduire la taille totale d'une page HTML sans impacter l'affichage de cette dernière. La compression (gzip ou deflat) peut être activée on utilisant le fichier .htaccess ou eventuellement le PHP.
      • Le système de cache et les headers : Le système de cache permet d’accéder à des données préchargées, sans besoin de les rechargées. Sur un site web le système de cache permet de fournir des pages depuis la cache aux visiteurs afin d'accroître considérablement la vitesse d'accés en reduisant le nombre de requêtes HTTP.
        Les headers ou entêtes sont des informations transmises entre un ordinateur et un serveur. Ces informations servent à transmettre différentes informations : l'emplacement des fichiers, la date de mise à jour, la configuration, …

      Dans ce contexte GTmetrix est un outil puissant qui permet de tester les performances d'un site web et de proposer des solutions d'amélioration.

  • Au contenu :

    Le contenu contextuel, les publications, les articles, la thématique d'une page constituent généralement la valeur ajoutée d'un site web, c'est pourquoi il faut soigner la qualité et la pertinence du contenu de chaque page.
    Autrement dit, le contenu est à la base de tout travail de référencement naturel.

    • Les mots-clés : Dans le contenu (indexable par les bots), il est important d'insérer et de mettre en valeur des mots-clés et des expressions liés à l'activité ou à la thématique du site web. Il s’agit ici d’une phase décisive pour le référencement naturel d'un site : le choix des mots-clés sur lesquels une page ou un site a pour objectif d’être positionné.
      Cela passe par une certaine densité de ces mots-clés dans les pages, et également par la mise en exergue de ces même mots-clés dans le code HTML (<title></title>, meta description, <strong></strong>, etc.)
    • Les URL : Une adresse url bien construite composé de quelques mots-clés sera plus facile à retenir et compréhensible par les bots et les internautes.
      Dans certain cas, il est possible d'utilisé la réécriture d'url (URL REWRITING) pour transformer des url complexes http://www.monsite.com/index.php?page=article&topic=seo&page=1 en des url simples et SEO Friendly http://www.monsite.com/article-seo-1/.
    • HTTPS : Le protocole HTTPS permet aux utilisateurs d’un site web de vérifier l’identité de l’éditeur et de l’organisme de certification grâce à un certificat électronique. Ce certificat SSL assure la confidentialité et l’intégrité des données échangées entre les visiteurs et le site internet.
      Désormais Google favorise les sites web utilisant le protocole HTTPS.
    • Favicon : Son impact est minime sur le référencement, mais son effet est non négligeable sur les utilisateurs.
  • Google le moteur de recherche le plus sollicité utilise plus de 200 critères dans ses algorithms de positionnement, cela dit que d'autres critères existent et nous essaierons d'en parler d'avantage dans les futures publications.

2-Les critères Off-page :

On parle surtout de développer la réputation, la popularité et la notoriété d'un site web ou d'une marque (personal branding); C’est ici un processus laborieux et qui requiert un maximum d’ingéniosité. L'objectif est d’obtenir un maximum de backlinks (Liens de retour) de qualité depuis des sites notoires vers le site web en question, pour booster sa popularité en retour.

Différentes stratégies de création des liens existent :

  • Le linkbaiting : Consiste à appâter les internautes en leur proposant un contenu unique de qualité et intéressant, susceptible d'inciter la création de backlinks pointant vers ce dernier.

  • Le linkbuilding : Cette stratégie quant à elle exploite d’autres méthodes plus collaboratives:
    • La soumission du site aux annuaires thématiques, généralistes ou localisés.
    • La diffusion gratuite des e-books, de communiqués de presse.
    • L’inscription dans des sites digg-like.
    • Le netlinking (échange de liens) entre sites.
    • La présence sur les réseaux sociaux (Facebook, Twitter, Google+...)
    • Etc.

Les techniques de référencement «Black-hat» :

Black_hat_SEO

Le terme Black Hat n’est pas spécifique au référencement naturel, mais c'est un concept informatique pour désigné des hackers informatiques (Appelé aussi Crackers) qui ont de mauvaises intentions, tandis que White hat désigne les hackers aux bonnes intentions ou les experts en sécurité informatique.

Dans le domaine du référencement, les techniques Black hat sont des pratiques frauduleuses et abusives de référencement naturel visant à duper les moteurs de recherche afin d'obtenir une place de choix parmi les 10 premiers résultats naturels.

Google et les autres moteurs de recherche se sont efforcés à combattre ces techniques (Appelé également Spamdexing) en introduisant des mises à jour à leur algorithmes contre ces pratiques abusives.

On va essayé d'exposer quelques techniques Black Hat de référencement, mais sachez qu'il en existe plusieures, et nous n'encourageons pas l'utilisations de telles techniques.

  • Le Cloaking :

    C'est une technique assez utilisée pour tromper les moteurs de recherche et leur fournir un contenu spécifique truffé de mots-clés.
    Le principe de fonctionnement est simple: un script se charge de fournir le contenu selon le type de visiteur, si le visiteur est un bot alors ce dernier est redirigé vers une page suroptimisée créée spécialement pour cet effet, dans le cas contraire le visiteur est un humain et il sera redirigé vers une autre page.

    Il existe plus d'une méthode de détéction et d'identifaction des bots (spiders ou crawlers), mais les moteurs de recherche ne cessent d'améliorer leur algorithmes pour détécter cette pratique. Et si le cloaking est détécté sur un site web, ce dernier sera banni et supprimer de l'index une fois pour toutes.
    Exemple simple :

    if(isCrawler()){
    include('bots_page.php');
    }else 
    {
    include('users_page.php');	
    }

  • Les Doorway Pages :

    Appelées aussi "pages satellites" sont des pages web créées et optimisées pour être bien positionnées sur les moteurs de recherche; Ces pages satellites incluent une redirection vers un site web ciblé.

    Les pages satellites sont facilement détéctables par les moteurs de recherche.

  • L'Article Spinning :

    Egalement "Contents spinning" consiste à copier et modifier à la volée un article (le contenu) afin de créer une ou plusieurs variantes du contenu original. De nombreux sites offre ce service gratuitement.(C’est le cas de spinbot.com)

  • Le Keyword Stuffing :

    Peut être traduit en "truffage de mots-clés", c'est une pratique qui consiste à insérer d'une façon abusive des mots-clés sur une page web.
    Souvent,les mots-clés sont dissimulés aux visiteurs, néanmoins ils restent lisible par les moteurs de recherche.

  • Le Cybersquatting :

    Appelé également "Domain squatting" définit une pratique consistant à enregistrer un nom de domaine sous une autre extension ou une autre orthographe.
    Cette pratique a pour objectif de nuire à une marque (concurrent), d'altérer sa visibilité ou de profiter de sa notoriété.

Les techniques Black-Hat évoluent avec l'évolution des moteurs de recherche, et il y aura toujours une façon de duper les robots.


Quelles garanties offre le référencement naturel ?

Le référencement naturel peut garantir une augmentation de trafic vers votre site web, en effet le fait d'occuper une position visible dans les moteurs de recherche, va permettre à votre site d'être sollicité davantage.

L’objectif du SEO est : certes, de générer plus de trafic sur des mots-clés spécifiques. Mais il faut comprendre que le référencement à lui tout seul ne boostera pas le CA de votre activité.
Cela dit, si le SEO va améliorer votre trafic, il vous revient d'exploiter ce changement pour augmenter votre taux de transformation et de mener des actions marketing en parallèle, car aucune stratégie SEO n'est durable et tout est lié aux algorithmes de positionnement. Un moteur de recherche peut changer du jour au lendemain ses algorithmes et aucune personne n’est partenaire des moteurs de recherche sur le référencement naturel.