SEO, quezaco ?

SEO est l’abréviation de Search Engine Optimization (optimisation des moteurs de recherche). Il s’agit d’un ensemble de techniques utilisées, généralement réparties entre la technologie, le contenu et l’autorité, pour obtenir un bon positionnement des pages d’un site dans Google et les autres moteurs de recherche, afin de générer du trafic organique.

La recherche étant l’un des principaux moyens par lesquels les internautes découvrent du contenu en ligne, un meilleur classement dans les moteurs de recherche entraîne une augmentation du trafic vers un site Web.

# devenir visible grâce au seo ?

Vous avez certainement entendu parler de Google, non ? Eh bien, à chaque fois qu’une page est publiée sur Internet, Google (et les autres moteurs de recherche) essaie de l’indexer afin qu’elle puisse être trouvée par quiconque la recherche.
Des millions de pages sont publiées chaque jour sur Internet et la concurrence est rude

Alors, comment faire pour que votre page devienne visible et attire des visiteurs  ?

Envie de performer ?
Prenez rdv avec nous en 1 CLIC :

C’est là que le SEO (Search Engine Optimization) entre en jeu. Comme la traduction le suggère déjà, le SEO est l’optimisation pour les moteurs de recherche, c’est-à-dire un ensemble de techniques qui influencent les algorithmes des moteurs de recherche pour définir le classement d’une page pour un mot clé particulier qui a été recherché
Mais pour commencer, nous vous proposons de trouver dans ces lignes un peu d’histoire…

# L’histoire du SEO en bref

C’est en 1993 que tout commence, avec l’arrivée d’Architext, considéré comme le premier moteur de recherche sur Internet (devenu Excite par la suite). Son succès grandissant, d’autres moteurs similaires apparaissent notamment Yahoo ! en 1994 et, enfin, Google en 1997. Fondé par Larry Page et Sergey Brin, Google est à la base créé pour être un moteur de recherche à grande échelle et « organiser Internet », en utilisant notamment l’analyse de liens pour déterminer la pertinence des pages en fonction de la recherche de l’utilisateur.

L’idée d’utiliser les liens reçus par une page est inspirée du milieu universitaire : un article ou une recherche scientifique qui reçoit des citations de revues et d’articles d’autres auteurs, en particulier ceux qui ont une meilleure réputation, seront considérés comme plus fiables : c’est dans cette logique qu’a été développé le révolutionnaire Pagerank – une métrique de 0 à 10, créée par Larry Page et calculée par la quantité et la qualité des liens reçus.

On connaît la suite : Grâce à sa capacité à remonter des résultats pertinents, Google s’imposera comme un des moteurs de recherche les plus performants du monde !

Logo Google à ses débuts

Jusqu’à ce que Google devienne populaire, les actions de référencement se limitaient à la soumission du site aux moteurs de recherche et aux optimisations on-page, telles que l’inclusion (et la répétition) de mots-clés dans le contenu.

Avec la popularisation de Google, les professionnels du référencement ont commencé à s’intéresser davantage à la métrique des liens, très importante pour le moteur de recherche. C’est ainsi que sont apparues les stratégies de création de liens ( appelées aujourd’hui Netlinking ), explorant à la fois des techniques légitimes d’obtention de liens et des pratiques plus obscures, axées uniquement sur l’amélioration de l’évaluation du site, indépendamment de sa qualité. C’est également en 2000 que la barre d’outils Google est lancée pour Internet Explorer, qui affichait notamment le fameux “Pagerank” des sites en attribuant une note de 0 à 10. Les techniques de création de liens sont ainsi devenues plus mesurables et plus populaires.

La même année, les résultats organiques de Google prennent de l’ampleur : Google AdWords est lancé, y compris les résultats sponsorisés, qui restent dans les résultats de recherche à ce jour.

Après des années d’optimisation des sites, de création de liens et de manipulation des classements par des techniques appelées « Black Hat », c’est en 2003 que la première mise à jour majeure de l’algorithme de Google, appelée Florida, pose les bases du SEO que l’on connaît aujourd’hui : Selon un article rédigé à l’époque par Gord Hotchkiss, Florida était un filtre appliqué aux recherches à caractère commercial identifiées par l’utilisation de mots-clés spécifiques. Lors de sa publication, cette mise à jour a suscité l’indignation des spécialistes du marketing, dont les sites d’affiliation constituaient la principale source de trafic (et de ventes).

Malgré l’impact de la mise à jour, les résultats ont été positifs : davantage de sites de qualité ont été lancés, les éditeurs de site ayant davantage investi dans leur propre site et les résultats de recherche sont devenus ainsi plus qualitatifs pour les internautes.

Mais ce n’était que la première mise à jour de Google.

Au cours des années suivantes, de nouvelles mises à jour ont été publiées, avec toujours pour objectif de réduire les résultats illégitimes présentés par le moteur de recherche et d’améliorer la qualité des recherches. Depuis lors, à chaque mise à jour publiée par Google, plusieurs spéculations sur la mort du référencement naturel sont également lancées. Toutefois, l’optimisation des moteurs de recherche va bien au-delà des techniques douteuses visant à manipuler les résultats affichés par Google, qui sont pénalisés et supprimés au fil des mises à jour.

L’optimisation des moteurs de recherche consiste à atteindre l’utilisateur en lui fournissant la réponse qu’il recherche dans le format idéal, en offrant la meilleure expérience possible dans l’environnement de la marque et en respectant les directives des moteurs de recherche.

# Comment fonctionne Google ?

Vous êtes-vous déjà posé la question de savoir TOUT ce qui se passe entre le moment où vous tapez votre mot clé sur Google et celui où vous cliquez sur les résultats affichés par le moteur ?

Ce qui se passe pendant ces millièmes de seconde reste secrètement gardé par le géant de la recherche sur Internet : la qualité et la rapidité de son classement ont fait de Google le plus grand moteur de recherche du monde, massacrant ses concurrents au cours des années.

Pour mieux comprendre, voici les 3 grandes étapes réalisées pour l’algorithme Google pour retourner, en un temps record, les meilleurs résultats sur votre recherche : Crawling , indexation et affichage des résultats.

1/ Le Crawling ou L’exploration de vos URL :

Le processus commence avec les URL générées par les processus d’exploration précédents et enrichies par les sitemaps. Lorsqu’il visite les pages, Googlebot identifie les liens existants et les inclut dans sa liste d’exploration. Les nouveaux sites, les modifications et les suppressions sont détectés et mises à jour au cours du processus.

2/ Indexation

Vient ensuite l’indexation, où Googlebot traite chacune des pages explorées pour les inclure dans son index.
L’index de Google est une base de donnée qui stocke les pages que le robot explore : Sa taille est aujourd’hui estimée à plus de 130 000 milliards d’URL, cela fait beacoup de Zero tout cela.
C’est là que sont indexées des informations telles que le contenu des pages, la date de publication, la région de publication, le titre, la description et les données structurées.


3/ Affichage des résultats.

Ainsi, lorsqu’une requête est formulée, une recherche des pages correspondantes est effectuée dans l’index de Google, affichant les résultats les plus pertinents. Et il ne s’agit pas d’une pertinence fondée sur des conjectures : elle est déterminée par plus de 200 facteurs de classement. Dans le processus de recherche, il y a également l’auto-complétion Google et le classique « Vouliez-vous dire… », conçus pour gagner du temps, corriger les erreurs et faciliter la recherche.

Algorithme et mises à jour ?

Même si vous n’avez jamais travaillé dans le domaine du référencement, vous avez probablement entendu parler de l’algorithme de Google ou de ceux des réseaux sociaux comme Facebook et Instagram. Ces algorithmes sont chargés de filtrer ce qui est le plus pertinent pour vous et non de simplement jeter tout le contenu disponible sur la page, sans aucun critère de classement.

Google utilise plus de 200 facteurs de classement pour définir l’ordre des pages présentées à l’utilisateur pour chaque recherche effectuée. Pour améliorer encore les informations présentées à l’utilisateur et leur pertinence, cet algorithme est constamment mis à jour.

Envie de performer ?
Prenez rdv avec nous en 1 CLIC :

# Découvrez les principales mises à jour de Google et leur impact.

2003 : Florida

Florida a été la première mise à jour majeure de Google et est considérée comme la mise à jour qui a posé les bases des techniques de référencement naturel . Lors de sa publication, il a supprimé entre 50 et 98 % des sites précédemment répertoriés. Il ciblait des sites de faible qualité (principalement des sites d’affiliation) qui pratiquaient le bourrage de mots-clés, avec des domaines contenant des mots-clés exacts et un réseau de liens pointant vers la page d’accueil du site.

2011 : Panda

Panda a été une mise à jour majeure qui a affecté près de 12 % des résultats de recherche. Il visait à pénaliser les sites au contenu de faible qualité, exploitant trop de publicités et les sites présents dans les fermes de contenu. Depuis lors, ses mises à jour ont toujours été axées sur la qualité du contenu des sites. Après 27 mises à jour impactant les résultats de recherche, elle a reçu sa dernière mise à jour en 2015 : Panda 4.2 n’était qu’une mise à jour de la base de données, mais elle a fini par avoir un impact sur de nombreux sites qui produisaient encore du contenu de très faible qualité.

Google Panda et Google Penguin

2012 : Penguin/Pingouin.

Également connue à l’époque sous le nom de mise à jour Webspam, Pingouin était la mise à jour responsable de la réduction de la suroptimisation du contenu. À son lancement, il a eu un impact sur environ 3,1 % des résultats de recherche en anglais. Son objectif est d’identifier et de pénaliser les sites qui pratiquent le bourrage de mots-clés et participent à des systèmes de génération de liens factices et en masse. Comme Panda, cette mise à jour de l’algorithme est passée par une série d’améliorations et de versions, jusqu’à atteindre sa version 4.0 (2016), où elle est officiellement entrée dans l’algorithme de Google et a commencé à agir en temps réel.

2013 : Hummingbird

Contrairement à ses prédécesseurs, la mise à jour Hummingbird n’était pas un simple ajout à l’algorithme de Google, mais une refonte complète de celui-ci. Avec cette mise à jour, les résultats de recherche pour les utilisateurs vont bien au-delà du mot-clé : le moteur de recherche prend en compte non seulement les termes recherchés, mais aussi tout leur univers sémantique, comme le sens de cette recherche, y compris les synonymes et le contexte dans lequel les termes sont insérés dans les pages, ainsi que d’autres facteurs plus complexes, comme la localisation de l’utilisateur et même les recherches précédentes effectuées par celui-ci. Tout cela est fait pour que les résultats présentés soient de plus en plus liés à la véritable intention de recherche de l’utilisateur, et pas seulement aux mots de sa recherche.

2014 : HTTPS et SSL

Après avoir mis en garde et encouragé les webmasters à investir dans la sécurité, Google a annoncé en 2014 que le HTTPS devenait un facteur de classement, une façon d’encourager la migration de la communauté en ligne et donc de rendre le web plus sûr. Cette incitation est due au fait que les sites qui disposent d’un certificat SSL (et qui migrent donc vers le protocole HTTPS) utilisent des informations cryptées, ce qui empêche les données d’être identifiées à mi-chemin, si elles sont interceptées.

2015 : Mobile Friendly Update

La mise à jour de Google pour les appareils mobiles a été baptisée Mobilegeddon (en référence au film Armageddon) en raison de l’impact qu’elle aurait, selon les experts. Dans la pratique, toutefois, l’impact n’a pas été aussi important même si elle tend, en 2022, a être la norme pour performer en Référencement naturel. En clair, la mise à jour a commencé à donner la priorité aux sites adaptés aux appareils mobiles.

2016 : Rankbrain

En 2015, Google a annoncé qu’un système utilisant l’apprentissage automatique et l’intelligence artificielle était officiellement intégré à son algorithme pour aider le moteur interpréter et à présenter les résultats de recherche : Rankbrain.Selon Google lui-même, le système est devenu l’un des trois principaux facteurs de classement, avec les liens et le contenu. Mais, contrairement aux 2 autres facteurs, il est plus difficile d’optimiser votre site pour cette intelligence artificielle puisque ses critères de pertinence ne sont pas vraiment connus.

2017 : Fred

La mise à jour Fred a été publiée pour identifier les sites dont le contenu est de faible qualité et qui comportent trop de bannières publicitaires. Selon John Mueller, analyste des tendances des webmasters chez Google à l’époque, « si vous suivez les bonnes pratiques de référencement, la seule raison pour laquelle votre site est pénalisé est un contenu de faible qualité ».

Facteurs de classement de Google

Comme indiqué dans la rubrique précédente, Google définit la hiérarchisation et la pertinence des résultats en fonction de plus de 200 facteurs de classement. Chaque année, plusieurs recherches sont effectuées pour tenter de dévoiler tous les facteurs utilisés. Les 10 principaux peuvent être les suivants :

  • Autorité de la page/PageRank : l’autorité de la page est considérée comme un facteur de classement extrêmement pertinent.
  • Autorité du domaine : les pages qui font partie d’un domaine ayant une plus grande autorité sur l’internet ont plus de chances d’être mieux classées.
  • Pertinence des liens : il est préférable de recevoir des liens de sites qui traitent de sujets relevant de votre univers plutôt que d’autres sites.
  • Contenu original et de qualité : les moteurs de recherche veulent présenter les résultats des sites qui ont un contenu solide et original, ils leur donnent donc la priorité.
  • La taille du contenu : un contenu plus important est considéré comme moins superficiel sur le sujet et est généralement privilégié.
  • Mot-clé dans le titre : a une grande influence sur l’évaluation on-page.
  • Mot-clé dans le contenu : la présence du mot-clé dans les 100 premiers mots et dans les sous-titres est un signe fort de pertinence pour Google.
  • Temps de consultation des pages : Google accorde une grande attention au comportement des internautes lorsqu’ils accèdent aux sites qu’il présente.
  • Vitesse de chargement de la page : plus votre page est légère, mieux elle sera classée.
  • Responsive design : depuis quelque temps déjà, Google donne la priorité aux sites web adaptés aux appareils mobiles.

Indice Mobile-first

Annoncé fin 2016, ce nouveau mode d’indexation de Google est mis en place progressivement depuis 2017. En pratique, ce qui change, c’est que l’indexation de Google a toujours été basée sur la façon dont les sites Web étaient visualisés sur le bureau. Avec ce changement, le moteur de recherche se base sur la version mobile du site. Cela peut nuire considérablement au positionnement organique (et donc au trafic) des sites dont le site n’est pas adapté aux appareils mobiles. Toutefois, selon Google, les sites qui n’ont qu’une version de bureau continueront à être indexés et, s’ils ont un contenu de qualité, ils ne risquent pas d’être lésés.

# COMMENT CLEATIS PEUT M’AIDER A TRAVAILLER LE REFERENCEMENT DE MON SITE INTERNET ?

3 piliers sont aujourd’hui travaillés par les experts CLEATIS : Le SEO on Page, Le SEO off-page et le SEO technique.

Envie de performer ?
Prenez rdv avec nous en 1 CLIC :

SEO on Page

Certaines parties spécifiques d’une page sont plus pertinentes pour la recherche et méritent une attention particulière. Il est important de connaître ces techniques, mais il est encore plus important de ne pas les faire passer avant un bon contenu. Avec chaque mise à jour de l’algorithme, les robots de Google deviennent plus intelligents pour identifier la meilleure réponse à la question de l’utilisateur. Ce qui fonctionnera ici, ce sont les techniques de référencement sur page + un contenu de qualité. Les deux choses doivent aller de pair, sinon cela ne fonctionnera pas.

Mais en ce qui concerne le référencement sur page, les principaux attributs que nous pouvons mettre en avant sont les suivants :

Content is KING
Mais n’abusez pas du mot-clé, en le distribuant dans tout le texte de manière forcée. En effet, l’utilisation excessive et exagérée d’un même mot peut prêter à confusion pour les utilisateurs. Google n’approuve pas ce type de comportement et il est très probable que votre site en subisse les conséquences, comme une baisse de l’affichage de votre page dans les résultats de recherche. Si vous êtes ici à la recherche d’une réponse à la question de savoir “combien de fois un mot clé doit apparaître dans un texte pour qu’il soit classé”, nous devons vous informer qu’une telle réponse n’existe pas. En cas de doute, développez le contenu de manière naturelle et posez les questions suivantes :

  • Est-ce que je cite le mot-clé dans le contenu ?
  • En quantité raisonnable ?
  • Les utilisateurs sont-ils satisfaits du nombre d’occurrences ?
  • Est-ce que j’utilise des variations partielles ?
  • Est-ce que j’utilise des synonymes ?
  • Si toutes les réponses sont vraies, la page est prête à être publiée.


L’UX et le Contenu

Ajout de contenu sur WordPress

À quoi ressemble le contenu que vous produisez pour votre entreprise ? Outre les idées elles-mêmes, pensez-vous également à la manière de les structurer ? Contrairement à ce que certains pensent, l’internet n’est pas comme un livre. Cela signifie que si vous écrivez un bloc de texte long et monotone, les gens ignorent tout simplement votre message. mis sur Facebook, en répondant à des courriels ou en pratiquant toute autre activité.

Par conséquent, ils ont besoin de filtrer et de scanner facilement les informations sur votre site. Sinon, ils passeront à n’importe quelle autre page. Voici quelques éléments que vous pouvez insérer pour rendre votre contenu scannable :

  • Paragraphes courts
  • Rubriques
  • Points de repère
  • Gras
  • Italiques
  • Images

La Sémantique
Comme nous l’avons évoqué dans cette rubrique, il est important d’optimiser votre page pour un mot clé afin d’obtenir de meilleures performances dans les résultats de recherche.
Cependant, il existe d’autres facteurs qui aident Google à comprendre le contexte de votre contenu au-delà du mot-clé principal. Ces facteurs peuvent même classer votre site pour des termes pour lesquels votre contenu n’est même pas optimisé.

Le Contenu dupliqué = PAS BIEN.
Vous avez déja probablement vu dans certains résultats de recherche que Google vous informe que certains résultats ont été omis.
Souvent, la raison de cette omission est qu’il s’agit de contenus dupliqués.
Par conséquent, reproduire le même contenu d’un autre site sur le vôtre ne générera probablement aucun trafic organique. C’est pourquoi il est important de toujours investir dans un contenu original.

Titre et méta-description
Le titre de la page (ou « titre ») n’est pas nécessairement le même que le titre de l’article. En fait, le titre fait référence à une propriété du code HTML (le ), identifiée par la phrase qui apparaît dans l’onglet du navigateur ou la page de résultats de Google.<br /> Cet élément est très important pour le référencement, cependant, son espace est souvent occupé par des slogans ou des phrases qui ne décrivent pas bien la page ou n’utilisent pas les mots-clés qui comptent vraiment pour l’entreprise (par exemple « Accueil ou Home » sur la page d’accueil du site). L’astuce consiste à décrire avec précision le thème de la page et à faire attention à l’ordre des mots : les premiers mots sont plus pertinents que les derniers.

N’oubliez pas qu’il existe une limite de taille pour que le titre apparaisse dans les résultats de recherche. Il est recommandé d’utiliser une longueur maximale de 65 caractères pour le titre. Google peut même lire un nombre de caractères plus élevé, mais c’est la limite qui apparaît généralement lorsque le moteur de recherche affiche les résultats sur une page.

Qu’en est-il de la description du lien ? Est-il important pour le référencement ?
Lorsque vous recherchez un article particulier, le résultat affiche un petit résumé sous le titre. Ce champ correspond à la méta-description, un code inséré dans la page qui n’a aucun poids en tant que facteur de classement, mais qui influence directement le taux de clics. Et ce point est en effet un facteur qui va influencer le positionnement de votre page. Pour faire simple, l’objectif de la méta-description est de convaincre l’utilisateur de cliquer sur le lien. Il s’agit donc d’un domaine très important à travailler.

Il est important de se rappeler que le texte inclus dans la description n’apparaît pas toujours dans Google. Le moteur de recherche donne la priorité au texte le plus pertinent pour l’utilisateur et si un élément de contenu est considéré comme plus approprié que la description configurée, il sera affiché.

URL
Un autre élément dans lequel le robot Google recherche des mots-clés est l’adresse de la page elle-même. Il est donc essentiel que votre URL soit descriptive et contienne le mot clé souhaité, quelque chose comme « https://site.fr/nom-de-la-page ».
Évitez de créer des URL avec des codes comme dans le modèle « https://site.fr/ct136781xg19g37 » ou des paramètres comme « https://site.fr/?p=12447 ». En plus, il est plus convivial, fiable et facile pour les gens de partager les liens de votre site web avec leurs contacts respectifs lorsque l’Url défini clairement l’objet et le sujet de la page !

Liens internes
L’internet tout entier est constitué ni plus ni moins que de liens, à l’image d’une énorme Toile d’araignée. Les utilisateurs parcourent et “sautent” de liens en lien en permanence, tout comme les robots de Google.
Les raisons pour lesquelles votre site doit avoir une architecture de liens internes bien définie deviennent évidentes notamment pour :

  • Améliorer la navigation des utilisateurs
  • Faciliter l’indexation des nouvelles pages pour les moteurs de recherche
  • Reliez les pages qui traitent de sujets similaires
  • Lorsque vous incluez des liens, il est important de faire attention au texte d’ancrage et de ne pas toujours travailler avec des indications génériques, telles que « dans ce billet » ou « cliquez ici ».

L’idéal est d’utiliser une ancre liée au sujet de la page, afin d’indiquer aux robots que, pour un sujet donné, il s’agit de la page principale.

Texte alternatif
Toutes les images d’une page doivent avoir un texte “alt” au cas où l’image ne s’afficherait pas. C’est la balise Alt de votre photo ou image qui aide les programmes de lecture d’écran et Google à comprendre ce que l’image représente.

L’utilisation du mot clé dans le texte alternatif (ou texte alt) contribue également au positionnement organique du contenu, en renforçant auprès des moteurs de recherche le contexte dans lequel l’image est insérée.
Google lui-même recommande que le texte alternatif soit un bon descriptif par rapport à l’image qu’il représente et ne soit pas trop long.

Featured Snippet (position 0)
Avez-vous déjà remarqué que dans certaines recherches effectuées sur Google, une boîte s’affiche avec une partie du contenu que vous recherchez ?

Ce résultat est appelé « featured snippet », également connu sous le nom de « position 0 » de Google, et affiche généralement des recettes, des didacticiels, des tableaux, des définitions détaillées, etc. Il est important de souligner qu’il n’y a pas de relation entre la position 0 et la position 1. Il existe même des recherches qui ont identifié des sites présents sur la 8ème page du chercheur présentant le résultat en position 0. Vous vous demandez peut-être comment atteindre la position 0 dans Google.

Eh bien, il n’y a pas exactement de marquage de données ou de garantie pour y parvenir. Il s’agit d’un sujet relativement nouveau et de nombreuses personnes l’étudient encore.
Il est recommandé de travailler avec du contenu qui apporte une réponse directe et objective à une certaine question ou un tutoriel étape par étape si la recherche s’applique.

SEO off-page

Nous pouvons considérer le référencement hors-page comme l’ensemble des activités réalisées en dehors du domaine du site qui ont un impact direct sur son positionnement organique.

Elle est généralement liée à la création de liens, mais il existe un autre facteur que les liens qui influence les résultats d’un site : la présence de la marque.

Présence de la marque sur Internet.
Améliorer la présence de votre marque sur Internet n’est pas la même chose que de créer des liens. La présence de la marque n’augmentera pas l’autorité de votre domaine, mais elle augmentera la confiance de Google et des autres moteurs de recherche dans votre marque. Et si vous êtes une marque de confiance, vous avez peu de chances d’être pénalisé.

Quelques facteurs qui peuvent influencer la présence de votre marque :

  • Mentions du nom de la marque sans lien sur les sites web et les portails ;
  • Présence consolidée sur YouTube ;
  • Évaluation positive des utilisateurs dans Google ;
  • Une base de fans solide et engagée sur les réseaux sociaux.

Le fait de recevoir une mention de votre marque avec un lien vers votre site web (provenant principalement de sites web pertinents et fiables), en plus de contribuer à la présence et à la confiance de la marque, augmente également l’autorité de votre site web et fait déjà partie des actions de création de liens.

Création de liens ou Linkbuilding

Le netlinking, élément essentiel de votre stratégie SEO

Comme facteur de classement de Google, l’autorité de vos pages et de vos domaines sont parmi les critères les plus importants. Après tout, classer les sites web en tenant compte des liens qui pointent vers eux était le principal facteur de différenciation de Google lorsqu’il est entré sur le marché des moteurs de recherche.
De plus, plusieurs études réalisées par les ténors du secteur ont montré que le nombre de domaines référents était le facteur qui influençait le plus les positions.

Toutefois, depuis la mise à jour Penguin, ce n’est pas seulement la quantité de liens que Google prend en compte pour évaluer un site : l’accent est désormais mis sur la qualité de ces liens.
Il est plus important de recevoir un lien d’un site fiable, faisant autorité et ayant un rapport avec votre contenu que d’en recevoir plusieurs autres de petits sites, sans aucune autorité ni pertinence.
Bon, il faut maintenant être conscient qu’un article sponsorisé dans les grands médias sur internet…ce n’est généralement pas donné.
Pour générer des liens vers votre site sans pour autant vous ruiner, nous utilisons certaines tactiques de « link building » cohérentes pour apporter de la notoriété de votre site tout en préservant votre portefeuille.

Découvrez 3 techniques populaires de création de liens :

  • Production d’articles pour d’autres blogs en tant qu’invité (avec des liens pointant vers votre site), qui explorent un contenu lié à l’univers de l’entreprise et à un site pertinent. Il ne faut pas le faire uniquement pour générer des liens, il est important de maintenir une norme de qualité et d’inclure des liens qui ont un sens pour l’utilisateur. En savoir plus sur les messages invités.
  • Tous les sites qui vous mentionnent ou mentionnent votre marque n’incluent pas un lien vers votre site. C’est pourquoi il est important de surveiller ces mentions et, si elles sont faites sans lien, de contacter la personne responsable pour essayer de les inclure. Vous pouvez utiliser les alertes Google pour cela.
  • Il est très probable que les sites en rapport avec votre activité aient généré à un moment donné des liens vers d’autres sites, qui sont maintenant rompus (l’autre site a désactivé la page ou n’existe tout simplement plus). Si vous disposez d’un contenu pertinent pour remplacer le lien brisé, il suffit de contacter l’auteur ou le propriétaire du site pour l’informer de l’erreur et lui recommander l’échange de votre lien. En savoir plus sur la génération de liens via les liens brisés.
  • Interviewer des experts dans votre domaine est très avantageux, car cela génère du contenu de qualité et permet également de générer des liens à partir des experts eux-mêmes. Pour encourager cela, vous pouvez contacter la personne interrogée après la publication pour la remercier de sa participation et lui envoyer le lien vers l’interview. Vous pouvez également profiter du contact et indiquer un contenu du site du spécialiste auquel l’entretien correspond. Il est très probable qu’il/elle l’inclura (dans le contenu indiqué ou plus tard, dans un contenu pertinent).

En théorie, cela peut sembler simple, mais plus le site est grand, plus il est difficile de le contacter et de générer des liens. Un autre problème est que de nombreux grands sites, notamment les portails d’information, n’incluent les liens externes qu’en utilisant « nofollow ».

Malgré tout, il peut sembler difficile de mesurer les résultats d’une stratégie de création de liens ou la réputation d’un site. Outre le nombre de liens, affiché dans Google Search Console, il existe d’autres mesures qui peuvent vous aider :

  • Pagerank : une métrique de 0 à 10 créée par Larry Page (l’un des fondateurs de Google) pour mesurer l’autorité d’une page. Actuellement, le Pagerank calcule la quantité, la qualité et la pertinence des liens reçus par une page. Depuis 2016, il n’est plus divulgué publiquement.
  • Page Authority et Domain Authority (Moz) : métriques de 1 à 100 créées par Moz pour mesurer l’autorité d’une page (Page Authority ou PA) ou du domaine entier (Domain Authority ou DA). Ils sont calculés en tenant compte des liens reçus, de MozRank, de MozTrust et d’autres métriques. Ils sont considérés comme de bonnes alternatives au Pagerank et peuvent être visualisés avec MozBar (gratuit) et Open Site Explorer.
  • URL Rating et Domain Rating (Ahrefs) : sont des métriques logarithmiques de 1 à 100 pour mesurer la force des backlinks d’une URL (URL Rating ou UR) et d’un domaine entier (Domain Rating ou DR). Ils sont calculés dans l’outil Ahrefs et vous devez avoir un compte pour y accéder.

Envie de performer ?
Prenez rdv avec nous en 1 CLIC :

SEO technique

De nombreux professionnels regroupent ces techniques dans le référencement sur page car elles concernent les améliorations au sein de l’environnement lui-même. Cependant, nous pensons que le référencement sur site, également appelé référencement technique, est une catégorie distincte qui ne concerne pas la production de contenu, mais plutôt les caractéristiques de programmation, les performances et la convivialité du site.

Les mises à jour de Google accordant de plus en plus d’attention à la qualité du contenu, ces techniques sont souvent négligées par les professionnels. Mais il est important de se rappeler que des facteurs tels que l’UX (expérience utilisateur), la vitesse de chargement et la sécurité sont également de plus en plus demandés et nécessitent votre attention.

Découvrez les principaux points d’attention en matière de référencement sur site.

UX
L’UX ou l’expérience de l’utilisateur en matière de référencement est chaque expérience et interaction de l’utilisateur avec votre site web ou votre blog. Offrir une expérience incroyable lors de l’accueil d’un utilisateur dans votre environnement en ligne influencera positivement des mesures telles que le taux de rebond, les pages vues par session et le temps passé par l’utilisateur sur le site. Il est important de se rappeler que des mesures comme celles-ci affectent directement le positionnement organique de votre site.

En ce qui concerne le contenu de votre site, en particulier les articles de blog, veillez à ce que le texte soit lisible, avec des paragraphes courts, des images, des illustrations, d’autres médias et tout ce qui peut contribuer à rendre le contenu plus facile, plus accessible et plus agréable pour l’utilisateur. Lorsque nous parlons d’accès via des appareils mobiles, cela devient encore plus pertinent, car l’expérience offerte sur les ordinateurs de bureau ne peut être la même sur les téléphones mobiles. Selon Google, 61 % des utilisateurs ont tendance à abandonner une page si l’expérience mobile n’est pas positive.

Mais comment savoir si l’expérience utilisateur sur le site est positive ?

Grâce aux mesures d’engagement présentées par Google Analytics, vous pouvez déjà savoir si l’expérience est positive ou non. D’autres outils comme Hotjar (plan gratuit), Clicktale et Crazy Egg aident également au diagnostic et à l’analyse de l’expérience, avec des cartes thermiques, l’enregistrement des sessions des utilisateurs et d’autres fonctionnalités.

Vitesse de chargement
En 2010, Google a annoncé que le temps de chargement des pages devenait un facteur de classement. Début 2018, le géant de la recherche est également sorti publiquement pour évoquer le fait que la vitesse des sites web sur les appareils mobiles commencerait à affecter les classements organiques dans les recherches effectuées sur mobile. Cette mise à jour a même été baptisée « The Speed Update ».

La vitesse de chargement au cœur de l’algorithme de Google

Vous pensez toujours que le temps de chargement de votre site n’est pas important ? Vérifiez ensuite certaines données qui vous feront changer d’avis :

  • 53 % des utilisateurs mobiles abandonnent le site si la page met plus de 3 secondes à se charger (source : Google).
  • 83 % des utilisateurs s’attendent à ce qu’un site se charge en 3 secondes ou moins (source : WebpageFX).
  • La campagne de collecte de fonds d’Obama a connu une augmentation de 14 % des dons en réduisant le temps de chargement de 5 à 2 secondes (source : WebpageFX).
  • Chaque amélioration d’une seconde de la vitesse d’une page augmente les conversions de 7 % (source : WebpageFX).
  • Maintenant que vous savez que l’amélioration du temps de chargement des pages de votre site affecte non seulement le positionnement organique de votre site, mais aussi l’expérience utilisateur et les conversions, que diriez-vous de nous laisser vous aider à l’optimiser ?

HTTPS
La sécurité est une priorité pour Google. À tel point que, comme nous en avons parlé dans la section « Algorithme et mises à jour », le moteur de recherche a annoncé en 2014 que le HTTPS devenait un facteur de classement pour les sites web.

« Mais qu’est-ce qui change avec un site web en HTTPS ? »

En principe, les données envoyées sont authentifiées, cryptées et ne peuvent être modifiées pendant le transfert. C’est tellement important que Google Chrome signale comme « site dangereux » les pages sans HTTPS qui demandent des informations à l’utilisateur. Dans certains cas, cette alerte s’affiche déjà dans les résultats de recherche de Google, sans même avoir à entrer sur le site.

Il est important de se rappeler que si vous migrez votre site vers HTTPS, Google et tous les moteurs de recherche considéreront qu’il s’agit d’un nouveau site, et qu’il s’agira donc de contenu dupliqué. Pour éviter cela, vous devez rediriger toutes les anciennes URL en HTTP vers les nouvelles en HTTPS, en plus d’autres précautions pendant la migration.

L’ex-Google Pedro Dias a élaboré une liste de contrôle pour la migration HTTPS, avec les principales étapes du processus. Les étapes sont indiquées :

  • Obtenez un certificat SSL ;
  • Valider le support HTTPS des ressources externes ;
  • Planifier et préparer la migration des protocoles ;
  • Activez le protocole HTTPS et installez le certificat SSL ;
  • Mettez à niveau les ressources internes et les liens vers HTTPS ;
  • Mettre à niveau les ressources externes vers HTTPS ;
  • Ajout de la version HTTPS dans Google Search Console ;
  • Activez le support HTTP/2 ;
  • Activez le HSTS.

Plan du site/ sitemap
Un sitemap n’est rien d’autre qu’un plan de votre site. Sa fonction est de faciliter le travail des robots crawler des moteurs de recherche pour comprendre la structure du site.
Si votre site utilise WordPress, vous pouvez générer le sitemap automatiquement via des plugins. Si vous n’utilisez pas de CMS, il existe des outils en ligne qui peuvent générer le fichier, comme XML-Sitemaps.

Le format le plus courant du fichier est XML, mais il est possible de générer un plan du site dans un fichier TXT et Atom-RSS (le flux RSS du site, mais il n’est pas recommandé de l’utiliser). Une fois généré, le lien sitemap doit être envoyé aux outils pour webmasters des moteurs de recherche, tels que Google Search Console et Bing Webnasters.

Robots.txt
Avez-vous déjà entendu des histoires (ou même cela vous est arrivé) d’un site créé, lancé il y a quelque temps, mais dont aucune page ne s’affiche dans Google, même en recherchant le nom de l’entreprise ?

Cela se produit généralement parce qu’il a été indiqué aux robots des moteurs de recherche dans Robots.txt de ne pas indexer une page.

Robots.txt est un fichier texte qui se trouve à l’intérieur du serveur du site (comme https://cleatis.eu/robots.txt, par exemple) et qui indique aux robots des moteurs de recherche s’ils peuvent (ou non) indexer certaines parties d’un site. En pratique, le fichier doit contenir l’agent utilisateur et les instructions disallow et/ou allow. Une autre instruction courante dans le fichier consiste à indiquer où se trouve le plan du site.

  • User-agent : indication du moteur de recherche qui doit lire les instructions présentes dans le fichier. Si vous souhaitez répertorier des configurations spécifiques pour un moteur de recherche particulier, vous pouvez consulter la liste des principaux agents utilisateurs sur Internet. Si les instructions s’appliquent à tous les navigateurs, vous pouvez simplement inclure un « * ».
  • Disallow : il s’agit des sous-dossiers ou des catégories du site que vous ne voulez pas que les moteurs de recherche explorent.
  • Allow : par défaut, les pages qui ne sont pas indiquées directement ou qui ne font pas partie de la catégorie listée dans la commande disallow seront crawlées. La commande allow est généralement utilisée pour des pages ou des sous-catégories spécifiques qui font partie d’une catégorie indiquée dans la commande disallow, mais qui doivent être explorées.
  • Sitemap : il suffit d’inclure les liens vers les sitemaps du site.

Balises d’en-tête ou Headings
Les balises d’en-tête ont gagné en importance en matière de référencement. Mais aujourd’hui, ils servent à présenter aux robots (et aux utilisateurs) une structure logique des informations contenues dans les pages.

Logiquement, le texte en H1 est plus important que le texte en H2, qui est plus important que le texte en H3 et ainsi de suite.
Selon Matt Cutts, ex-Google et référence en matière de SEO, il n’est pas nécessaire d’avoir exactement cet ordre, l’important est que la page ait une organisation pour l’utilisateur. Une autre question fréquente des webmasters est de savoir si le fait d’avoir plus d’une balise H1 est un problème. Matt Cutts répond également à cette question en déclarant qu’il est possible d’avoir plus d’une balise H1, à condition que la page n’en soit pas pleine. Comme ils sont considérés comme des textes phares de la page, il est important d’essayer d’intégrer les mots-clés explorés dans le contenu (en particulier dans le H1, qui est généralement aussi le titre de la page).

Cela permet aux robots des moteurs de recherche de comprendre que le sujet principal de la page est le mot-clé choisi, puisqu’il est présent dans une partie importante du texte, en plus de se trouver avec ses synonymes dans les paragraphes.

Rich Snippets.
Avez-vous remarqué que certains résultats de recherche présentés par Google sont plus complets que d’autres ? Certains ont une barre de recherche, des évaluations par étoiles, des liens vers des sites, etc. Plusieurs données sont présentées en même temps que le site, telles que des informations sur la société sur le côté droit de l’écran, une barre de recherche uniquement pour le site et des liens vers des sites.

Un exemple :

Erreur 404
« La page à laquelle vous avez essayé d’accéder n’existe pas. » Avez-vous déjà vu ce message sur un site web ? Cela se produit lorsque vous essayez d’accéder à une page d’un domaine existant qui a été supprimé, dont l’URL a été modifiée ou qui n’a jamais existé.

La première étape consiste à s’assurer qu’une page d’erreur 404 offre une expérience positive aux utilisateurs afin qu’ils restent sur votre site et trouvent ce qu’ils cherchent.

En plus d’indiquer la navigation vers la page précédente ou vers la page d’accueil du site, il présente également un champ de recherche permettant à l’utilisateur de rechercher le contenu auquel il souhaite accéder. En outre, il présente également les derniers matériels pédagogiques publiés en guise de suggestion de lecture.

Même si votre page d’erreur 404 offre une bonne expérience utilisateur, il est important de l’éviter autant que possible, en veillant à ce que, si vous devez supprimer ou dépublier un contenu, vous ayez une redirection 301 vers le contenu le plus similaire.
En plus d’améliorer la navigation et de présenter un contenu plus approprié, vous redirigez également l’autorité dont bénéficiait l’ancienne URL vers la nouvelle.

Envie de performer ?
Prenez rdv avec nous en 1 CLIC :

Redirections
En parlant de redirections, savez-vous ce que c’est ?

Fondamentalement, une redirection est une configuration dans le serveur afin que l’accès à l’URL A soit dirigé vers l’URL B. Pour cela, vous pouvez utiliser les redirections 302 ou 301, qui sont les plus utilisées (et indiquées). La redirection 302 est temporaire. En utilisant ce format, vous montrez principalement aux moteurs de recherche que vous apportez un changement ou une amélioration à l’URL A et que c’est la raison pour laquelle vous redirigez actuellement les utilisateurs vers l’URL B, mais que cela cessera bientôt.

Les redirections 301, en revanche, sont définitives. Il indique aux moteurs de recherche qu’ils ne peuvent désormais considérer que la nouvelle page, qui reçoit le lien, et même que l’autorité de l’ancienne URL passe également à la nouvelle. Outre la migration des pages qui n’existent plus et qui affichent une erreur 404, les redirections 301 doivent également être utilisées dans d’autres situations, comme la migration du domaine du site (qu’il s’agisse d’une simple migration de HTTP à HTTPS ou même d’un changement de nom), la redirection des anciennes URL vers les nouvelles. Il est également important d’appliquer les redirections des autres versions de votre site, comme la version avec www au début, home avec /index à la fin, etc. Redirigez-les tous vers la version officielle.

N’oubliez pas de faire attention aux chaînes de redirection lorsque vous effectuez des redirections. Évitez de rediriger vers une URL, qui redirige vers une autre, et ainsi de suite. Idéalement, la redirection doit se faire directement vers l’URL finale, car plus vous avez de redirections en cours de route, plus le temps de chargement est long et plus le risque que les robots de Google ne suivent jusqu’au bout est grand.

Balise canonique
Le nom peut sembler compliqué, mais l’objectif de la balise canonique est simple : en cas de contenu dupliqué, la balise canonique indique le contenu principal aux moteurs de recherche. Au premier abord, cela peut sembler très similaire aux redirections, mais dans le cas de la balise canonique, les moteurs de recherche n’attribueront de l’autorité à la page préférée que s’ils comprennent vraiment qu’il s’agit d’une version similaire et si l’utilisation de la balise a du sens.
Une autre différence est que les pages qui pointent vers la page principale restent accessibles à l’utilisateur, contrairement à la redirection qui finit par sauter la page à laquelle l’utilisateur ou les robots essaient d’accéder, pour aboutir à la page ciblée.

Si vous utilisez un logiciel de création de pages d’atterrissage ou Landing pages comme Strikingly ,vous pouvez travailler avec une page d’atterrissage pour chaque campagne, qu’il s’agisse de médias payants ou de médias sociaux. Comme les pages sont probablement très similaires, mais avec des URL différentes, vous pouvez en définir une comme principale et utiliser la balise canonique pour pointer toutes les autres.

Alternative Tag
Si vous avez une version exclusive de votre site pour les appareils mobiles, les moteurs de recherche la considéreront comme un autre site, avec un contenu très similaire à celui de la version de bureau, ce qui peut générer des problèmes de duplicate content. Pour éviter cela, vous pouvez utiliser la balise ALT dans la version de bureau des pages, pour indiquer aux moteurs de recherche qu’ils ont une version exclusive pour les appareils mobiles (en utilisant un site mobile) et dans la page du site mobile une balise canonique pour la version de bureau devrait être incluse.

ILS ONT EXPLOSÉ GRÂCE À NOUS

Visual Portfolio, Posts & Image Gallery for WordPress
SEO

+ 100% de visiteurs via le SEO en 6 mois – Référencement site ecommerce mobilier

SEO

+8000% de visiteurs – Stratégie de référencement pour une agence évènementielle

SEO

+ 100% chaque année de trafic global – SEO pour une entreprise de convoyage de véhicules sur LYON.

SEO

1er sur son mot clé phare en 4 mois + 10% chaque mois de visite pour un salon de coiffure