Pourquoi un site Internet peut-il se retrouver en haut du classement de Google sans être optimisé ?

 

Pourquoi un site Internet peut-il se retrouver en haut du classement de Google sans être optimisé ?Vous êtes-vous déjà demandé pourquoi certains sites se classent en haut des résultats de Google alors qu’ils ne sont pas optimisés pour les moteurs de recherche ? Ou même encore lorsqu’ils n’ont que très peu de backlinks, c'est-à-dire des liens entrants suite à des campagne de netlinking ?

 

Un certains nombre de porteurs de projet nous ont posé cette question au cours de ces derniers mois (l’idée était qu’en supprimant du devis toute la partie en rapport avec l’optimisation, il y aurait une baisse du prix global). Manifestement, il arrive encore qu’un futur propriétaire de site ne comprenne pas la nécessité d’une bonne optimisation et que ce n’est pas ici qu’il faut chercher à faire des économies. Nous avons donc pensé à écrire un article afin d’expliquer pourquoi cela arrive, et par extension, pourquoi cela ne vous arrivera pas. Et pourquoi pas allez-vous nous répondre ?! Parce que 7 raisons expliquent comment un site Internet non optimisé peut se retrouver dans les meilleurs résultats de Google, et qu’il est impossible à un site nouvellement mis en ligne ou âgé de moins de quelques années d’être dans ces situations.

 

Raison n°1 : le taux de clics

Une partie des algorithmes de Google garde un œil sur le taux de clics. Il le calcule comme un pourcentage, reflétant le nombre de clics que vous recevez à partir du nombre total d’internautes cherchant la phrase spécifique (= la requête dans noter jargon) pour laquelle votre site est classé. Plus le pourcentage est grand, plus votre entrée est attrayante en comparaison avec celles de vos concurrents. Et si votre taux de clics est plus haut que celui de tout le monde, Google commencera doucement à vous faire grimper ses pages de résultats étant donné que ce facteur d’algorithme l’informe que ses utilisateurs préfèrent votre entrée aux autres.

 

Considérer le taux de clics n’est cependant pas suffisant, vu que des experts SEO pourraient créer des étiquettes de titres trompeuses et des meta descriptions pour améliorer les résultats de leurs clients. Pour cette raison, Google regarde également votre taux de rebond. Il évalue le nombre de visiteurs quittant votre page en cliquant sur le bouton Précédent de leur navigateur web, pour retourner sur la page de résultats de recherches. Si Google envoie 1 000 personnes sur une de vos pages web et que chacune d’entre elles cliquent sur le bouton Précédent après seulement quelques secondes sur la page considérée, cela l’informe que votre page n’est pas pertinente sur la requête tapée, et les mots clés lui étant associés.

 

Il existe des sites Internet qui ont un bon positionnement sans être optimisés, grâce à un taux de clics haut et un taux de rebond bas. Il faut donc avoir un contenu rédactionnel et des produits très bien présentés et positionnés : textes, explications, détails, photos, prix, commentaires, etc.   Et ceci aide à maintenir leur positionnement.

 

Si vous souhaitez connaître votre taux de clics, connectez-vous sur Webmaster Tools et cliquez sur le profil de votre site. Si vous n’avez pas de profil pour votre site, cela signifie que vous devez ajouter votre site sur Webmaster Tools et attendre quelques jours. Une fois que vous pouvez voir votre site sur Webmaster Tools, cliquez sur l’option de navigation trafic des recherches et cliquez ensuite sur requêtes de recherche.

 

Raison n°2 : l’âge  du site Internet

Un des grands facteurs qui font que certains sites se classent bien est leur âge, et par extension leur date de mise en ligne (ou de la mise en ligne de la page bien référencée). La plupart des sites qui sont en haut des résultats de recherches sont vieux d’au moins quelques années, et le plus souvent bien avant que Google ne modifie certaines règles de ses algorithmes qui planteraient le vôtre.

 

Bien entendu, une grande partie de ces sites plus anciens ont plus de liens retours et de contenus comme ils sont là depuis quelques temps, mais pas tous. Certains n’en ont aucun, car ils ont utilisé des règles de black hat pour leur référencement, sauf que le moteur de recherches ne les sanctionnent pas, car les pages considérées sont antérieures de plusieurs années avant que ne soient créées ces infractions. Vous avez ici un grand danger si vous ne passez pas par un spécialiste pour vous référencer ou pour créer votre site web : faire un clone du site bien positionné, et vous apercevoir au bout de 3 mois que vous êtes sanctionné. Mais pas l’autre site ! Mais si tout est identique, surtout si vous avez fait mieux sur certains points que votre concurrent, comment une telle discrimination est possible ? L’âge du site et l’ancienneté des pages, comparée à la date de mise en ligne des règles de Google qui plombent le vôtre, expliquent cela.

 

Vous ne pouvez pas faire grand-chose d’autre que d’attendre que le temps passe... Plus votre site sera âgé, plus vous recevrez du trafic de recherches, en supposant bien entendu que vous essayez de l’améliorer continuellement, et qu’il n’entre pas en infraction avec de nouvelles règles.

 

Raison n°3 : le netlinking

Google ne regarde pas simplement le nombre de liens entrants qu’un site possède, il regarde également la pertinence et l’autorité. Bon nombre de ces sites non optimisés qui se classent bien ont quelques liens entrants de bonne qualité qui envoient vers les bonnes pages internes. Par exemple, si vous avez seulement quelques liens, mais qu’ils viennent d’extensions .edu et .gouv, votre site se classera extrêmement mieux que des .com.

 

En plus d’avoir les bons liens de retours, ces sites ont également un texte d’ancrage pour ces liens qui fait mouche. La plupart des référenceurs amateurs pensent que vous avez besoin de liens de texte d’ancrage riches afin d’avoir un bon positionnement, mais en réalité ce n’est pas le cas. Google est capable de regarder la page web qui redirige l’utilisateur vers vous et d’analyser le texte qui entoure le lien, tout comme le texte de la page. Cela aide Google à déterminer si le lien est pertinent à votre site et ce que votre positionnement devrait éventuellement être.

 

Raison n°4 : le recoupement ou cross-linking (maillage interne)

Même si vous n’avez pas le meilleur SEO ou 1 tonne de liens retours de qualité, il vous est possible d’obtenir un bon classement pour une perspective générale du site si vous recoupez vos pages.

 

Et c’est important non seulement d’une perspective en rapport avec la navigation ou son aide, mais d’une perspective de contenu adéquat. Si vous pouvez ajouter des liens internes dans votre contenu à travers votre site et recouper vos pages, vous verrez que le positionnement de toutes ces pages augmentera. D’un autre côté, si vous ne recoupez pas le contenu de vos pages, vous verrez que certaines de vos pages web se classeront très bien, alors que d’autres non. La raison est que vous ne distribuez pas de jus de liens et d’autorité sur la totalité de votre site.

           

Raison n°5 : la qualité du contenu

Depuis sa mise à jour Panda, Google est capable de déterminer la qualité du contenu d’un site web. Par exemple, il peut déterminer si un site a trop peu de contenu ou s’il a du duplicate content externe voire interne, ou si son contenu pourtant unique ne tourne pas toujours autour de la même chose (ce qui est pénalisé comme le serait un site de médiocre qualité), ce qui permet une bien meilleure analyse de la qualité du contenu.

 

Bon nombre de ces anciens sites bien classés ont un contenu qu’une qualité excellente et qui reçoivent encore beaucoup de visites pour l’information qu’ils offrent. Vous ne pensez peut-être pas que c’est le cas, mais Google oui.

 

Pourquoi ?

 

Parce que Google ne regarde pas simplement le contenu présent, il regarde le contenu d’un site Internet et le compare à celui d’autres sites de la même thématique. Donc si vous avez une qualité meilleure de contenus que celle de tous vos concurrents, vous avez beaucoup plus de chances d’avoir un meilleur référencement à long terme.

 

Raison n°6 : la compétition

Un merveilleux aspect du positionnement pour certains mots-clés est qu’ils n’ont pas à affronter une compétition très intense. Et certains de ces mots-clés ne sont pas recherchés très souvent. Ces pages ne sont pas mises à jour (crawlées) par Google aussi souvent que les termes les plus compétitifs. Pourquoi ? Parce qu’un nombre plus important d’utilisateurs s’intéressent à ces termes.

 

Si vous étiez à la place de Google, n’utiliseriez-vous pas vos ressources pour vous assurer que les termes et les pages de résultats les plus populaires soient mis à jour plus fréquemment que les expressions qui ne sont pas recherchées très souvent ?

 

Raison n°7 : la rapidité de croissance

Que devriez-vous faire si vous vouliez être très bien positionné pour un mot-clé ? Construire 1 tonne de backlinks pertinents et écrire beaucoup de contenus de bonne qualité ? C’est que beaucoup de webmasters augmentent leur nombre de liens un peu trop rapidement… si rapidement que cela ne semble pas naturel. Or Google est assez intelligent pour mesurer cet aspect naturel. C’est pour cette raison que vous voyez beaucoup de sites plus anciens se classer très bien comme ils croissent à un rythme naturel, à l’inverse d’un site pour lequel cela semble feint.

 

Là aussi un grand danger vous menace : puisque vous n’aurez pas de si tôt une qualité de netlinking équivalente en terme de volume, et si vous progressez chaque mois, vos concurrents aussi. Donc chaque mois c’est retour à la case départ, et vous pourriez vouloir accélérer les événements en demandant au spécialiste en référencement d’aller plus vite. Donc vous en demandez davantage et… pénalisé pour croissance exponentielle non naturelle !

 

Conclusion

Il existe de nombreuses raisons pour lesquelles des sites qui ne semblent pas bien optimisés se classent bien. Les 7 que l’agence web a citées ci-dessus sont les raisons principales que nous avons pu observer au fil des ans. La prochaine fois que vous essaierez de comprendre pourquoi un site en particulier possède un bon positionnement, il est probable que ce soit grâce à une ou plusieurs des raisons de cette liste.

En tant que propriétaire de site Internet, vous ne devriez pas trop vous soucier de vos concurrents, concentrez-vous plutôt sur son amélioration. A plus long terme, l’entreprise avec le meilleur produit ou service a tendance à gagner. Quoi qu’il en soit, pour un bon référencement il existe un mot d’ordre : patience. A vouloir trop vite des résultats, le risque de la pénalité reste d’actualité.

 

Commentaires

@ Killy : Faire du référencement à l’année n’exclut pas de payer tous les mois, et nous ne connaissions pas encore de professionnel faisant payer tout d’un coup à vrai dire… Par contre, s’il y a un engagement, et donc un contrat, vous ne pouvez pas arrêter quand vous le voulez, à moins que cela soit prévu dans les conditions. Un contrat qui démarre oblige toutes les parties de le mener jusqu’à son terme, c’est la loi.
Envoyé le 31/05/2016 à 08:40 par BreizhMasters
Je suis déçu du travail d’un premier prestataire SEO et je cherche un collaborateur qui accepte un payement mensuel et non un paiement de l’année en une fois. Comme ça je pourrais arrêter si je ne suis pas satisfait du résultat.
Envoyé le 30/05/2016 à 16:29 par killy
@ Manfred : le blog et d’autres articles accessibles depuis l’onglet du référencement abordent le sujet que vous évoquez très précisément. Une optimisation est un travail en profondeur autant que d’envergure, et les actions que vous citez ne représentent que 5 % d’une véritable optimisation. Un bon spécialiste ne se contente pas de définir des mots clés et de faire un retour sur ce que font tous les logiciels d’audits gratuits ; il faut au moins 3 semaines pour soulever les freins au référencement sur le site, voir ce qui lui manque, auditer la concurrence, etc. Il est certain que les éléments cités ne vous permettent pas d’approcher la 1ère page…
Envoyé le 19/05/2016 à 17:09 par BreizhMasters
J'ai fait optimiser mon site avec un référenceur qui gagne pas mal de contrats, en changeant la meta balise description, en organisant les H1, H2 et H3 de mon site, j'ai vérifier la concordance de mes mots clés, mais je ne suis jamais dans les premières pages :(
Envoyé le 19/05/2016 à 16:20 par manfred
@soft404 : oui, cette notification d’erreur est très négative pour le référencement. Ce problème ne vient pas de votre hébergement, mais de la mauvaise programmation du code de votre e-commerce. Je vous conseille de demander au webmaster la correction de cette faute de développement, car c’est l’appel du header de l’erreur 404 qui se fait mal. Du coup, Google voit bien que le contenu de la page ne correspond pas à la demande, mais comme le site ne lui indique pas qu’il s’agit d’une erreur 404, il affiche une notification intermédiaire, la soft 404. Autant une page 404 est favorable au référencement quant elle est bien travaillée (petite astuce de pro), autant la soft 404 est catastrophique…
Envoyé le 20/11/2015 à 12:01 par Agence web BreizhMasters
Bonjour, le serveur où j'héberge mon site renvoie une erreur "soft 404" à chaque fois que je supprime une page produit. Je me demande s'il y a un impact sur le référencement Google ?
Envoyé le 20/11/2015 à 11:20 par soft404
Votre Pseudo :
Votre E-Mail :
Votre Message :