Passer au contenu

Google, Les Secrets de l’Algorithme pour le SEO

On sait que l’algorithme de Google évolue en permanence. Google dit d’ailleurs être en version Beta permanente. Il y a de petites évolutions hebdomadaires, des gros changements (Mayday, Panda) et des tendances de fond. Des experts américains viennent de publier leurs résultats sur la composition actuelle de l’algorithme. Les voici.

On sait que l’algorithme de Google évolue en permanence. Google dit d’ailleurs être en version Beta permanente. Il y a de petites évolutions hebdomadaires, des gros changements (Mayday, Panda) et des tendances de fond. Des experts américains viennent de publier leurs résultats sur la composition actuelle de l’algorithme.

Evolutions de l’algorithme

La période 1999/2002 a été celle de l’optimisation des pages (Balises, H1, Title…) et du Page Rank.

Puis, entre 2003 et 2005, ce sont les liens qui ont été la clé, qu’ils soient entrants ou internes pour le maillage du site. L’ancienneté du site, l’historique, les mots-clés dans les url étaient d’autres éléments à prendre en compte pour bien positionner son site en SEO.

L’algorithme a continué son évolution et entre 2006 et 2009, Google a pris en compte et donné davantage de poids aux sites selon leur autorité (.gouv, .org…). Les liens entrants et notamment leur diversité étaient également très efficaces.

Depuis 2009, les réseaux sociaux ont commencé à être pris en compte. Et leur poids dans l’algorithme s’accroit progressivement. Google a reconnu que des articles retweetés ou fréquemment repris étaient favorisés dans Google Actualités mais aussi pour le référencement naturel.

Twitter pour le référencement naturel

En la matière, mieux vaut aujourd’hui une page sans liens entrants et fortement retwittée qu’une page avec des centaines de liens entrants et pas de reprise sur Twitter (source Seomoz).

Inutile cependant de créer 10 comptes Twitter pour reprendre systématiquement tous vos messages puisque Google et Bing calculent et prennent en compte l’autorité de l’auteur (de même qu’un lien venant d’une page PR6 avait plus de poids que d’un PR2).

Structure de l’algorithme

D’après ces experts, l’algorithme de Google se décompose ainsi :

  • Indicateurs liés aux liens vers les pages
  • Trafic de la page
  • Qualité (autorité) des liens vers le domaine
  • Mots-clés de la page
  • Mots-clés du domaine
  • Indicateurs des Réseaux Sociaux vers les pages
  • Indicateurs liés à la Marque

Depuis 2 ans, les principales évolutions sont

  • Les liens ne représentent plus 60% de l’équation.
  • Les données des réseaux sociaux sont de plus en plus prises en compte.
  • Les indicateurs de liens vers les pages restent en première place, mais leur poids a fortement chuté (de 43% à 22%).

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera
44 commentaires
44 commentaires
  1. De fait, je trouve que ce raisonnement mené par Google étouffe les sites professionnels à professionnels, pour lesquels le e-commerce se développe et qui ne sont pas dans la cible des réseaux sociaux. Jusqu’alors, je ne cessais de déplorer qu”internet” soit – pour la plupart des êtres vivants de ce monde, facebook, twitter, gmail, les blogs et rueducommerce.

    Si ces révélations sont vraies, ce pourrait être très handicapant pour le web btob.

  2. Je vais être un peu médisant mais j’espère que les mecs ont pas travailler longtemps la dessus pour sortir ça. Surtout que je vois que ça ne parle même pas de l’aspect “contenu unique”…

  3. C’est une très mauvaise chose si tel est le cas. Cela dit, si cette étude est si sérieuse, cela serait bien de pouvoir la lire, car sans doute y a t-il des détails qui ne sont pas reprit dans cet article. Mais tel que c’est présenté ici, je n’aime pas du tout cette tendance.

    Cela revient à dire que l’on est obligé de composé avec les réseaux sociaux ou on sera pénalisé.

  4. Merci pour cet article intéressant 🙂
    @Ecrase à mon avis l’auteur a surtout cherché à proposer une analyse sur le côté évolutif de l’algorithme de Google et n’a pas souhaité entrer dans le détail des critères qui sont bien trop nombreux (plus de 200 parait-il).

    Au final, ce que je retiens pour ma part c’est la prise en compte de plus en plus importante du web social.

  5. Je suis d’accord avec seb et j’ajouterais qu’il semblerait que nous soyons dans une période charnière : l’algo ne pourra pas se contenter de s’adresser qu’a une catégorie “geek” de la population. les sites grand public avec une cible grand public (qui n’a pas connaissance de twitter ou pas de compte fb) ont leur place dans le classement et ce serait contraire au revendication de Google de ne pas présenter des résultats “pour l’internaute”.
    est ce que le récent +1 serait il là pour niveler cette tendance ?

  6. La recette de l’algo de Google est aussi secrète que celle du Coca-Cola, mais on peut au moins extrapoler sur son évolution, c’est l’objet de cette étude

  7. Merci pour cet article !
    Le contenu en est un peu vague mais comment être précis quand il s’agit du secret de fabrication d’une des plus grandes entreprises du monde de l’informatique.
    Ce bon article a le mérite de nous éclairer davantage sur ce qui compose cet algorithme et j’ai trouvé ça plutôt intéressant.

  8. Bel article bien que le sujet soit vaste et à peine effleuré ici.
    Pour ma part j’ai tout appris sur un forum spécialisé dans le référencement et le web marketing. En quelques mois j’en ai appris autant qu’avec un stage en agence de référencement de 6 mois.
    Je donne le lien en précisant que je suis simple membre, qu’il ne m’appartient pas mais que néanmoins je serai heureux de pouvoir vous y accueillir et partager avec vous ce que j’y ai appris : http://code-seo.com/#CS_start
    @ Eric si ce commentaire te gêne n’hésites pas à le supprimer mais je rappelle que ce n’est (malheureusement) pas mon forum et que je suis juste un simple membre qui a envie de partager ses connaissances en référencement.

  9. En fait si tu suis les guidelines de Google à 100% tu es sur d’échouer dans ton référencement 😉

    Une grosse partie des revenus de Google est liée aux adwords donc si tu maîtrises correctement ton référencement tu n’as plus besoin de faire de la pub chez eux et ils estiment que ça crée un manque à gagner.

    Conclusion : Sans ouvrir un débat White hat / Black hat ici il vaut mieux ne pas écouter Google car il n’est pas du tout impartial, et n’a aucun intérêt à t’expliquer ce qui marche vraiment. Bien au contraire …

  10. @ Eric
    Si tu veux un article en guest blogging sur les différentes méthodes de référencement et leur efficacité respective sans langue de bois, je serai honoré de t’en préparer un 😉

  11. Ajout à la réponse d’Easy Entreprise.
    Google a 2 activités: le référencement naturel et les Adwords. Je pense que Google est plutôt ton ami en référencement naturel. L’intérêt de Google est d’être toujours plus pertinent. Si ton site va dans ce sens, il n’a pas de raison de ne pas l’aider à être bien placé.
    En revanche, pour les Adwords, c’est différent. L’intérêt de Google est que chacun dépense le maximum. Peut être au détriment de l’internaute.
    Yahoo a reconnu faire du squashing, c’est à dire bidonner les enchères (http://business-on-line.typepad.fr/b2b-le-blog/2010/09/yahoo-bidonne-les-enchères-sur-les-mots-clés.html). Google refuse de s’exprimer sur le sujet.

  12. C’est tout de même incroyable d’oser dire que cela représente 12 ou 22% alors que l’algorithme de google est SECRET… C’est un peu comme si on didait dans le Coca Cola la formule a changé on a fait passé le citron de 0.8% à 1.12% dans sa composition alors que la formule est secrète. Bref un billet que je considère comme ridicule…

  13. Oui, on peut appeler ça un début d’analyse et ça fait un article taillé pour l’audience. M’enfin c’est un peu léger tout de même. Si GG se limitait à ça mon seigneur, les référenceurs seraient propriétaire de toutes les îles du globe !

  14. Pas du tout crédible ce billet (et posté ailleurs en plus).
    Merci pour la perte de temps.
    Contacte moi si tu veux des “vrais” posts sur le SEO et Google …

  15. L’article a le mérite d’exister, mais je pense que tu es totalement passé à côté de l’article en te focalisant sur les deux graphiques prsentés sur les slide. Là où par contre, tu as fais une grosse erreur, c’est sur l’ensemble du paragraphe consacré à Twitter qui est parfaitement érroné et totalement à l’opposé de l’avis de SEOMOZ.

    L’analyse de SEOMOZ ne permet certainement pas de donner des %, mais plutôt de voire la corrélation entre certains facteurs, toutes choses égales par ailleurs. Lorsque SEOMOZ dit qu’avoir un compte Twitter est lié de quelque manière que ce soit avec un meilleur positionnement, derrière il est parfaitement pensable que les sociétés qui se sont concentré sur le SMO sont déjà passé par la case SEO. Ce type d’analyse est surtout intéressante pour infirmer des propos.

    Par exemple, une corrélation négative sur le nom d’une ville dans une page Google Adress et le ranking par rapport à une requête géolocalisée signifie simplement qu’il n’y a aucun lien analytique entre les deux.

    Ce qui est dit, par contre, c’est que tout le monde s’attend à ce que ce critère prenne une importance beaucoup plus grande dans le futur.

  16. Idem LaurentB, torcher un article sur “les secrets de l’algo Google” en meme pas 400 mots et tout en adaptant (mal?) des articles deja fait sur SEOMoz ca frise le ridicule. Attention au duplicate au passage effectivement c’est quelquechose que GG a promis d’éradiquer dans sa derniere MAJ. (enfin .. ils le diesnt hein)

    Ce sont nos amis sploggueurs qui ont aussi bien du se marrer en lisant le spécimen.

    Bref, quand je vois de tels articles je pense que de temps en temps les auteurs devraient prendre un peu de recul et ettayer ou alors ne pas écrire du tout – j’en parlais d’ailleurs dans un article http://lemusclereferencement.com/2010/06/28/l%E2%80%99autopromo-sur-le-blog-oui-mais-pas-n%E2%80%99importe-comment/

  17. Pourquoi pas 😉
    En tout cas, je te promets que ça ne sera pas un copier coller depuis mon blog comme fait monsieur Cyril Bladier.
    Il te manque de respect, ainsi qu’à Rand (SEOmoz) et aux lecteurs.
    Enfin bref, passons… rien de bien grave non plus (t’en a vu d’autres 😉 )

  18. J’ai un site de dentiste à référencer, je vais baser ma stratégie uniquement sur Twitter. C’est ce qui marche en 2011 😀

    Il faut arrêter de confondre “Ranking Factors” et “Social Signals”.
    La phrase “mieux vaut aujourd’hui une page sans liens entrants et fortement retwittée qu’une page avec des centaines de liens entrants et pas de reprise sur Twitter” est une interprétation très subjective d’une partie du slide.
    Je ne pense pas que cette “interprétation” (telle qu’elle est formulée) serait validée par Rand Fishkin.
    Aborder l’aspect “QDF” (Query Deserves Freshness) ainsi que “positionnement sur le court/long terme” aurait été judicieux, voir primordial.

    ps: La moindre des choses aurait été de mettre un lien vers SEOmoz (fût-il en nofollow) 😉

  19. Les méthodes de référencement changent constamment, surtout avec les mises à jour de Google qui rendent de plus en plus strictes la manière de référencer!

    Merci pour ton article!

  20. hum, accroche sympa qui donne envie de lire le post et article vraiment bidon qui s’avère en plus être un copier/coller quand je lis les commentaires 🙁
    Message amical @eric : “mieux choisir ses rédacteurs fera moins fuir ses anciens lecteurs …”

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *