Connect with us

Référencement SEO

Google, Les Secrets de l’Algorithme pour le SEO

On sait que l’algorithme de Google évolue en permanence. Google dit d’ailleurs être en version Beta permanente. Il y a de petites évolutions hebdomadaires, des gros changements (Mayday, Panda) et des tendances de fond. Des experts américains viennent de publier leurs résultats sur la composition actuelle de l’algorithme. Les voici.

Il y a

le

On sait que l’algorithme de Google évolue en permanence. Google dit d’ailleurs être en version Beta permanente. Il y a de petites évolutions hebdomadaires, des gros changements (Mayday, Panda) et des tendances de fond. Des experts américains viennent de publier leurs résultats sur la composition actuelle de l’algorithme.

Evolutions de l’algorithme

La période 1999/2002 a été celle de l’optimisation des pages (Balises, H1, Title…) et du Page Rank.

Puis, entre 2003 et 2005, ce sont les liens qui ont été la clé, qu’ils soient entrants ou internes pour le maillage du site. L’ancienneté du site, l’historique, les mots-clés dans les url étaient d’autres éléments à prendre en compte pour bien positionner son site en SEO.

L’algorithme a continué son évolution et entre 2006 et 2009, Google a pris en compte et donné davantage de poids aux sites selon leur autorité (.gouv, .org…). Les liens entrants et notamment leur diversité étaient également très efficaces.

Depuis 2009, les réseaux sociaux ont commencé à être pris en compte. Et leur poids dans l’algorithme s’accroit progressivement. Google a reconnu que des articles retweetés ou fréquemment repris étaient favorisés dans Google Actualités mais aussi pour le référencement naturel.

> Lire aussi :  Google+ est mort comme ces 7 autres produits abandonnés par Google

Twitter pour le référencement naturel

En la matière, mieux vaut aujourd’hui une page sans liens entrants et fortement retwittée qu’une page avec des centaines de liens entrants et pas de reprise sur Twitter (source Seomoz).

Inutile cependant de créer 10 comptes Twitter pour reprendre systématiquement tous vos messages puisque Google et Bing calculent et prennent en compte l’autorité de l’auteur (de même qu’un lien venant d’une page PR6 avait plus de poids que d’un PR2).

Structure de l’algorithme

D’après ces experts, l’algorithme de Google se décompose ainsi :

  • Indicateurs liés aux liens vers les pages
  • Trafic de la page
  • Qualité (autorité) des liens vers le domaine
  • Mots-clés de la page
  • Mots-clés du domaine
  • Indicateurs des Réseaux Sociaux vers les pages
  • Indicateurs liés à la Marque

Depuis 2 ans, les principales évolutions sont

  • Les liens ne représentent plus 60% de l’équation.
  • Les données des réseaux sociaux sont de plus en plus prises en compte.
  • Les indicateurs de liens vers les pages restent en première place, mais leur poids a fortement chuté (de 43% à 22%).
> Lire aussi :  Donald Trump lance un avertissement pour Google, Facebook et Twitter

44 Commentaires

44 Commentaires

  1. Seb de CaReagit

    6 avril 2011 at 11 h 53 min

    De fait, je trouve que ce raisonnement mené par Google étouffe les sites professionnels à professionnels, pour lesquels le e-commerce se développe et qui ne sont pas dans la cible des réseaux sociaux. Jusqu’alors, je ne cessais de déplorer qu »internet » soit – pour la plupart des êtres vivants de ce monde, facebook, twitter, gmail, les blogs et rueducommerce.

    Si ces révélations sont vraies, ce pourrait être très handicapant pour le web btob.

  2. Eric

    6 avril 2011 at 12 h 05 min

    En complément : la présentation de SEOmoz publiée il y a 3 semaines :

    http://www.slideshare.net/randfish/the-evolution-of-googles-rankings

    Slide 35 la répartition des facteurs dans l’algo Google : http://tinypic.com/r/vglnvd/7 (2011)

  3. Ecrase

    6 avril 2011 at 12 h 15 min

    Je vais être un peu médisant mais j’espère que les mecs ont pas travailler longtemps la dessus pour sortir ça. Surtout que je vois que ça ne parle même pas de l’aspect « contenu unique »…

  4. Tek

    6 avril 2011 at 13 h 02 min

    Hum, j’ai bien vu Google mais où sont passés les fameux secrets seo ?

  5. cvdw

    6 avril 2011 at 13 h 02 min

    C’est une très mauvaise chose si tel est le cas. Cela dit, si cette étude est si sérieuse, cela serait bien de pouvoir la lire, car sans doute y a t-il des détails qui ne sont pas reprit dans cet article. Mais tel que c’est présenté ici, je n’aime pas du tout cette tendance.

    Cela revient à dire que l’on est obligé de composé avec les réseaux sociaux ou on sera pénalisé.

  6. Christophe Chaudey

    6 avril 2011 at 13 h 11 min

    Merci pour cet article intéressant 🙂
    @Ecrase à mon avis l’auteur a surtout cherché à proposer une analyse sur le côté évolutif de l’algorithme de Google et n’a pas souhaité entrer dans le détail des critères qui sont bien trop nombreux (plus de 200 parait-il).

    Au final, ce que je retiens pour ma part c’est la prise en compte de plus en plus importante du web social.

  7. Colombo

    6 avril 2011 at 13 h 44 min

    Je suis d’accord avec seb et j’ajouterais qu’il semblerait que nous soyons dans une période charnière : l’algo ne pourra pas se contenter de s’adresser qu’a une catégorie « geek » de la population. les sites grand public avec une cible grand public (qui n’a pas connaissance de twitter ou pas de compte fb) ont leur place dans le classement et ce serait contraire au revendication de Google de ne pas présenter des résultats « pour l’internaute ».
    est ce que le récent +1 serait il là pour niveler cette tendance ?

  8. Pingback: Google, Les Secrets de l’Algorithme pour le SEO… | La minute web | Actualité web, Réseaux sociaux, Vidéos, Geek, E-marketing

  9. Eric

    6 avril 2011 at 14 h 32 min

    La recette de l’algo de Google est aussi secrète que celle du Coca-Cola, mais on peut au moins extrapoler sur son évolution, c’est l’objet de cette étude

  10. Kevin

    6 avril 2011 at 14 h 45 min

    Quid de la vitesse des pages et de la geolocalisation des sites? (erf j’ai mal écrit le dernier commentaire).

  11. Amaury

    6 avril 2011 at 15 h 45 min

    Merci pour cet article !
    Le contenu en est un peu vague mais comment être précis quand il s’agit du secret de fabrication d’une des plus grandes entreprises du monde de l’informatique.
    Ce bon article a le mérite de nous éclairer davantage sur ce qui compose cet algorithme et j’ai trouvé ça plutôt intéressant.

  12. Simon

    6 avril 2011 at 16 h 44 min

    Il n’y a finalement presque rien qui soit moins secrets que les trucs de SEO, non ? 🙂

  13. Easy Entreprise

    6 avril 2011 at 16 h 58 min

    Bel article bien que le sujet soit vaste et à peine effleuré ici.
    Pour ma part j’ai tout appris sur un forum spécialisé dans le référencement et le web marketing. En quelques mois j’en ai appris autant qu’avec un stage en agence de référencement de 6 mois.
    Je donne le lien en précisant que je suis simple membre, qu’il ne m’appartient pas mais que néanmoins je serai heureux de pouvoir vous y accueillir et partager avec vous ce que j’y ai appris : http://code-seo.com/#CS_start
    @ Eric si ce commentaire te gêne n’hésites pas à le supprimer mais je rappelle que ce n’est (malheureusement) pas mon forum et que je suis juste un simple membre qui a envie de partager ses connaissances en référencement.

  14. LorrisV

    6 avril 2011 at 17 h 31 min

    Il y aussi ce guide qui a été publié récemment en version française par Google.

    http://www.google.fr/intl/fr/webmasters/docs/search-engine-optimization-starter-guide-fr.pdf

  15. Easy Entreprise

    6 avril 2011 at 17 h 36 min

    En fait si tu suis les guidelines de Google à 100% tu es sur d’échouer dans ton référencement 😉

    Une grosse partie des revenus de Google est liée aux adwords donc si tu maîtrises correctement ton référencement tu n’as plus besoin de faire de la pub chez eux et ils estiment que ça crée un manque à gagner.

    Conclusion : Sans ouvrir un débat White hat / Black hat ici il vaut mieux ne pas écouter Google car il n’est pas du tout impartial, et n’a aucun intérêt à t’expliquer ce qui marche vraiment. Bien au contraire …

  16. Easy Entreprise

    6 avril 2011 at 17 h 40 min

    @ Eric
    Si tu veux un article en guest blogging sur les différentes méthodes de référencement et leur efficacité respective sans langue de bois, je serai honoré de t’en préparer un 😉

  17. Cyril Bladier

    6 avril 2011 at 17 h 44 min

    Ajout à la réponse d’Easy Entreprise.
    Google a 2 activités: le référencement naturel et les Adwords. Je pense que Google est plutôt ton ami en référencement naturel. L’intérêt de Google est d’être toujours plus pertinent. Si ton site va dans ce sens, il n’a pas de raison de ne pas l’aider à être bien placé.
    En revanche, pour les Adwords, c’est différent. L’intérêt de Google est que chacun dépense le maximum. Peut être au détriment de l’internaute.
    Yahoo a reconnu faire du squashing, c’est à dire bidonner les enchères (http://business-on-line.typepad.fr/b2b-le-blog/2010/09/yahoo-bidonne-les-enchères-sur-les-mots-clés.html). Google refuse de s’exprimer sur le sujet.

  18. Eric

    6 avril 2011 at 18 h 12 min

    @Easy Entreprise : ok, tu es le bienvenu, si l’article est pertinent (et pas publicitaire) 🙂

  19. Benoist

    6 avril 2011 at 19 h 43 min

    C’est tout de même incroyable d’oser dire que cela représente 12 ou 22% alors que l’algorithme de google est SECRET… C’est un peu comme si on didait dans le Coca Cola la formule a changé on a fait passé le citron de 0.8% à 1.12% dans sa composition alors que la formule est secrète. Bref un billet que je considère comme ridicule…

  20. bob

    6 avril 2011 at 21 h 37 min

    Oui, on peut appeler ça un début d’analyse et ça fait un article taillé pour l’audience. M’enfin c’est un peu léger tout de même. Si GG se limitait à ça mon seigneur, les référenceurs seraient propriétaire de toutes les îles du globe !

  21. LaurentB

    6 avril 2011 at 21 h 40 min

    Pas du tout crédible ce billet (et posté ailleurs en plus).
    Merci pour la perte de temps.
    Contacte moi si tu veux des « vrais » posts sur le SEO et Google …

  22. Walou

    6 avril 2011 at 22 h 04 min

    J’ai rarement lu un article aussi décevant … les secrets de l’algorithme de Google 🙂

  23. Chronoduweb

    6 avril 2011 at 22 h 26 min

    Ahaha, sympa @cyril great job … ou pas !

  24. truffo

    7 avril 2011 at 0 h 07 min

    Pour compléter sur l’impact Twitter sur le référencement, j’avais un article sur le sujet : http://truffo.fr/2011/03/impact-de-twitter-sur-le-referencement/

    Les commentaires sont vraiment très intéressants.

  25. Anthony.Jviewimmo

    7 avril 2011 at 3 h 48 min

    L’article a le mérite d’exister, mais je pense que tu es totalement passé à côté de l’article en te focalisant sur les deux graphiques prsentés sur les slide. Là où par contre, tu as fais une grosse erreur, c’est sur l’ensemble du paragraphe consacré à Twitter qui est parfaitement érroné et totalement à l’opposé de l’avis de SEOMOZ.

    L’analyse de SEOMOZ ne permet certainement pas de donner des %, mais plutôt de voire la corrélation entre certains facteurs, toutes choses égales par ailleurs. Lorsque SEOMOZ dit qu’avoir un compte Twitter est lié de quelque manière que ce soit avec un meilleur positionnement, derrière il est parfaitement pensable que les sociétés qui se sont concentré sur le SMO sont déjà passé par la case SEO. Ce type d’analyse est surtout intéressante pour infirmer des propos.

    Par exemple, une corrélation négative sur le nom d’une ville dans une page Google Adress et le ranking par rapport à une requête géolocalisée signifie simplement qu’il n’y a aucun lien analytique entre les deux.

    Ce qui est dit, par contre, c’est que tout le monde s’attend à ce que ce critère prenne une importance beaucoup plus grande dans le futur.

  26. Eric

    7 avril 2011 at 8 h 26 min

    @LaurentB : ok, merci pour la proposition, j’attends tes articles, quand tu veux 🙂

  27. Pingback: Google, Les Secrets de l’Algorithme pour le SEO | Le blogue de Marie : découvertes culturelles, web et bonne humeur.

  28. Le Juge SEO

    7 avril 2011 at 16 h 28 min

    Idem LaurentB, torcher un article sur « les secrets de l’algo Google » en meme pas 400 mots et tout en adaptant (mal?) des articles deja fait sur SEOMoz ca frise le ridicule. Attention au duplicate au passage effectivement c’est quelquechose que GG a promis d’éradiquer dans sa derniere MAJ. (enfin .. ils le diesnt hein)

    Ce sont nos amis sploggueurs qui ont aussi bien du se marrer en lisant le spécimen.

    Bref, quand je vois de tels articles je pense que de temps en temps les auteurs devraient prendre un peu de recul et ettayer ou alors ne pas écrire du tout – j’en parlais d’ailleurs dans un article http://lemusclereferencement.com/2010/06/28/l%E2%80%99autopromo-sur-le-blog-oui-mais-pas-n%E2%80%99importe-comment/

  29. LaurentB

    7 avril 2011 at 17 h 28 min

    Pourquoi pas 😉
    En tout cas, je te promets que ça ne sera pas un copier coller depuis mon blog comme fait monsieur Cyril Bladier.
    Il te manque de respect, ainsi qu’à Rand (SEOmoz) et aux lecteurs.
    Enfin bref, passons… rien de bien grave non plus (t’en a vu d’autres 😉 )

  30. Eric

    7 avril 2011 at 17 h 35 min

    @LaurentB : bon ben j’attends ton premier article 🙂

  31. LaurentB

    7 avril 2011 at 18 h 09 min

    Fuck j’suis coincé maintenant 😀

  32. Eric

    7 avril 2011 at 19 h 38 min

    own3d 🙂

  33. Récré du net

    7 avril 2011 at 19 h 51 min

    D’accord avec LaurentB.
    Gros foutage de gueule.

  34. TSBastard

    8 avril 2011 at 15 h 44 min

    J’ai un site de dentiste à référencer, je vais baser ma stratégie uniquement sur Twitter. C’est ce qui marche en 2011 😀

    Il faut arrêter de confondre « Ranking Factors » et « Social Signals ».
    La phrase « mieux vaut aujourd’hui une page sans liens entrants et fortement retwittée qu’une page avec des centaines de liens entrants et pas de reprise sur Twitter » est une interprétation très subjective d’une partie du slide.
    Je ne pense pas que cette « interprétation » (telle qu’elle est formulée) serait validée par Rand Fishkin.
    Aborder l’aspect « QDF » (Query Deserves Freshness) ainsi que « positionnement sur le court/long terme » aurait été judicieux, voir primordial.

    ps: La moindre des choses aurait été de mettre un lien vers SEOmoz (fût-il en nofollow) 😉

  35. Pingback: Revue de Steph #57

  36. Sylvain Bui

    11 avril 2011 at 16 h 32 min

    merci pour ces informations et ses chiffres plus qu’utiles !

  37. xp51

    2 mai 2011 at 14 h 16 min

    Les méthodes de référencement changent constamment, surtout avec les mises à jour de Google qui rendent de plus en plus strictes la manière de référencer!

    Merci pour ton article!

  38. garifuna

    5 mai 2011 at 8 h 47 min

    hum, accroche sympa qui donne envie de lire le post et article vraiment bidon qui s’avère en plus être un copier/coller quand je lis les commentaires 🙁
    Message amical @eric : « mieux choisir ses rédacteurs fera moins fuir ses anciens lecteurs … »

  39. snappy

    6 mai 2011 at 17 h 09 min

    On attend toujours l’article de monsieur Bourelly, vivement… 🙂

  40. Pingback: Organiser une campagne de netlinking, quelle méthodologie simple faut-il mettre en place pour obtenir des backlinks ou rétro-liens ? | Carnet de note – Weblog

  41. Pingback: Google Panda : des premiers résultats intéressants

  42. Pingback: Les incontournables de la semaine du 4 Avril 2011 | La Blogule de STONEPOWER - Agence Digitale Marseille

  43. Pingback: Google, Les Secrets de l’Algorithme pour le SEO | Easy Monnaie

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

À la une

Dernières news

Les bons plans

Les tests