Google remixe son algorithme et promet des résultats de « haute qualité »

La qualité, a fortiori « haute », est-elle identifiable par un algorithme ? C’est en tout cas ce que prétend Google, qui a annoncé ce matin (hier soir aux USA) avoir profondément amélioré le sien afin de proposer de meilleurs résultats à ses utilisateurs. On sait depuis quelque temps que notamment les content farms (« fermes de contenu »),

La qualité, a fortiori « haute », est-elle identifiable par un algorithme ? C’est en tout cas ce que prétend Google, qui a annoncé ce matin (hier soir aux USA) avoir profondément amélioré le sien afin de proposer de meilleurs résultats à ses utilisateurs.

On sait depuis quelque temps que notamment les content farms (« fermes de contenu »), ces sites publiant chaque jour des quantités phénoménales d’articles fortement optimisés pour les moteurs de recherche sur des sujets à forte rentabilité publicitaire mais à faible valeur informative, sont dans le collimateur de Google. Plusieurs indices, comme la mise en place de la Personal Blocklist Chrome extension, montraient que les responsables du moteur de recherche allaient prochainement prendre le taureau par les cornes et faire un grand ménage dans ses résultats de recherche. Des résultats souvent squattés non seulement par les fermes de contenus mais également par les comparateurs et sites marchands, dont l’omniprésence devient, il est vrai, gênante, voire insupportable.

Mauvais temps pour les fermes de contenu

Google indique dans son blog officiel que cette modification de son algorithme aura un impact notoire sur 11,8% des requêtes. Cette mise à jour est conçue « pour réduire le ranking (classement) des site de basse qualité – sites à basse valeur ajoutée pour les utilisateurs, sites qui copient le contenu d’autres sites ou site qui ne sont juste pas très utiles ». Dans le même temps l’algorithme remanié fournira un meilleur classement aux sites de « haute qualité », à savoir des sites avec du contenu original (comprendre « créé par ces sites »), de l’information, de la recherche, des articles de fond, des analyses, etc.

Dans sa note, Google précise cependant que la modification de son algo n’est pas corrélée avec les résultats remontés par la Personal Blocklist, mais indique quand même que ceux-ci sont à 84% identiques, ce qui tendrait à démontrer que les utilisateurs de Google sont presque aussi intelligents que ses ingénieurs.

La modification de l’algorithme concerne pour le moment uniquement les USA, et sera étendue ensuite progressivement au reste du monde.

Une refonte en forme de rappel à l’ordre, qui risque de faire quelque peu trembler sur leurs bases quelques géants du contenu low-cost. Il sera intéressant de voir l’impact de ces modifications dans les semaines à venir et si celles-ci se traduisent par un gros gadin ou juste un léger recul dans les pages de résultats.

Une démarche certainement indispensable, mais qui interroge cependant sur la notion de « haute qualité » selon Google. Une notion qui malgré tous les meilleurs programmes informatiques du monde contient quand même une grande part de subjectivité. Espérons que ces changements ne conduisent pas à un web aseptisé et ennuyeux ou seuls seraient bien classés les sites jugés « sérieux » et « informatifs ».

On veut du LOL aussi, pas juste Wikipedia et le Wall Street Journal.


Nos dernières vidéos

44 commentaires

    • Eric

      Oui, souvent des versions françaises de sites anglo-saxons (pas forcément US d’ailleurs) : articlonet, suite101, comprendre choisir (ce dernier est un plus qualitatif apparemment). Il y a aussi Les-experts.com de Wikio. Mais ils sont bien moins « polluants » à mon avis que les comparateurs et cie. Personnellement les fermes de contenu ne me dérangent pas vraiment, je pense que ces sites apportent des infos pour une catégorie d’internautes, et ils sont généralement assez bien conçus.

  1. Pingback: Tweets that mention Google remixe son algorithme et promet des résultats de "haute qualité" -- Topsy.com

  2. « les comparateurs et sites marchands, dont l’omniprésence devient il est vrai gênante ».

    Tout à fait d’accord, à tel point que je vais directement en page 2 quand je cherche un avis ou une review sur un produit high-tech…

    S’il pouvait virer aussi les résultats de commentcamarche.net !

  3. C’est une bonne chose pour les comparateur de prix et une intégration de Google Shopping dans les recherches serait également un plus.

    Deux petites coquilles :
    […] dans les semaines -avenir- (à venir) […]
    […] dont l’omniprésence -devient il est vrai- (vraiment) gênante […]

    😉

  4. Pingback: Modification importante à l’algorithme de Google | Optimisation V

  5. @Eric

    Idem pour moi, ces contenus ne me dérangent pas. J’ai tendance à penser que c’est beaucoup plus un business plan qui est visé. Les SERPs de Google ne sont pas, elles-mêmes, de gigantesques fermes de contenus ? 🙂

  6. Euhhh comment ça les comparateur sont polluants ?! Ils peuvent être très informatif également ! Je partage votre vision eric sur la rigueur un peu pénible de Google. Les-experts.com et ses amis c’est aussi de l’information et ça répond à des questions jamais posés. Après c’est surement la sur-optimisation de ces sites pour le référencement qui dérange.

  7. Cela va précipiter la chute des sites (blog) d’informations qui se copient entre eux. On trouve la même information sur des dizaines de sites si ce n’est plus.
    Il serait aussi intéressant de donner moins d’importance aux forums qui squattent la première page avec au moins deux voir trois liens par site.
    A y regarder de près cela ressemble seulement à un durci cément de la chasse au contenu dupliqué.

  8. @Simon : Cela métonnerait beaucoup que l’on voit arriver la mise à jour de l’algo en France d’ici quinze jours… Je pense plutôt que ça se compte en mois…

  9. Effectivement, s’ils pouvaient virer commentcamarche.net qui truste jusqu’à 3 ou 4 des premières lignes de la première page pour un tas de requête et ne fait que faire perdre du temps. A quand un système qui permet à l’utilisateur de virer certains sites des résultats de Google ? Euh… c’est ça la Chrome Personnal Blocklist Extension ? Y’a pas l’équivalent sur Firefox ?

  10. Il est souhaitable que google agisse et la disparition des squatteurs sera bénéfique… mais il y aura, c’est quasi sûr, des victimes colatérales, des sites qui vont disparaître car un critère leur aura été fatal…

  11. Forbes.com c’est déjà pris un déclassement je pense que de nombreux sites qui squattent les premières pages sur des requêtes très généralistes vont se prendre une claque. Enfin espérons…

  12. Oui, Google, en bonne position monopolistique fixe lui-même les règles du jeu et nous dit ce qui est « bien » et ce qui « mal ». (C’est le White Hat contre le Black Hat SEO…)

    Mais c’est aussi ça le métier de référenceur : savoir toujours remettre l’ouvrage sur le métier…

  13. Je suis content qu’il ressert la vis à ces sites qui pollue le web,,,, ont travaille très fort parfois pour aboutir sur la 2ieme page d’un mot clé.
    En espérant que tous les vrai sites sois gagnant!

  14. Pour ma part, je pense que Google a tout faux, et ce depuis pas mal de temps déjà.

    Car pourquoi un site de contenu aurait-il plus de valeur qu’un site de présentation d’une poignée de pages?

    Personnellement, je rêve d’un moteur de recherche Google qui permettrait des recherches avec plusieurs algorithmes au choix.

    Non seulement cela permettrait aux utilisateurs d’élargir le spectre de leurs recherches mais en plus, cela permettrait surtout aux webmasters de ne pas avoir à créer des blogs juste pour faire du trafic.

  15. Le problème des sites de comparateur, c’est qu’ils créent une page pour notre recherche de produit même quand il n’existe pas chez eux. Et évidemment cette absence n’apparait pas dans le descriptif. Du coup on pense trouver un comparatif et on tombe sur du vent, puisque quelle que soit la recherche ils font la recherche chez eux. C’est lourd surtout dans ce cas. Je pense qu’en effet tous les indexer (par choix bilatéral) dans google shopping serait une meilleure idée.

  16. Pour l’instant on ne sais pas vraiment quelle genre de sites seront touchés par ce changement d’algo.

    Dans leur annonce du nouvel algo d’ailleurs Google ne parle à aucun moment de fermes de contenus pour designer les sites concerné par le changement, en revanche Matt cutts parlent tout simplement de site à faible niveau de qualité.

    Pourquoi ? Simplement parce que Google est incapable de dire telle site est une ferme de contenus et tel autre ne l’est pas.

    En réalité cet algo va toucher beaucoup plus de sites qu’on ne le croit, ça Google le sait déjà et si vous lisez entre les lignes Matt cutts a déjà pris les devant.

  17. Fabien je crois pas que Google sera en mesure de sanctionner les blogs qui parle d’un même sujet d’actualité tant qu’il n’y a pas de duplicate content. Deux sites peuvent parfaitement évoquer un même sujet par exemple cette actu sur le changement de l’algo de Google a aussi fait l’objet d’un article sur webrankinfo et autre site seo .. Qu’est ce qu’il ferait qu’un site est plus légitime qu’un autre de relayer l’info ?

  18. Ah, super article ! C’est bien que Google revoie son algorithme de temps en temps. Ce ne peut que propulser nos Blogs ou sites, tout en diminuant le ranking d’autres trucs pourris ou vieux. J’en ai bien besoin 😉

  19. J’ai le sentiment que c’est une coup de marketing. Google veut nous montrer qu’il s’occupe de son moteur de recherche alors qu’il est en train de se faire rattraper par les réseaux sociaux et les médias sociaux. Google est un trou de cul lorsqu’il s’agit d’évaluer les backlinks et là il veut nous faire croire que son algorithme viendra réduire l’importance de ce qu’il appelle des fermes de contenu au bénéfice des sites de qualité. Ben voyons. Google est dépassé par sa machine à indexer des pages. Il veut juste nous effrayer et perturber les SERP pour assurer son hégémonie sur sa promesse que seuls ses Google AdWords peuvent réussir à placer les entreprises dans la première page de ses résultats. Le reste ne sont que détails.

  20. @Franck (Webmaster Freelance): mais bien sûr, et faire fuir les utilisateurs aussi. Demander a un utilisateur, meme initié quel algorithme il souhaite ? Nan mais c’est du foutage de gueule non ? Suffit d’aller sur un autre moteur de recherche si l’algo (principe qui ne parle pas a 90% des utilisateurs) te plait pas. Je crois que Google te permet déjà suffisament de critères de recherches hein.

    @Referencement Web Montreal: aucun rapport avec les réseaux sociaux sur la recherche d’informations.

    Google, c’est rechercher une information spécifique. Les réseaux sociaux c’est d’abord une plateforme dans laquelle les informations arrivent à nous.

    Vraiment rien à voir. Je vais pas chercher comment faire un tiramisu sur Facebook. Je vais pas chercher aussi de manière simple comment était la téléphonie à la fin du 20ème siècle. Ni l’histoire de la France avec Facebook. Encore moins connaitre la position politique d’un parti entre 2008 et 2009 sur des sujets précis. Un moteur de recherche n’est pas remplacable, et s’il l’est, il ne l’est pas avec les réseaux sociaux. Facebook c’est juste une façon de cantonner le web, essayer de faire un web dans le web, c’est juste inacceptable à l’avenir de ne considérer que ce moyen pour communiquer, ou alors croyez moi l’heure sera vraiment très grave.

    Les réseaux sociaux, il faut un compte, ça s’arrête déjà la. De plus, la recherche sociale va évoluer sur Google par le biais de liens forts entre Twitter et Google. Sachant que toutes les données de twitter se retrouvent dans un bloc « En temps réel » (donc surtout Twitter hein) sur la page des résultats de recherche, acceder à l’information en temps réelle est loin d’être un problème.

    Google n’a pas tout faux, ce sont tous ceux qui pensent que Facebook est un énorme concurrent de Google qui le sont… On remplace pas Google par Facebook, tellement rien à voir. Il y a certes concurrence sur les parts de publicités, mais sur un segment complètement différent.

    Je m’en vais demander à mes potes qui sont sur Facebook voir s’ils considèrent Facebook comme un outil sérieux, on verra s’ils me répondent pas « haha, comme msn ouai ! ».

  21. Je pense qu’en commençant par pénaliser les sites qui alignent des milliers de nouvelles pages sans intérêt tous les mois Google pourra nettoyer rapidement son index.

  22. espérons que cette mise à jour de l’algo google va débarrasser le web du scaping ignoble de paperblog… jamais compris comment le scraping de rss et l’affichage massif de pubs pouvait être un modèle d’affaires…

  23. @ Eeeoui : pfiouu, ça fait longtemps que je n’avais croisé quelqu’un d’aussi lucide sur les réseaux sociaux. C’est un message que je me tue à dire à tout ceux qui croie au père noël Facebook….

    Comme vous dites, ce n’est pas remplaçable, et la seule vrais concurrence de Google, c’est Bing (on aime ou pas…perso trop bling bling…)

    J’entend aussi souvent parler du fameux rêve de « search social »….mais ça équivaudrait à dire que les seules informations valorisées sont celles qui ont été valorisé nos propres amis (perso, les miens, sur Facebook, s’intéresse plus au derniers clip ou on voit des filles en string qu’à l’histoire de France….Coté pertinence, on repassera…)

    Et j’attend beaucoup le moment ou Facebook détaillera ses résultats : ce que beaucoup oublient, c’est qu’il fait « à peine » des bénéfices…et qu’il n’y a pour l’instant que de l’investissement, mais pas de ROI). Au dernière nouvelle, leur CA annuel était l’équivalent du bénéfice trimestriel de Google, une paille donc…et c’est pas difficile à comprendre : les pubs sont beaucoup plus efficace lorsqu’on est en situation de recherche. Et Facebook ne permet pas un ciblage si spécifique que ça. Adhérer au groupe « j’aime les taupes » n’a jamais fait de moi un jardinier….

  24. moi ce que j’attends de voir …

    c’est tous ces sites de news informatique (ou autres) qui ne font que reprendre/traduire des news qui viennent des US (ou étranger) …

    comment google va traiter ca ?

    et que dire des SERP avec commentcamarche, tout est pollué !

    on devrait pouvoir interdire/supprimer de l’affichage certain site !

    je vais aller me calmer devant la tv moi …

  25. Pingback: Changement d'algorithme Google : premiers dégâts collatéraux

  26. Pingback: Changement d’algorithme Google : les premiers dégâts collatéraux | Outsourcing Contact, OC Magazine Web 2.0

  27. Pingback: Changement d’algorithme Google : les premiers effets négatifs « Actu For You, l'essentiel de l'actualité média et webmarketing

  28. Pingback: Modification importante de l'algorithme Google | WebActus

  29. les modif de panda sont attendues pour le mois d’aout en France …

    wait & see

    nous venons de passer à un PR = 5 ce mois ci,
    j’espère que ca va tenir le secousses !

    Cordialement,
    AC

  30. Dans sa tentative pour promettre des résultats de haute qualité, Google se prépare à lancer la recherche sémantique.

    J’ai bien hâte de voir tout ça !

    Mais il ne faut pas oublier que Google n’est qu’un algorithme, et que par conséquent, il sera toujours possible d’y trouver des failles.

  31. Re : @Referencement Web Montreal: aucun rapport avec les réseaux sociaux sur la recherche d’informations.
    Google, c’est rechercher une information spécifique. Les réseaux sociaux c’est d’abord une plateforme dans laquelle les informations arrivent à nous.
    —————————————————————————————————-
    Ce que j’ai voulu dire, c’est que les réseaux sociaux sont en train de prendre une part considérable du marché des internautes et de la tarte des revenus publicitaires. Et à cela Google y est sensible ou devrait l’être. Je suis d’accord que Facebook n’offre pas du tout de moteur de recherche comme Google, Bing et cie. Mais le jour ou il en aura un véritable, avec ses 900 millions de membres, ce sera tout un compétiteur. D’une certaine façon, je souhaite vivement un vrai compétiteur à Google, et pour aujourd’hui Facebook semble offrir ce potentiel.

Répondre