Google : la prochaine mise à jour de Penguin promet de gros changements

La mise à jour en temps réel, attendue depuis plusieurs mois, devrait arriver à la fin de l’année. De quoi donner des sueurs froides aux webmasters ?

Google Penguin

Les référenceurs connaissent bien les effets de l’algorithme Penguin sur le netlinking de “mauvaise” qualité ou “massif” : c’est le déclassement dans les résultats de recherche avec, comme conséquence, une perte de trafic. Pour réparer une stratégie de netlinking hasardeuse, il faudra passer de longues heures à analyser les liens entrants, à contacter les webmasters pour leur demander de supprimer le lien qui jadis apportait de la popularité, à construire le fichier de désaveu qui permettra de montrer patte blanche à Google… Bref, l’algorithme Penguin n’est pas forcément très apprécié ni attendu.

Une mise à jour peu fréquente

Penguin se caractérise jusque-là par des mises à jour assez peu fréquentes. L’algorithme a en effet été lancé officiellement pour la dernière fois en octobre 2014, sous le nom Penguin 3.0 et s’il a été ressenti des mouvements en décembre 2014, rien n’a été communiqué à ce sujet par Google. Ainsi les fluctuations observées entre octobre et décembre 2014 correspondraient au déploiement progressif de Penguin 3.0. Si la volonté de Google est de mettre en place une mise à jour en temps réel, pour le moment cela n’est pas encore opérationnel.

En temps réel et en continu ?

C’est au travers d’une réponse laconique sur Twitter que Gary Illyes de Google confirme qu’une mise à jour Penguin aura lieu avant la fin 2015.

Cette mise à jour devrait amorcer l’ère du Penguin en temps réel et en continu ce qui permettra de sanctionner plus rapidement et régulièrement les sites qui utilisent des liens factices. Ce Penguin en temps réel sera aussi l’occasion de sortir de pénalité un site dont le profil de backlinks aura été préalablement nettoyé. Bien entendu il se peut que cette mise à jour n’arrive que début 2016 laissant encore quelques jours aux webmasters pour vérifier et nettoyer leurs liens entrants. Et pour ceux qui se demandent si les pénalités manuelles pour liens factices allaient disparaitre au profit des pénalités automatiques infligées par Penguin, la réponse, toujours donnée par Gary Illiyes, est non.


Ainsi, si le site est touché par une pénalité manuelle (cela est mentionné dans la Search Console de Google), il faudra faire une demande de réexamen. Si la pénalité est algorithmique, elle sera levée automatiquement, dès lors que les liens factices auront été nettoyés. Dans la théorie cela reste simple, dans la pratique, cela l’est moins.

Google a affirmé essayer de ne pas lancer un nouvel algorithme juste avant les vacances, il reste donc encore quelques jours pour être dans le timing… et donner du travail aux référenceurs et webmasters peu scrupuleux. Vous êtes prévenus.

Source

Edit du 4/12/15 : John Mueller annonce dans un tweet que la mise à jour de Penguin aurait finalement lieu en 2016 et non pas avant la fin de l’année 2015 comme initialement prévu. Vous pouvez préparer Noël tranquillement.


  • The Defenders : une nouvelle bande-annonce pour la série Marvel

    La fin de l’attente est proche pour les fans de Marvel. The Defenders, la prochaine série du Marvel Cinematic Universe arrive dans moins d’un mois sur Netflix. Pour patienter, découvrez une nouvelle bande-annonce.  The Defenders au Comic-Con Que se passe-t-il lorsque l’on met les Avengers à l’échelle de la ville de New York ? On […]

  • Un nouveau teaser pour Krypton, le prequel de Superman

    Aucune nouvelle ou presque depuis avril. Mais Krypton, la série DC produite par Syfy s’est rappelée à notre bon souvenir à l’occasion du Comic-Con 2017. L’occasion de découvrir un nouveau teaser qui vaut le coup de s’y arrêter. […]

  • Nintendo : préparez-vous pour la N64 Classic Mini fin 2018

    Alors que la SNES Classic Mini n’est pas encore arrivée en boutiques, un récent dépôt de marque confirme (presque) l’arrivée d’une Nintendo N64 Classic Mini pour la fin d’année 2018. […]

Nos dernières vidéos

11 commentaires

  1. bonjour,

    Article très intéressant.
    Pour moi, c’est une excellente nouvelle et cette prochaine mise à jour de Google va dans le bon sens.
    Les webmasters commenceront peut-être à comprendre qu’il faut écrire pour leurs lecteurs et non pour faire plaisir a Google…. qu’un billet/article doit faire plus qu’un feuillet de 300 mots pour atteindre les 1500 mots, sans pour autant que ça devienne de la soupe indigeste diluée à l’eau plate…
    Au vu de l’inefficacité du netlinkink , espérons que les petits malins arrêteront de spammer les blogs de qualités avec des logiciels comme Xrunner, Senuke XCr, Scrapebox… afin d’ obtenir des backlinks.
    Contrairement à ce que l’on pense, le secret d’un bon SEO n’est pas très compliqué: une poignée de backlinks de qualité, une présence active sur les réseaux sociaux, et surtout, surtout, des articles longs, originaux et de qualité.

    • Marie Pourreyron
      Marie Pourreyron on

      Je ne suis pas d’accord sur votre affirmation concernant l”inefficacité du backlink. Pour moi les liens restent très efficaces. Mais il ne faut pas les faire n’importe comment (ou alors il faut se contenter d’un site jetable)

      • Bonjour Marie,

        Merci pour votre message, alors je peux comprendre votre étonnement concernant mon affirmation sur le netlinking, mais n’oublions pas un point important, Google stipule bien qu’il est interdit d’acheter des liens pour ne pas influencer son Algo… On peut toujours en échanger, mais à la seule condition d’ajouter “noindex”, sinon on va droit vers la pénalité, et ça l’algo de Google sait très bien le détecter 😉

        Je pense que je me suis mal exprimé, je n’ai pas écrit que les backlinks étaient inutiles, même si depuis deux ans, les liens n’ont pas autant de poids qu’avant. Par contre au sujet du netlinking pyramide (tier1, tier 2…) c’est totalement inefficace et même déconseillé (pénalité) , alors c’est vrai qu’il y a encore trois ou quatre ans, cette technique fonctionnait très bien, et l’on pouvait ranker un site en deux mois avec seulement des liens sur les forums, bookmarks, et des sites edu, gov, (je simplifie) mais les choses ont bien changées et je dirais, heureusement.

        Aujourd’hui 10 backlinks obtenus naturellement provenant de site de qualité avec peu de liens sortants, valent mille fois plus que 10000 liens achetés sur Fiverr ou Warriorforum qui proviennent de blogs spammer à mort ou de Link Farms, et je ne vous parle pas des articles spinner 50.000 fois !!!

        Perso, je trouve que c’est une excellente décision que Google mette enfin le holà, ça va permettre aux apprentis sorciers de se calmer, et de revenir à l’essentiel… Des articles de Qualité.

        • Marie Pourreyron
          Marie Pourreyron on

          La grande difficulté pour Google est de déterminer si le lien est acheté ou pas. En mode netlinking “bourrin” sur des sites du type livre d’or / forum, c’est facile à détecter et ça ne marche qu’un temps. Pour d’autres types de liens, c’est plus compliqué et c’est là tout l’enjeu pour les webmasters : faire passer pour naturels des liens qui sont achetés.

          Les différents exemples donnés par Google en cas de pénalité manuelle pour liens factices démontrent qu’ils ont du mal à détecter certains liens : des liens totalement naturels paraissent factices, et vice versa.

          Après, si on suit les recommandations de Google, il suffit de faire du contenu de qualité pour attirer les liens. Ceci est valable mais dans certaines thématiques très compliqué. Ici je ne me risquerai pas à généraliser.

          En revanche je recommande de fuir les propositions de type 1000 liens pour 5$… sauf si on est en mode “site jetable” 😉

  2. Le problème c’est qu’aujourd’hui on ne référence plus son site, on pourrit le référencement des sites de ses concurrents. Avec ses algo à deux balles, Google renforce la puissance de ce genre de pratiques dégueulasses.

    • Bonjour,

      Vous avez parfaitement raison, le problème c’est qu’aujourd’hui il est beaucoup plus difficile pour un webmaster de ranker son propre site que de plomber celui du voisin, alors entre sites concurrents, ce genre de pratique se généralise.

      Ceux qui font les frais des liens toxiques et des “Black Bots”, sont les petits et moyens sites, les très gros comme Amazon vu leur notoriété aux yeux de Google, et leurs quantités de lien n’ont pas grand-chose à craindre.

      Les “Black Bots” ne sont pas seulement une plaie pour les propriétaires de sites, mais aussi pour les petites régies publicitaires qui n’ont pas les moyens comme “Adsense” d’identifier les faux clics. J’en connais quelques-unes (étrangères) qui ont dû mettre la clef sous la porte pour cette raison.

  3. Merci pour l’article mais comme beaucoup ici j’ai vraiment du mal à croire encore au niveau d’impact de ces changements. Ce qui me fascine c’est le crédit que l’on donne à une entreprise privée dont l’agenda ne peut tous simplement pas être celui de l’intérêt général. Ce n’est pas une critique mais simplement un fait. Si la maj consiste à assouplir un peu le système des pénalités, tant mieux, pour le reste, on fini par comprendre le processus à l’oeuvre.

    • Marie Pourreyron
      Marie Pourreyron on

      MAJ non confirmée et nommée Phantom 3. Elle pénalise les liens, le contenu pauvre et la duplication. Selon mes sources.

Send this to a friend