Passer au contenu

Google envisage des pénalités visant les sites “sur-optimisés” pour le référencement

Il se passe rarement une semaine ces derniers temps sans que l’on apprenne une nouvelle information sur les efforts que Google déploie pour assainir son index et faire remonter les meilleurs contenus en tête de ses résultats.

Il se passe rarement une semaine ces derniers temps sans que l’on apprenne une nouvelle information sur les efforts que Google déploie pour assainir son index et faire remonter les meilleurs contenus en tête de ses résultats.

Selon Search Engine Land, qui publie un audio de Matt Cutts, grand gourou du SEO et de l’anti-spam chez Google, le géant de la recherche prépare de nouvelles fonctions dans son algorithme magique pour détecter et pénaliser les sites qui seraient “trop” optimisés pour le SEO.

Matt Cutts indique que ces nouvelles sanctions seront introduites dans les résultats de recherche dans les prochaines semaines, ou mois à venir. L’idée étant de remettre à niveau les résultats en favorisant les sites au contenu de qualité ou “pertinent” (même s’il n’est pas certain que Google puisse juger réellement de ce dernier critère sans intervention humaine).

On sait que les pages de résultats de Google sont parfois pleines d’incohérences, ce qui génère sentiment d’injustice et frustration chez certains éditeurs de sites de qualité, qui voient leurs efforts réduits à néant par des sites gérés par des experts du SEO qui leur passent devant avec des contenus nazes ou pauvres, mais super optimisés.

Finalement cette annonce, même si elle est récente, ne révèle rien de très inédit : Google continue sa guerre au spam-indexing et au keyword stuffing en affinant ses outils. Pour le bien des internautes, en théorie, et de son business. Mais avec Google, de ce point de vue on n’est jamais sûr de rien, et même les éditeurs de sites au contenu légitime subissent parfois les dégâts collatéraux d’une mise à jour de l’algorithme. A qui le tour ?

Pour rappel, une petite archive vidéo de juin 2009 sur “l’over-optimization” par Matt Cutts

(source)

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera
30 commentaires
30 commentaires
  1. Mouais… J’ai un peu l’impression que google nous a annoncé la fin du contenu non pertinent une bonne dizaine de fois c’est 3 dernières années…

  2. Bonjour Eric,

    Google s’attaque clairement aux réseaux douteux et hors contexte. Cela a commencé pour les blogs US mais la question se pose pour les réseaux de CP en France bien plus développés qu’aux USA.

    Je me demande même si un site à faible ou à moyenne autorité lié directement voire indirectement (et c’est là que cela risque de faire des dégâts collatéraux) à un réseau conséquent sera perçu comme “non naturel” et donc pénalisé.

    amicalement

  3. Il se répète….mais tant que ce sera de l’indexage automatique, je ne vois pas comment google va identifier du contenu de qualité…

  4. C’est vrai que beaucoup de site peuvent monter très vite sans avoir du contenu tandis que des sites plus “amateurs” sont bien fournis et mal référencé.
    Après à voir ce que ça donnera en pratique

  5. C’est pas nouveau ça que les site sur-optimisés prennent des claques de forain par l’ami google!
    Pareil si vous utilisez toujours les mêmes ancres!

  6. c’est vrai que Google annonce régulièrement la fin des contenus “faits pour plaire à Google” dans ses résultats en première page…

    A voir ce que ça donne, mais généralement des sites “normaux” peuvent aussi en faire les frais… c’est le risque avec les algorithmes, aussi évolués soient-ils, mais sans vérification humaine !

    Après, il faut avouer que la mise à jour pénalisant les “fermes de contenu” ou “aggrégateurs de contenu”, même si elle a certainement fait couler de nombreuses start-ups, a été à mon avis plutôt positive pour la qualité des résultats fournis…

  7. le vrai problème, ce sont ces “dégâts collatéraux” qui surviennt à chaquemise à jour de l’algorithme google. et les spécialiste SEO trouvent rapidement la parade tandis que les éditeurs de bonne foi rament…

  8. En somme, un retour aux sources du web: bon contenu, bonne position dans les Serp.
    Avec l’arrivé des réseaux sociaux, je trouve qu’il est plus en plus difficile de faire la différence entre buzz et contenu de qualité.

  9. A chaque changements annoncés par Google je passe en mode panique.

    Le dernier changement d’algo, qui devait pénaliser les sites n’offrant pas assez de contenu et bien trop de pubs au dessus de la ligne de flottaison nous a rudement touché et nous avons perdu plus de 60% de trafic naturel vers notre site. Pourtant, nous n’avions aucune publicité (même pas des ads) et bénéficions d’un contenu unique et de qualité toujours renouvelé.

    Du coup, pour remonter et regagner nos positions, on a été obligé de créer des pages dédiées au SEO, assez déceptives pour l’utilisateur, en plus de tout un tas de trucs pas recommandés.

    En conclusion, c’est Google qui nous a amené à faire du SEO un peu sale (pas de cloacking ni de black hat non plus hein) pour regagner en visibilité au dépend de nos utilisateurs.

    Tant que Google ne fonctionnera qu’avec des algos et qu’il n’y aura pas d’humains derrière, il y aura des dommages collatéraux.

  10. Je suis a fond pour le contenu de qualité et je suis super content de google Panda, ça fait le ménage. Par contre je trouve vraiment que Google ne communique pas assez d’informations, il y a quand même un grand flou sur le fonctionnement de son index principal et secondaire. Ce manque d’information amène souvent des types sincères a se fourvoyer…

  11. En théorie, si le contenu d’un site est de qualité, ils y a des liens naturels qui se créer au fil du temps… Et puis il faut que Google arrête de croire qu’il peut tout gérer… Si une grosse entreprise fait passer une pub à la TV, il y aura forcément de nouveaux liens vers le site de l’entreprise et ceux-ci ne seront pas naturels… et pourtant Google pensera que si.

  12. J’ai hâte de voir ça… sachant que le premier sur “rachat de crédit” à actuellement 95% de liens externes fait par SPAM.

  13. Le vrai probléme c’est le monopole de Google sur la recherche, alors quand j’entends que facebook va se lancer aussi dans la recherche, cela fait très peur, bientôt, il ne restera plus que 20 sites sur le web qui monopoliseront l’audience et les petits sites non tenu par des world company n’auront plus d’existence ?

  14. Pour ma part, je crois à la cohérence, tracer sa route, être régulier, un peu comme dans une campagne électorale… Petit à petit, les électeurs, et les sondeurs (notre grand moteur de recherche), se forgent une opinion… Il faut sortir de la tactique de court terme qui fait gagner quelques points dans les sondages mais ne dure pas;-)

  15. @stickers non pas forcément si on suit la logique.
    C’était vrai il y a des années, cela l’est moins maintenant. Ne serait-ce qu’avec le nofollow par exemple.
    Un internaute peut trouver un site génial, en parler sur un autre site, mais hop, c’est du nf et il ne peut rien faire.
    Il faut qu’un webmestre dedaigne parler avec lien direct du dit site. Et ça fait léger.
    C’est pour ce genre de raison, je pense, que la pertinence globale de ce système est peut être en train de montrer ses limites.
    Mais… on a aucune alternative.
    Les “LIKE” de facebook ne sont pas du tout une source fiable.
    Exemple :
    Si on met une vidéo de chat, ça va like à fond, mais est-ce pour autant une vidéo très pertinente ?

  16. Google aime bien changé les choses sauf que bien souvent se sont ces propres sites qui sont favorisé et pas ceux des vrais webmaster. Avec tous les procès que Google doit géré en se moment une position dominante n’ai pas enviable pour lui.

  17. Entre ce qu’annonce Google et ce qu’il fait réellement il y a un énorme décalage. Les sites sur sur optimisés sont déjà souvent pénalisés à mon avis. Reste que cette annonce va peut être inquiéter les webmasters du dimanche mais rien de probant.

  18. De toute façon quoi que Google fasse il y aura toujours des personnes qui influeront sur les critères de classement : acheter des followers, payer des like, acheter du contenu, payer des bloggeurs, etc.
    Et après la grande question du “contenu de qualité” ça ne veut vraiment rien dire. Il y a des milliards de pages sur le web et des milliards de pages intéressantes et que 10 places sur la 1ere page. Est-il réellement possible de faire un classement de ces pages ? Ce serait comme classer les 10 plus belles filles de la planète, ou les 10 meilleurs guitaristes, ça n’a tout simplement aucun sens …

  19. Les règles de référencement google , sont toujours difficiles à comprendre , surtout pour une petit entrepreneur . Vous avez beau lire et relire les conseils google, les recommandations de olivier andrieu par exemple , surveiller l’actualité …… On a toujours peur de mal faire !!!!!! La frontière entre white référencement et black référencement est très difficile , et est en permanence en évolution !!!

  20. Je me suis pris une chute catastrophique sur 2 sites qui me ramènent le gros de mes revenus et je peux vous dire que ce n’est pas drole. J’ai passé tout mon weekend à chercher des infos détaillées sur les pénalités de Google, pas grand chose en France à part : http://www.axekap.fr/penalites-google
    et http://www.slideshare.net/woptimoslides/les-pnalits-de-google
    sinon faut faire des recherches en anglais mais mon Taylor n’est pas riche ! Si vous avez des pistes sur les variétés de pénalités pour sur-optimisation (en détails SVP) je suis preneur ! Merci, Jean Luc

  21. J’ai fait des modif sur mon site de Thème WordPress, mes premiers articles étaient trop optimisés, je les ai donc revues en insérant des synonymes et en réduisant leur quantité.

    En quelques semaines j’ai vu une évolution (de petites) sur le positionnement de ces mots clés.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *