Passer au contenu

Google part en guerre contre la pagination abusive

Les sites d’information qui abusent de la pagination dans leurs articles risquent d’apprécier moyennement les effets de cette nouvelle annonce de Google. Le moteur recherche veut en effet lutter contre ce moyen quelque peu artificiel d’augmenter son nombre de pages vues.

Les sites d’information qui abusent de la pagination dans leurs articles risquent d’apprécier moyennement les effets de cette nouvelle annonce de Google. Le moteur recherche veut en effet lutter contre ce moyen quelque peu artificiel d’augmenter son nombre de pages vues.

Vous êtes tous tombés sur ces articles à rallonge, souvent des listes, segmentés en plusieurs pages, avec des liens “suivant/précédent” voire une numérotation des pages (exemple). Si cette méthode est parfois nécessaire et justifiée, notamment dans le cas d’articles très longs avec de nombreux éléments multimédia longs à charger en une seule page, elle est souvent inutile et devient alors très agaçante, voire dissuasive. il m’arrive fréquemment de quitter illico un site sur lequel j’étais venu en suivant un lien qui m’intéressait, parce-que l’article en question est sur plusieurs pages, notamment dans le cas de séries de photos avec peu de texte.

Google, toujours à fond sur sa volonté de fournir les réponses aux recherches et les contenus les plus pertinents, vient d’annoncer sur son blog spécialisé dédié aux webmasters qu’à chaque fois qu’il sera possible de le faire, il indexera en priorité la page principale d’un article étalé sur plusieurs pages. Il faut en effet savoir que dans de certains cas les articles paginés sont également disponibles sur une page unique, et c’est donc celle-ci que Google indexera, au détriment des pages composant l’article. Ainsi l’internaute sera dirigé vers une page plus “pertinente” lui évitant d’avoir à se taper de nombreux chargements de page.

Cependant, Google reste assez souple dans cette nouvelle procédure puisqu’il laisse aux éditeurs la possibilité de choisir ce qu’ils souhaitent. Ainsi si on ne souhaite pas qu’une recherche dans Google aboutisse sur la page unique de son bel article savamment découpé en 253 pages  (avec 253 publicités différentes), il suffit de l’indiquer en ajoutant quelques balises dans son code, et notamment un bon vieux “noindex” sur la page principale afin que Google ne l’indexe pas.

Google explique en détail la démarche dans cet article complémentaire. Je note au passage que dans ces deux articles, Google ne fait à aucun moment allusion au duplicate content, qui est pourtant une crainte souvent évoquée lorsque l’on parle de pagination, y compris celle des commentaires. Faut-il en déduire que celle-ci n’est pas justifiée ?

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera
74 commentaires
74 commentaires
  1. Pendant qu’ils y sont, ils veulent pas sanctionner les sites web qui triche sur leur nombre de page vu en rafraichissant automatiquement leur page toutes les x secondes? Nan parce-que c’est super chiant lorsque tu lit un long article de te retrouver tout en haut de la page à chaque refresh…

  2. Exact, et il y en a un paquet aussi. Du point de vue du lecteur c’est insupportable, du point de vue de l’éditeur c’est tentant, j’avoue. J’avais testé ça aussi pendant quelques semaines sur presse-citron il y a deux ans (mais le refresh se faisait toutes les 15mn pour ne pas gêner justement) et j’ai vite compris que c’était une très mauvaise idée 🙂

  3. Ce genre de pages m’horripile, surtout quand les pages ne sont pas sectionnées par sujet (genre “description”, “test”, “photos”, … — ça à la rigueur ça passe encore)

    L’astuce que j’utilise c’est de chercher le bouton “imprimer” – on se retrouve en général avec l’article complet sur une seule page.

  4. C’est vrai que des fois c’est abusé mais parfois c’est quand même bien pratique sur les articles longs ou avec des chapitres bien distincts.

  5. Je pense qu’un exemple très connu c’est les news msn assez people qui tentent de mettre un peu de suspense à leur contenu pauvre en le divisant en 6 à 10 pages.

  6. Il n’y a pas de problème de duplicate content si la page complète est scindée en une dizaine de pages. Ca ne fait que 10% de contenu “repris”, donc ca ne rentre pas dans le quota de DC … sinon beaucoup de sites auraient du souci à se faire !

    Et je plussoie pour le journal du net : leurs articles sont intéressants mais bordel que c’est chiant à lire !

  7. Il était temps tout de même…
    Aux US , certains sites sites d’infos tech abusent avec les diaporamas successifs ou il faut charger 12 pages avant de voir l’article.

  8. On connaît les coupables : linternaute, lejournaldunet… alors que CCM par exemple laisse ses articles sur une seule page à ma connaissance. C’est gênant, mais ce n’est pas non plus très important…
    Je pense que Google a d’autres efforts à faire en constatant et corrigeant notamment le spam qui reste dans ses résultats même après panda !

  9. Moi aussi j’ai bcp de mal à supporter les articles découpés en plein de petits bouts pour multiplier les pages vues.

    Mais je n’ai pas interprété l’article de Google de la même façon que vous (je peux me tromper, en fait je trouve leur article pas assez clair).

    Pourquoi pensez-vous que ceci va pénaliser le référencement de ceux qui découpent leurs articles en plusieurs pages ?

    J’en discute également sur WRI ici : http://forum.webrankinfo.com/google-pagination-faites-des-landing-pages-t147094.html#p1324696

    1. @Olivier Duffez : je ne sais pas si ceci va pénaliser le référencement de ceux qui découpent leurs articles en plusieurs pages, mais Google indique que s’il a le choix il indexera en priorité les pages contenant l’article entier, donc par défaut celui proposant l’article découpé sera pénalisé non ? Mais vous êtes plus expert que moi en référencement 🙂

  10. Perso, je pense que lire un article de plusieurs pages sur un site web est une ineptie qui peut, toutefois et parfois, se justifier

    Pour autant, si un article doit faire plusieurs pages (et parfois des dizaines comme dans l’exemple d’Eric), je préfère avoir la possibilité de télécharger le dit article dans une version PDF…

    Autre solution, mais avec un nombre de pages réduit, un système d’onglet…

  11. Sans compter que la plupart de ces sites d’informations à pagination abusive ne sont pas adaptés au téléphone mobile. Qui a-t-il de plus frustrant que de devoir re-télécharger de longues pages sur son iPhone afin de pouvoir lire le texte en entier?

    Peut-être que s’ils épuraient leur design en ne mettant que l’article et une ou deux pubs que leur taux de clique (click rate) s’en verrait grandement amélioré.

  12. Ah enfin, pas plus tard qu’hier je lisais un article sur linternaute et après avoir fait deux pages de l’article qui malgré tout était intéressant j’ai fermé et je suis passé à autre chose.
    Mais bon google étant cool cette fois ci, ca ne changera surement pas grand chose :/

  13. Je pense que vous avez peut-être mal interprété l’article de Google. Il s’agit simplement d’indiquer au moteur de recherche l’URL la plus pertinente dans une série de pages paginées.
    En général donc, la première. Ce sera donc cette page qui sera retournée de manière prioritaire dans les SERPs.
    Et Google traitera l’ensemble de la pagination comme un tout relevant de la même thématique.
    Du moins c’est ce que j’ai compris à la lecture de l’article du blog, je ne pense pas qu’il faut en déduire que les sites d’information qui utilisent la pagination outrancière seront pénalisés.

  14. @Eric Il s’agit toujours du site qui propose l’article scindé. Si ce dernier le propose en version complète, Google indexera uniquement cette dernière. Et si jamais elle est en noindex, alors cela forcera l’indexation des pages de l’article en version découpé.

    Enfin en tout cas c’est ce que j’ai compris mais je me trompe peut-être 😀

  15. Ce serait bien que cela permette de faire le tri entre les sites web pertinents avec du contenu de qualité fait pour les internautes de ceux faits pour l’argent ou pour le nombre de pages vues au détriment du lectorat.

  16. Si certains sites se plaignent, rappelons-leur aussi que de son côté Google référence leurs pages … gratuitement ! et que c’est grâce à cela qu’ils récupèrent des lecteurs (toujours gratuitement).

  17. Précision : si vous (re)lisez bien mon article vous verrez que je ne parle à aucun moment de pénalisation par Google des sites utilisant la pagination. J’indique justement que GG indexera en priorité les pages uniques, pas qu’il va pénaliser les sites concernés

  18. Absolument d’accord, mais je doute que des sites comme MSN ou Doctissimo et autres qui pratiquent cela se fassent sanctionner avec pertes et fracas ^^
    Je suis absolument d’accord avec le premier commentaire de “pourquoi” concernant les sites qui raffraîchissent leur page automatiquement toutes les 10 ou 15 secondes rendant la lecture insuportable, ce procédé est totalement inadmissible, une fois toutes les 10 min pour mettre à jour un site d’infos ok, et encore, l’internaute est capable de le faire lui-même…

  19. @garifuna c’est exactement à JDN que j’ai pensé en lisant cet article 🙂

    Il va falloir jouer de l’attribut rel=”next” and rel=”prev” pour certains

  20. Sur mon blog, j’ai environ 6/7 articles par page, mais je pense que cette mise à jour ne me touchera pas, car je désactive l’indexation des “/page”, pour éviter que les utilisateurs se trouvent sur une page qui change souvent.

    En contrepartie, j’utilise un sitemap ;).

  21. J’ai toujours essayé de procéder ainsi. Ca me semble plus honnête pour tout le monde. Une longue page, quand possible plutôt que 4000 articles.
    Ca me rappelle cependant des sites qui te placent une visionneuse moisie qui te force à charger la page intégralement à chaque changement.

    Maintenant, je dois avouer que ce choix va dans le bon sens pour tout le monde.

  22. Tous ce que je sais c’est que ça va dans le bon sens au moins ça sera quelque seconde de gagner car un article sur 6 pages ça prend plus de temps.

  23. Je trouve aussi que c’est plutôt une bonne chose, c’est clair que c’est vraiment pénible de voir parfois des articles étalés sur des pages et des pages alors qu’ils ne sont pas longs du tout.

  24. Une décision de Google qui va dans le bon sens même si j’ai du mal à imaginer qu’un site possède 2 versions de sa page, une sans pagination et une avec pagination.

  25. C’est vrai que pour les sites édito, c’est tentant de mettre des refresh (entre 180 et 600 secondes, selon les sites : lesechos, lefigaro, lemonde).
    Maintenant, dans une logique purement Google News, avoir tout sur la même page n’est pas toujours bien accepté et l’on pourrait se priver d’un bon positionnement sur quelques articles trop importants.
    Dans ce type de cas, mieux vaut éviter de tout présenter.

    D’une manière générale, j’évite de travailler POUR Google, mais j’essaie davantage de penser de façon logique pour les utilisateurs. Cela évite de faire des erreurs (on a bien vu quelques fails magnifiques avec la balise canonique 😀 )

  26. +1 avec Garifuna, lejournaldunet est le spécialiste de cet pagination abusive, à chaque fois tu perds plusieurs secondes à vouloir changer de page (et je parle même pas quand on a une mauvaise connec, c’est vraiment pénible…)

  27. Découper son article en 10 c’est effectivement plus de pages mais elles auront moins de contenu et il faudra plus de “jus” pour les faire ressortir en haut de Google.

    C’est donc une mauvaise idée de faire ça. Pour ma part je fais uniquement de gros articles, sur des sites de contenu j’ai parfois des articles de 2.000 mots avec photos sur une seule page et ça se lit très bien.

  28. Une très bonne idée de la part de Google, j’ai vu beaucoup de sites user de cette technique pour augmenter leur pages vues. J’espère que cela pourra réduire quelques envies …

  29. @Johan, j’ai pas l’impression que le JDN est du mal à ressortir en haut de GG et pourtant niveau saucissonnage ils sont très fort.

    C’est donc une bonne nouvelle mais j’ai du mal à comprendre comment GG va gérer les tx de rebond ?

  30. Merci google c’est une bonne idée pour lutter contre l’utilisation abusif de publicité.
    Pauvre webmasters, il sont toujours obligé a suivre les règles de google et non le contraire 🙂

  31. GG a fais cela pour les internautes sans pénaliser les sites, tout le monde y trouve son compte finalement. Je trouve que c’est une très bonne chose

  32. J’attends de connaître la limite observée par Google.
    Car à contrario, si je vois certains pages abusivement découpée, je n’aimerais pas devoir tomber sur des pages surchargées parce que Google a voulu bien faire.

    Attends de voir si les effets sont comme ceux de la fameuse balise “canonical” conseillée par Google.

  33. Bon c’est bien que google s’attaque a cette vilainerie du web

    M’enfin si vous connaissez AUTOPAGER + adblock vous n’avez AUCUN problème!

    Le journal du net s’affiche en UNE PAGE !

    Gnarf gnarf on peut toujours déjouer leur plan diaboliques pour faire du clic.

  34. Je ne suis pas certain que la solution soit la sanction, et pourquoi d’ailleurs vouloir tout standardiser ? c’est vrai que ça me fatigue de tourner les pages sur JDNet par exemple mais la sanction pour le site qui a ces pratiques c’est qu’il perd des visiteurs qui en plus de devoir tourner des pages doivent souvent fermer des pubs qui s’affichent sur chacunes d’elles en grand…

  35. Bientôt 6 mois après cette nouvelle, est-ce quelqu’un connait des sites qui ont subi des sanctions de la part de big G suite à une pagination abusive ?

    Merci !

  36. Aucun parce que tout simplement une fois encore, google annonce, fait peur à tout le monde, tout le monde réagit en mettant des balises canonical partout,et hop, on s’aperçoit qu’il n’y a aucun sanction pour ceux qui n’ont rien fait.
    L’exemple le plus récent, c’est Panda.

  37. Les articles sur plusieurs pages comme un voit même sur des sites comme Mashable est plutôt pénible.

    C’est une bonne chose, même si souvent avec Google, les annonces sont plus importantes que les faits.

  38. Mouais Mouais Mouais

    Je suis pour quand c’est vraiment l’abus… Mais maintenant ça va faire flipper les webmasters de faire de la pagination…

    De plus… Est-ce forcément pratique de chercher une info dans une page de 10 kms ?

    Et enfin…
    Google et ses SERP… Appliquera t-il le même conseil ? 🙂

  39. Bonjour Eric
    SVP c’est juste pour que vous m’expliquiez si vous le voulez bien, pourquoi sur mon blog il y a des liens que je n’avais pas créés et qui renvoient à des pubs pour Ipad2 sous forme de test. J’ai remarqué cela sur tous les sites que je visite y compris celui-ci. Il est vrai que mon message est peut-être hors-sujet, mais vu votre compétence, je pensais que vous pourriez m’aider pour écarter cette pub. Et mille mercis d’avance.

  40. @rafrari : ta question demande quelques précisions, est-ce que tu héberges toi-même ton blog ou bien est-il créé sur un serveur de blog “gratuit” à la blogger, wordpress.com ou autre ?

  41. Bonjour Dodutils
    D’abord merci de me répondre. Voici l’URL de mon : http://rafrafi.blogspirit.com Comme vous le constater c’est Blogspirit qui est hébergeur gratuit. Seulement je voudrais ajouter que je viens de vérifier avec un ami, s’il voit lui aussi ces liens intrus. Réponse: non. Donc cela ne concerne apparemment que mon navigateur (Google Chrome). J’en suis pas sûr. Sachant aussi que sur mon espace privé de Blogspirit, ces liens ne figurent pas. Pour vous donner une idée: dans ma dernière note, juste au début, il y a le mot “gagner”. Ce dernier devient après de plusieurs seconde, un lien vers la pub en question. A noter également que ce phénomène touche aussi maintenant d’autres sites francophones que je visite presque régulièrement. Voilà, j’espère avoir pu être aussi clair. Cordialement

  42. @rafafri : en deux mots, les pubs peuvent être ajoutées automatiquement par l’hebergeur, moyen simple pour faire un peu d’argent sur un service gratuit, mais blogsiprit est un blog payant non ?

    Si ces pubs ne sont pas vues sur certains navigateurs c’est peut-être que ceux-ci ont un plugin anti-pub activé.

    Ou alors, si cela ne semble apparaître que sur ta machine, cela peu très bien venir d’un plug-in de type adware qui s’est collé à ton navigateur navigateur suite à l’installation d’une application. Ce type plug-in peut ensuite insérer dynamiquement des pubs dans chaque page que tu visites.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *