Passer au contenu

SEO : mise à jour de Google pour favoriser les contenus récents, 35% des recherches affectées !

Voila une annonce qui va probablement faire l’effet d’une bombe dans le (pas si) petit monde du SEO : Google met à jour son algorithme pour mettre en valeur les contenu récent et “frais”, ce changement va impactera 35% des résultats de recherches, un chiffre énorme plus gros encore que la mise à jour Panda qui en impactait seulement 12%… webmasters, tremblez !

Voilà une annonce qui va probablement faire l’effet d’une bombe dans le (pas si) petit monde du SEO : Google met à jour son algorithme pour mettre en valeur les contenus récents et “frais”, ce changement affectera 35% des résultats de recherche, un chiffre énorme plus gros encore que la mise à jour Panda qui en affectait seulement 12%… webmasters, tremblez !

Caffeine était l’infrastructure, voilà l’algorithme

D’après Google, des résultats plus récents et plus “frais” sont synonymes de résultats plus pertinents, c’est la raison pour laquelle Google a changé d’architecture l’année dernière pour migrer vers Caffeine, remettant complètement en cause le système d’indexation des pages web. Le principal changement étant que les pages récentes sont beaucoup plus vite indexées par Google qu’auparavant. Seulement voilà, si l’index était déjà différent rien n’avait changé dans l’algorithme du SERP, ce ne sera plus le cas longtemps.

Google précise:

Nous avons mis en place notre indexation Caffeine l’année dernière, qui nous permet de parcourir le web pour y trouver du contenu récent rapidement à une échelle gigantesque. En se basant sur cette dynamique, nous mettons en place aujourd’hui une amélioration notable de notre algorithme de recherche qui impactera 35% des résultats et permettra de mieux savoir quand vous donner un contenu à jour et pertinent grâce à ce degré de “fraicheur”.

35% des résultats concernés

Oui, vous comptez bien, cette mise à jour est en fait plus importante que le nouvel algorithme Panda qui impactait seulement 12% des recherches… peut-être que les variations du SERP seront moins impressionnantes mais tout de même c’est énorme.

Google donne plus de précisions sur les recherches qui seront notamment modifiées par ce nouvel algorithme :

  • Les évènements récents et les “hot topics”. Pour les évènements récent où les hot topics qui commencent à être en vogue sur le web, vous voulez trouvez l’information la plus récente immédiatement. Maintenant quand vous cherchez quelque chose en cours comme “occupy Wallstreet” […] vous verrez en priorité les pages de qualité vieilles de seulement quelques minutes.
  • Les évènements réguliers. Certains évènements se déroulent régulièrement dans le temps, comme les conférences annuelles ou les élections présidentielles. Sans spécifier de mot clé, il est implicite que vous voulez l’évènement le plus récent, pas celui d’il y a 50 ans[…]
  • Sujets fréquemment mis à jour. il existe également des recherches qui changent souvent, mais qui ne sont pas réellement un sujet brûlant. Par exemple si vous recherchez les meilleurs appareils photo slr, ou une nouvelle voiture, vous voulez probablement l’information la plus à jour.

Pour l’instant je ne sais pas si seules les pages en anglais sont affectées par cette mise à jour où si l’ensemble de Google est boulversé, mais dans tous les cas l’algorithme sera probablement implanté partout très prochainement, donc surveillez vos Webmaster Tools !

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera
57 commentaires
57 commentaires
  1. Voila une nouvelle qui vas faire plaisir au rédacteurs de contenus et qui vas pousser les webmaster à mettre du contenu frais sur leur sites, logiquement les blogs devraient être favoriser par ce changement.

  2. Les sites d’actus et de news, les blogs avec publications régulières et les forums devraient donc êtres plus mis en avant…

    … et les sites aux contenus “fixes”, en général des sites d’informations vont êtres pénalisés.

    Rien de bien logique là.

  3. Je trouve ça plustôt bienvenue pour pas mal de chose car c’est en effet fatiguant de tomber sur des infos dépassée lorsqu’il sagir de sujet qui évolue dans le temps (l’informatique est un excellent exemple).
    Par contre j’espère que google ne va pas surdosé le bonus à la fraicheur sinon on va se retrouver avec des tonnes de nouveaux site rédigé par des rédacteurs lowcost en speed sur tous les sujet vendeurs…

  4. C’est intéressant et cela donne à réfléchir lorsque l’on se lance dans une thématique qui nécessite beaucoup de mises à jour, il faut pouvoir suivre sur la durée!

  5. Je trouve ca tout à fait normal. D’ailleurs on retrouve de plus en plus les pages de Google Actu en première position.

    Si ca n’affecte “que” les sujets chauds du moment par contre faut pas que ca affecte les requêtes plus classiques sur lesquelles il n y a pas d’actu que ca…

    En tout cas, sur l’iPhone y a tous les jours quelquechose à dire 🙂

  6. comme si le contenu le plus récent était le plus pertinent… tout dépend de la recherche effectué, beaucoup d’articles de référence (type wikipedia) restent totalement pertinent quelque soit leurs “fraicheurs”…

  7. C’est une bonne chose de gagner en fraicheur. Par contre, je n’ai pas l’impression que ce nouveau algo est déployé, même au US. A suivre …

  8. C’est une bonne chose pour les webmasters qui ont des sites d’actus. J’ai remarqué que sur certains de mes blogs qui n’ont pourtant pas trop de popularité, les news étaient indexé sur google dans les 5 minutes qui suivent la publication, alors que des pages de contenu (hors news) mettaient plusieurs jours avant d’être dans le cache.

  9. Je suis d’accord avec pat, mais je pense que les sites qui vont gagner en popularité dans un premier temps seront se inscrit sur google actualité.

  10. “L’algorithme de PageRank” ?? Je ne vois pas le rapport, et ne vois pas ce que viens faire le PR là-dedans. C’est au niveau des SERP que ça devrait changer quelque chose, pas au niveau du Pagerank…

    Sinon, z’ont fumé chez Google… En quoi un contenu récent est plus pertinent qu’un contenu plus ancien, dans la majorité des cas, faudra qu’ils m’expliquent 😉

    Enfin, j’imagine qu’il ne devrait pas y avoir autant de paranoïa qu’avec Panda chez les Webmasters : c’est toujours plus facile de faire du contenu frais que du contenu de qualité 😀

  11. @Pourquoi: il est de plus en plus difficile d’être ajouté dans Google News. Je pense que Google ne donneront pas la prime de fraicheur à n’importe quel site.

    Ils doivent donner beaucoup d’importance à certains profils Twitter très suivis.

    Sinon je ne crois pas que ca soit aussi important et difficle que PANDA pour les SEO.

  12. “peut-être que les variations de PageRank seront moins impressionnantes mais tout de même c’est énorme”

    Je ne vois pas le rapport avec le PageRank (à moins que l’on parle du classement de la page et non de la petite barre verte) ?

  13. Pour moi, cela fait 1 semaine que mon nombre de visiteurs augmente.

    J’ai une augmentation de 21% sur une semaine

    Si je compare mercredi 2 novembre avec mercredi 26 octobre, c’est plus 35%

    Je ne sais pas si c’est un lien de cause à effet..

  14. Oula, ça sent encore le casse-tête SEO cette histoire ! C’est bien que Google inove constamment, mais c’est un peu fatiguant à la longue…

    En tout cas, tant que les sites qui font du contenu intéressant pour les internautes avec de bons produits qui intéressent ne perdent pas de position, ça me va 🙂

    Panda, je trouve ça plutôt bien car ce sont principalement des agrégateurs qui ont pris et non les sites ayant le contenu original, espérons que ce soit la même chose ici.

  15. Wouahou,
    merci Jean Baptiste de nous faire partager cette très bonne information. Le sujet passionne en tout cas. A peine mis en ligne, l’article a déja des dizaines de commentaires.

  16. Ce changement est sans doute pertinent pour certains domaines. Par contre, est-ce que cela ne risque pas de pénaliser certains sites dont l’information n’évolue pas régulièrement (comme des sites médicaux, par exemple, ou même sur des techniques de relaxation, etc.) ?

  17. Cela risque de générer de la concurrence saine sur les sites qui mettent à jour leurs contenus très régulièrement.
    Mais est-ce que cela ne risque pas de pénaliser les sites qui n’en ont pas besoin ou du moins, moins régulièrement?
    Qu’en pensent les experts en SEO?

  18. C’est une bonne nouvelle qui va favoriser les sites qui sont souvent mis à jour.
    Quand on cherche, on trouve trop souvent des résultats très anciens qui sont complètement dépassés.
    C’est un bonne nouvelle!

  19. pour delcano : cela dépend du secteur.
    les pages “actualités” des sites d’entreprises vont prendre un peu plus de valeur, ceci dit, google lutte toujours contre le “bourrinage” : l’article donne le côté pile de la médaille, mais la sélection du contenue récent va réserver certaine surprise…

  20. Ca impactera à mon avis plus les sites d’actualité et les forum, mais niveau service et e commerce ca devrais pas changer énorme!

    Aprés peut être que les site vitrine de boite unchangé depuis 5 ans vont eux aussi décendre! Ca favorise donc le travail régulier des webmasters dans la création de contenu et l’actualisation des données!

  21. Enfin !!!
    Je ne trouvais pas cela vraiment normal quand on fait une recherche de tomber sur des résultats vieux de 2ans, alors que positionné loin derrière, du contenu frais peut apporter une meilleure info car plus pertinente…

  22. Avec Panda, Google a dit que l’algorithme n’aimait pas qu’un site traite plusieurs fois un même sujet.

    Cette nouvelle couche algorithmique pousse les éditeurs à écrire des nouveaux articles sur le même sujet chaque année.

    Ecrire 2 ou 3 articles très différents (pour chaque année) sur un évènement est possible mais à un moment donné, il y aura forcément une similitude dans l’information.

    Et c’est clair, ce nouvel algorithme va privilégier les sites édités par une armée de rédacteurs.

  23. Si je prends comme exemple un de mes sites, un calendrier d’épreuves sportives, quand on recherche des infos sur une épreuve (sans spécifier de date), ça peut être soit pour avoir les infos pour s’inscrire à la prochaine édition, soit pour obtenir les résultats. Mais quand on tombe sur la fiche de l’épreuve qui date de 4 ans, sans résultat en plus ;-(
    Pour cela, ça va aussi dans le bon sens

  24. A partir de quand peut-on considérer qu’un site est actualisé suffisamment et qu’il existe peu de risques pour le PR? Nous sommes un groupe d’étudiants travaillant sur le SEO pour un projet de fin d’année et pour cela nous avons crée un blog appelé: <ahref=""www.facegag.wordpress.com"la gag. Malgré d’innombrables ressources sur le sujet sur le net, nous sommes bien souvent incapables de trier le vrai du faux de la supposition douteuse pour améliorer notre référencement… Si vous-même avez des connaissances pointues dans ce domaine nous serions ravis de bénéficier de vos conseils 🙂

  25. Merci pour l’info ! Mais je pense que ces changement risquent de mener à une course à la publication qui sera nuisible pour des sites moins sensibles à l’actualité

  26. @Kevin: Je pense au contraire que cela va impacter rapidement les sites ecommerce. Je le vois bien sur le mien. Lorsque je met un nouvel article en ligne il est indexé et affiché en top ten sur Google dans les 48h. Certains sites qui me posaient problèmes en terme de concurrence avec des pages pour certains créer il y à 4 ou 5 ans sans mises à jour, sont passés dans les oubliettes.Le truc le plus dur va etre maintenant de créer et recréer indéfiniment des pages produits remplaçant totalement les pages produits déjà indexées pour être toujours au top. J’ai 16.000 références. VDM 😉

  27. Il va falloir trouver un petit programme qui annule ses données et qui les remplace par les mêmes légérement modifiées et ce de façon régulière Au travail!

  28. Merci pour l’info ! Mais je pense que ces changement risquent de mener à une course à la publication qui sera nuisible pour des sites moins sensibles à l’actualitédsag

  29. Moi en tout cas ça me rassure, car beaucoup ne sont pas à jour (liens morts dans les articles, nuances sur les termes de 1ère position,…) et nous derrière ça quand on balance une actu, ou simplement une update, Google nous classe derrière de sites de 2006, alors imaginons l’utilisateur qui cherche une infos par exemple sur les techniques de referencement… Elles ont bien changées en 6ans ^^

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *