Passer au contenu

Pour Google, le web français se limiterait-il à une dizaine de sites ?

La plupart des internautes qui effectuent régulièrement des recherches avec Google – mais c’est vrai aussi avec d’autres moteurs – l’auront probablement remarqué : certaines requêtes…

La plupart des internautes qui effectuent régulièrement des recherches avec Google – mais c’est vrai aussi avec d’autres moteurs – l’auront probablement remarqué : certaines requêtes parmi les plus courantes retournent la plupart du temps des résultats  en provenance des mêmes sites.

Soit, pour faire simple, une bonne dizaine de sites qui sont devenus en quelques années des mammouths de l’internet français sur leur thématique, trustant systématiquement les premières places sur un champ lexical donné.

SEO is king

Ainsi si vous ne savez pas exactement ce à quoi correspond une stratégie de SEO (Search Engine Optimization – Optimisation pour les Moteurs de Recherche) en béton armé, tapez n’importe-quel terme médical dans Google et regardez les résultats : il y a de fortes chances pour que Doctissimo arrive sinon en première position, sinon au moins une fois dans les 5 premiers résultats de la première page. Vous voyez maintenant ?

Doctissimo n’est évidemment pas un cas isolé, mais finalement les sites qui squattent systématiquement le haut de mes pages de résultats Google en réponse à certaines requêtes ne sont pas aussi nombreux que cela. A tel point que cela en deviendrait lassant, et que sans remettre en cause la pertinence des algorithmes de Google, on pourrait presque s’interroger sur celle-ci dans certains cas de figure. Ou sur la capacité de certains référenceurs à tirer toutes les ficelles en vue d’utiliser ceux-ci en leur faveur.

Paradoxalement, le tableau ci-après montre que, selon Alexa, les sites les plus présents dans les résultats de recherches ne figurent pas nécessairement dans le Top 100 des sites les plus visités. Question de thématique.

Autre élément intéressant à souligner : si une recherche sur un nom de chanteur, notamment francophone, renvoie presque systématiquement dans les 3 premiers résultats un résultat avec Deezer, ce n’est pas le cas avec un nom de chanson. Saisissez un titre anglo-saxon (et meme français, souvent) dans Google et le premier résultat ne pointe pas sur un site de musique mais sur une vidéo… YouTube.

Le top 10 des cadors du SEO est facile à établir. Même s’il ne serait pas pertinent ici de faire un classement, on peut cependant jouer avec quelques mots, qui avec la magie des moteurs de recherche deviennent des mots-clés :

Mot, terme, expression saisie
Site le plus fréquent dans les 5 premiers résultats de Google
Date de création (nom de domaine et/ou site)
Classement selon trafic

(source : Alexa)

Titre de film, nom d’acteur
Allociné
www.allocine.fr
1997 / 1997
24
Terme médical, maladie, nom de médicament
2000 / 2000
44
Terme informatique, bug, problème PC
Comment ça marche
www.commentcamarche.net
2000 / 1999
17
Référencement, SEO, pagerank
2002
Pas dans le Top 100
Recette, cuisine, gastronomie
1999 / 1999
Pas dans le Top 100
Achat vente immobilier
1998
Pas dans le Top 100
Carte cadeau, ecard, carte anniversaire
1999
Pas dans le Top 100
Nom de chanteur
2007
26
Avis consommateur
2000
Pas dans le Top 100

Des points communs déterminants

D’où provient cette domination sans partage ? Des compétences en référencement des éditeurs de ces sites, assurément, mais pas seulement. S’il suffisait d’avoir dans ses équipes un spécialiste du SEO pour régner en tête des résultats des moteurs de recherche sur n’importe-quelle thématique cela se saurait.

Concernant ces exemples, une observation un peu plus détaillée fait ressortir des points communs à tous ces sites :

  • l’ancienneté du site et du nom de domaine. Si l’on regarde l’antériorité des noms de domaine, à condition que le Whois nous fournisse l’information, on constate que la plupart existent depuis une période située entre 7 ans et 12 ans, soit pour les plus anciens (Allociné, 1997) la préhistoire du web. Deezer constitue une exception : le site n’existe que depuis 2007 mais le nom de domaine était déjà enregistré en 2001. Il a seulement été racheté par le site que l’on connait aujourd’hui après avoir traîné de longues années entre différents parkings de noms de domaines.
  • la densité du contenu. La plupart de ces sites sont bâtis sur un modèle sinon similaire, du moins comparable : un contenu dense et mis à jour quotidiennement, presque encyclopédique, un forum, une communauté importante et pour la grande majorité d’entre eux un contenu dont une grande partie est générée par les internautes. C’est d’autant plus flagrant sur Seloger.com ou encore Ciao.fr.
  • la spécialisation. Chacun de ces sites est devenu une référence dans son domaine parce-qu’au départ il ne traitait qu’un sujet (Doctissimo avec la médecine, Comment ça marche avec les emmerdes informatiques…). Mais cette théorie peut être aussi contredite par des acteurs comme L’Internaute, également très bien référencé, et qui est à l’inverse un généraliste.
  • le nom de domaine. Ces sites possèdent des noms de domaine qui claquent, et qui sont soit faciles à retenir, soit en adéquation parfaite avec leur thématique. Mention spéciale à Seloger.com : quoi de plus évident qu’une telle marque quand on cherche à… se loger ? Là encore quelques exceptions : si Ciao est facile à retenir, difficile de voir un rapport immédiat avec les avis de consommateurs. On ne dira jamais assez l’importance du nom dans la réussite d’une marque ou d’une entreprise. Le génie du créateur commence par le bon choix du nom qu’il va donner à son business. On pourrait certainement faire une thèse là-dessus, en tout cas j’en suis personnellement convaincu.

Parlez-vous le Google ?

D’autres paramètres ont largement contribué à façonner le succès de ces sites, qu’il serait trop long d’énumérer ici (backlinks…), mais ceux mentionnés précédemment constituent le socle d’un référencement performant. Autrement dit ils correspondent pile-poil au premiers grands critères de Google. Trop diront certains, soucieux de voir que même avec des algorithmes puissants et malins, Google n’échappe pas à une certaine uniformisation des résultats de recherche où l’on voit émerger une sorte de monopole de quelques acteurs.

Vous noterez à ce sujet que je n’ai mentionné Wikipedia, qui est devenu une sorte de Google bis, arrivant en tête de tous les résultats de recherches.

Tant mieux pour eux, dommage en revanche pour les internautes, mais également pour les concurrents, qui éprouvent d’importantes difficultés à se faire une place au soleil, avec pourtant des contenus de qualité équivalente.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera
86 commentaires
86 commentaires
  1. Enfin, quand il s’agit des plus imposants forums francophones … ca parait normal que ça sorte en premier. (commentçamarche et doctissimo).

    Et d’ailleurs, ils ne sont pas indétronables vu qu’ils ont détroner forum.hardware.com qui est l’ex plus gros forum francophone?.

  2. Bonne analyse, le travail de fond sur ces sites est important comme tu l’as souligné, le contenu est roi et avec une bonne optimisation du site + l’ancienneté et la notoriété on arrive au trio gagnant du SEO.

    Contenu, Optimisation et backlinks que tu as omis de mentionner mais qui a aussi une grosse valeur SEO, c’est induit par la notoriété mais à préciser je pense.

  3. Quand je cherche le test (en détails et photos) d’un téléphone portable par exemple, je tombe sur d’innombrables sites comme ciao ou des sites donnant 2-3 informations sur le mobile.
    Je trouve incohérent d’ailleurs de proposer que ce genre de sites en début de recherche.

  4. La source de trafic Alexa ne me parait pas du tout pertinente pour des sites grand public francophones… L’outil n’est utilisé que par des geeks, et surtout aux US. Pourquoi ne pas utiliser les estimations de trafic google trends ?

    À part ce détail, très bon article 🙂

  5. Très bon article, et surtout tellement vrai. C’est peut etre comme ça que Bing peut tirer son épingle du jeu tu ne trouves pas ?
    En récupérant les “déçus” de Google.

  6. Bel exemple qui illustre le fait que c’est un travail de fond plutôt que des astuces et des manipulations qui amènent à être bien référencé.

    Le contenu est roi mais pour les autres, nous les plus petits, la singularité compte énormément aussi.

  7. Excellent article Eric,
    Il est important de noter que l’algorithme de Google ne fait pas de place aux petits sites (même très qualitatifs) sur des requêtes aussi concurrentielles que celles que tu as choisi.
    Le nombre de pages, la quantité (et la qualité) des liens entrants et sortants, la fréquence de mise à jour sont autant de paramètres que les “petits” éditeurs ne peuvent pas concurrencer.

    Bonne continuation et encore bravo pour la qualité de ton blog !

  8. Idem pour les recherches de concerts : Infoconcert.com arrive dans les 5 premiers résultats de Google.

    Et si le nom d’artiste est associé au mot concert, Infoconcert arrive premier quasiment à chaque fois

  9. il y a bien longtemps que Google me fait bien profondement chier, alors il est bien temps de se tourner vers d’autres moteurs de recherche (Bing par exemple)

  10. Sympa cet article 🙂

    Et du coup forcément, les sites que tu listes sont les seuls que pourront citer le grand public (en plus de la presse et des marques connues en dehors du Web).

  11. @Xu : tu as raison pour Alexa, mais je souhaitais davantage avoir un classement que des chiffres de trafic qui sont moins pertinents dans ce cas.

  12. Le vrai problème est posé lorsque le site qui truste le référencement n’est pas vraiment pertinent ; avec l’exemple de L’Internaute très bien référencé sur de nombreux sujets avec des articles parfois assez vieux.
    Parce que l’arrivée d’Allocine est premier résultat lorsque je cherche un film est souvent une très bonne nouvelle puisque c’est la base de données de référence en France (en attendant un IMDb un jour…).

  13. Pour ma part, je trouve cela relativement normal, les sites évoqués méritent amplement leur place.

    CCM est une communauté de vulgarisation avec une impressionnante information … Il en va de même avec tous les sites qui sont cités ici.

    Ne pas les proposer, c’est pire.
    Les proposer après d’autres sites, quel intérêt si l’autre site ne propose pas mieux ou égal ? Comment gérer cela du coup …

    Dès lors qu’on fait des recherches spécifiques, on se retrouve sans problèmes avec des multitudes de sites (par exemple l’utilisation des guillemets et des +/-).

    Google est actuellement en train de travailler sur la recherche sémantique. Évidemment, le moteur de recherche reste la priorité…

    Je ne trouve pas ça choquant, pour ma part.

    Concernant Bing… Le moteur de recherche qui sera intégré dans Yahoo! n’obiendra seulement 20% des parts de marché grâce à l’accord MS/Yahoo… Je pense qu’ils ont du chemin à faire avant de détroner Google. De plus, ce système de cohésion entre Microsoft et Yahoo ne sera effectif que dans 2 ans … Imaginez la multitude de services que Google aura sorti d’ici la. Certains disent même que l’accord MS/Yahoo profitera davantage à Google.

    Mais bon, Google est devenu l’ennemi de beaucoup, alors qu’il était autrefois l’ami de tout le monde… Effet de mode…

  14. C’est de toute façon une évidence. Un site ancien avec une communauté active depuis longtemps aura forcément un nombre de pages monumentales. Il sortira donc sur une infinité de requête (la longue traine). Une fois là.. Le maillage interne du site fait que les pages traitant de sujet plus généraliste (donc concurrentiel) sont très souvent vu par google. Donc les mises à jours sont constaté rapidement (un bon point). Le plus important reste que ce nombres de page astronomique attirant un traffic énorme il en découle une capacité pour ces sites à générer des liens de manières naturels très facilement.
    Donc ce type de site se retrouve devant non pas par la qualité de son contenu mais plutôt par le nombre de pages, le nombre de mise à jour et la taille de sa communauté.
    Quelques part presse citron joue sur le même tableau à l’échelle de la blogospheres. Un blog qui à de la bouteille, une grosse communauté, accompagné d’une publication intensive. Résultat beaucoup de pages, énormément de commentaires (ce qui fait du contenu supplémentaire) et donc beaucoup de liens créé par la communauté.
    Google c’est le capitalisme par excellence. Les plus gros sont avantagé les petits doivent se battre comme des dingues pour se faire connaître mais une fois que c’est fait ils sont tranquille (relativement).

  15. Un peu normal que ces sites arrivent premiers sur les requêtes vu leurs ancienneté, leurs architectures, le nombre de liens qui pointent vers eux… Quelque part c’est même rassurant : le travail paie quelque part. L’expérience du nouveau moteur de recherche de Twitter devrait proposer pas mal de nouvelles pistes de réflexion…

  16. De l’importance je pense des blogs comme le tiens.

    Cela permet de voir d’autre sites, via les commentaires d’accéder a des sites “inconnu”, via tes articles “liens du jour” …

    mon google s’appele google reader 😉

    exemple hier je souhaite acheter une housse pour mon iphone. Plutot qu’une recherche dans google, j’ai lancé ma recherche dans google reader … et je suis tombé sur un test effectué par un bloggeur “indépendant”.

    certain appelle ce web (celui non visible par google) le web profond.

    ->

    http://www.collegedegree.com/library/college-life/99-resources-to

    A Bientot.

  17. @Xu:
    “L’outil n’est utilisé que par des geeks, et surtout aux US.”

    J’éspère que tu n’as pas dormi pendant la mise à jour des sources de données d’Alexa… car contrairement à ce que tu crois, les stats Alexa ne dépendent plus seulement de la barre d’outils, et ils sont très proches de la réalité ( stats Google Analytics, AWStats etc… ) . Même Dofus ( MMORPG d’Ankama ) est dans les 2038# selon Alexa, alors que c’est trop trop peu probable que des gamins de 10 ans ( la tranche d’âge des joueurs de Dofus ) installent tous la barre d’outils Alexa .

    Les phrases du genre “bah Alexa c’est très loin de mes stats réelles” ne sont que des excuses bidon de la part des Webmasters francophones ayant honte de leur Alexa Rank .

    Sinon, @Eric, belle analyse ! Par contre, sur Bing on ne constate pas le même “monopole” 😉

  18. Je m’étais fait également la remarque. Surtout avec Wikipédia qui est omniprésent dans les résultats de Google.

    J’aimerai aussi avoir votre avis sur la possibilité qu’un site spécialisé détrône un site plus généraliste dans son domaine particulier.
    Par ex : Est-ce qu’un nouveau site exclusivement sur les MST est mieux considéré par Google pour le requête portant sur ce sujet qu’un doctissimo plus général ?

  19. C’est vrai que ces sites trustent les premières places, mais je me dis que ce n’est pas toujours mérité. Autant j’aime utiliser Allocine, autant CCM j’ai énormément de mal à me repérer et à trouver les informations que je cherche, si bien que je l’évite au maximum. Je trouve doctissimo et CCM plus batis pour google que pour les utilisateurs.

    Je suis plus étonné de voir Deezer ici, avec du contenu presque exlusivement en flash (même si ce n’est plus aussi vrai qu’il y a quelques mois).

  20. Sur les forums de “comment ça marche” le niveau des commentaires est affligeant. Pour trouver une info valable au milieu de dizaines de commentaires qui semblent écrits par des enfants de 10 ans il faut s’accrocher 🙂

  21. L’histoire du gros moteur qui met en avant… les gros sites.

    Intéressant pour l’utilisateur qui (potentiellement) est aiguillé sur des sites de références, mais usant pour les petits webmasters essayent de trouver leur place sur les domaines ultra-concurrentiels ou se tournent vers des niches ou les gros ne vont pas.

    Je rejoins mathbruyen sur les gros sites qui sont fait plus pour Google que pour les utilisateurs (je citerai experts-exchange.com dans la catégorie site étranger)

  22. Il faut arreter un peu avec Alexa… faut-il encore rappeler que les chiffres d’Alexa reflettent les utilisateurs de la barre du meme nom et non pas l’ensemble du web ? Allons donc comparer les chiffres d’Alexa sur un site chinois…

  23. C’est une observation interessante. Mais si on outilise le jargon medicale on échappe. Par example, avec “fibrillation auriculaire” on ne voit pas doctissimo, mais avec “jambes lourdes” on le voit.

    J’imagine c’est aussi un problème du petit taille du monde francophone: moin d’activité en faisant des liens, donc plus opportunité pour jouer l’engines.

    C’était toujours comme ça. Seul defence: partez-vous et outilisez une autre. On vote avec le souri… Il y a plusieurs strategies pour trouver le bon d’internet et éviter le brouillard marketing, le moindre, apprenez l’anglais.

  24. Excellent article !

    Mais pour moi l’homogénéïsation des premiers résultats est assez logique : quand on est premier sur un titre de film en particulier et qu’on répertorie tous les films, il parait normal qu’on soit premier sur tous les titres de film…
    En revanche, le cas de Doctissimo est un peu en dehors puisque les termes sont plus “diversifiés” (type de maladie, médicament, problèmes personnels ou autre) : c’est un forum.

    Pour en rajouter un peu, d’autres thèmes sont également “vérouillés” : par exemple le thème des invitations par internet est tenu par UneInvitation, et ce sur des mots clefs très divers liés aux évènements. Le nombre de concurrents est pourtant important sur la place … (en commencant par votre serviteur !)

  25. Très intéressant ce billet mais pour m’arrêter une seconde sur les forums du type “comment ça marche”, “WRI”, …, je ne sais pas vous mais moi quand je fais une recherche sur GG, dans 95% des cas les SERP’s me renvoient sur des topics périmés de 2002 ou 2003.

    Les évolutions sont tellement rapides dans le technique, que pour une question en 2009, des réponses de 2002 sont obsolètes et donc on ne trouve pas la réponse et pourtant ces gros forums trustent la première page de résultat.

    Donc sans vouloir remettre en cause les algos de Google, je ne crois pas que l’ancienneté d’un domaine est forcément une preuve de pertinence au niveau des résultats.

  26. @Djeby d’accord avec toi, d’autant plus que les fonctions récentes de google pour limiter temporellement les résultats (timeline par exemple) n’améliorent finalement pas trop la qualité

  27. Ah les belles premières années du Web où des territoires nouveaux et de grande consommation (médecine, ciné…) étaient atteignables….

  28. Cet article est très intéressant mais pas complètement vrai, j’en suis la preuve vivante ou plutôt mon site ;op Car Drum-bass a comme particularité d’exister depuis presque 10 ans et grâce a Google qui reconnait mon contenu comme étant de qualité et à l’ancienneté, des requêtes sur des termes précis donne les meilleurs résultats possible c’est a dire 1ière ou 2ième réponse sur la 1ère page.
    Et pourtant mon site n’est pas commercial, n’utilise aucun adwords ou de systèmes payants de mise en avant. Ce n’est que du travail de contenu, sur le code et dans les choix des titres et mots clés.
    Vous ne me croyez pas ? Prenons un des articles postés cette semaine “Chengetai : Rainbow Music” ou “Roy Hargrove à Strasbourg” ou encore “Le Bus Root Down”. Ce résultat là tout le monde peut l’obtenir ! C’est “juste” beaucoup de travail et de temps.

    Je tiens à préciser que depuis l’arrivé de Bing, les requêtes en provenance du nouveau moteur ont fait une entrée remarquée dans mes stats à hauteur de 20% d’arrivée en plus. Ce qui voudrait dire que même si demain Bing prend les commandes du web, mon site est encore dans le coup.

    Les gros sites sont fort sur les requêtes généralistes mais pas sur les requêtes précises et c’est la que l’on peut faire son trou.

  29. « SEO is king » : Of course! Tout le monde veut se retrouver dans la première page de Google, non? Les plus petits sites devraient peut-être songer à améliorer leur SEO. Je ne suis pas expert dans le domaine, mais je crois que c’est possible d’améliorer sa position dans Google. Mon témoignage va dans le sens de celui de danYdan.

    J’ai un bon référencement dans mon créneau même si mon achalandage reste confidentiel (entre 300 et 600 visiteurs uniques par jour). Mon site passe en revue des logiciels gratuits. Si un internaute recherche dans google.fr ou google.ca un gratuiciel par son nom, dans 80 % des cas, si j’ai une revue du logiciel, on retrouvera son entrée en première page. Le site de l’éditeur et les gros sites de logiciels (Cublic, ZDnet, Framasoft, etc.) seront listés très souvent (mais pas toujours) devant moi et ça me semble normal compte tenu de leur achalandage.

    Sans apporter un soin particulier au SEO dans le contenu de mes articles ou dans mes titres, j’ai remarqué une amélioration depuis que j’utilise l’extension WordPress All in One SEO Pack. Au final, pour un petit site, je ne me trouve pas mal traité par Google (mais je me suis aidé). Quant aux autres moteurs de recherche, je n’en parle même pas, car ils représentent moins de 3 % en terme source de trafic par les moteurs de recherche.

    Sylvain
    lesmeilleursgratuiciels.com

  30. Pour Doctissimo et CCM, on arrive souvent sur des pages de leur forum… qui sont remplis de conneries la plupart du temps, et vraiment moche pour ne rien gâcher.

    Ciao, j’évite, je sais pas pourquoi.

  31. C’est probablement le billet le plus intéressant que j’ai lu sur ton blog, et celui qui me donne le plus envie de réagir.

    Ce que tu dis là est tout à fait exact, Google ne juge plus les pages comme il le faisait avant, mais les sites. Il a « élu » dans chaque thématique 1 ou 2 site de « confiance », et ces sites sont systématiquement en première page pour les requêtes correspondant à leur thématique.

    Tu as quand même oublié de citer Wikipédia, qui est surement le plus gros squatteur de Google, même si c’est pas à but lucratif.

    Et puis j’ajouterais une chose, les sites « élus » font absolument tout leur possible pour empêcher leur concurrent de monter, par exemple en apposant systématiquement un attribut nofollow sur les liens externes qui sont partagés sur leur forum par exemple.

    C’est très efficace, c’est un cercle vertueux pour eux, et un cercle vicieux pour la concurrence.

  32. Très bon article (une fois de plus). C’est vrai que Wikipedia remonte bien, quid de Google Knol ?

    C’est peut être aussi pour cela qu’il faut se positionner sur des niches, générant moins de trafic mais du trafic qualifié.

  33. Il est vrai qu’il est dur d’arriver dans les 3 premiers résultats de google. Perso, j’ai un site web qui commence à daté et mes résultats sont de plus en plus mis en avant. JE ne sais pas si cela joue ou si ce sont mes méthodes de référencement qui évoluent.

  34. Au passage, Google commence à me saouler lorsque l’on recherche des informations sur un produit en particulier, les sites qui sortent en premier ne sont pas les sites du constructeur mais tout un tas de site marchand. Il en va de même lorsque l’on cherche un essai/review d’un produit, il faut quasiment aller chercher dans les résultat 30 à 40 pour trouver réellemet un essai et pas un site qui se contente de mettre le mot review accolé au produit.

    Aujourd’hui j’aurai presque tendance à aller sur wikipedia avant google…

  35. Pour les internautes, le Web ne serait-il cherchable que par un seul outil ?

    Le web ne serait-il indexé que par un seul moteur, qui plus est en situation de monopole ?

    Il faut arrêter de se focaliser sur Google, il existe d’autres très bons outils, voici 3 exemples :
    – Fefoo.com, multi-moteur présenté récemment sur ce blogue-même, il permet de basculer rapidement d’un moteur à un autre
    – Yauba, qui n’enregistre pas d’information personnelle,
    – Ixquick, metamoteur, qui n’enregistre aucune information personnel (comme yauba).

  36. C’est un peu logique : ces gros sites monétisent leur audience. L’audience passe par Google, donc pour gagner de l’argent il faut bien se placer dans les moteurs.

    Ces sites mettent beaucoup de moyens dans le SEO, l’optimisation et dans le contenu.

    Plus on a de contenu, plus on a de chance d’apparaitre dans Google : la longue queue.

  37. Très bonne analyse Eric c’est la dure loi de la concurrence sur le net. Mais je pense qu’il y a des exceptions quand on voit par exemple clubic se casser la gueule ou d’autres site sortir dernierement comme http://www.comprendrechoisir.com/

    Mais la aussi, il y a pas mal d’éditeurs derrière un gros site comme celui la

  38. Oui bon il faut quand même nuancer : si Marmiton arrive premier sur les termes en rapport avec l’art culinaire sans même être dans le top100, c’est aussi et surtout parce qu’il est le n°1 de sa catégorie en audience (source Médiamétrie NetRatings 2009).

    C’est exactement la même chose pour Seloger, Commentcamarche, Dromadaire, Deezer, ou Doctissimo.

  39. Pour ma part je ne blâme pas trop l’algorithme Google, car les peu de fois ou j’ai essayé d’autres moteurs les résultats étaient loin d’être satisfaisant…

  40. Oui, il manque Auféminin , et on a fait le tour. Ces société achete surement du lien pour booster leur Pagerank et mettent en place des politiques de référencement “agressif” de leur forum. Ce qui leur permet de squatter l’index de Google avec des millions de pages .. Le contenu n’est pas forcement pertinent et il y a de bon sites qu’on ne trouve plus … Google est en train de se laisser submerger par ces forum.

  41. Salut Tout le monde..Merci beaucoup pour cet article vraiment intéressant dans lequel Eric Peut nous donne une petite approche à propos de la façon avec laquelle Google écrase qlqs résultats..des petits sites..

    Moi j’ai un site : communauté féminin…et comme il a dit Eric avec un site comme auféminin c’est trop difficile de se placer dans les premiers pages de Google …mon site c’est http://www.sitefeminin.com..Pourquoi pas ce site décole pas jusqu’à mnt et devient le premier dans le mots clé site féminin par EX..je vous attends

  42. Bon article,je suis entièrement d’accord avec toi pour ces lignes :
    “Google n’échappe pas à une certaine uniformisation des résultats de recherche où l’on voit émerger une sorte de monopole de quelques acteurs.

    Vous noterez à ce sujet que je n’ai mentionné Wikipedia, qui est devenu une sorte de Google bis, arrivant en tête de tous les résultats de recherches.

    Tant mieux pour eux, dommage en revanche pour les internautes, mais également pour les concurrents, qui éprouvent d’importantes difficultés à se faire une place au soleil, avec pourtant des contenus de qualité équivalente.”

    Je regrette cette uniformisation, c’est parfois très agaçant !

  43. Comprend pas. C’est tout à fait logique qu’un site bien référencé, bien documenté, visité chaque jours par des centaines de miliers d’internautes et qui répond précisément à la question soit en tête des résultats !
    C’est le principe d’un moteur de recherche. Pour Google, comme pour les autres.

  44. super article, je reconnais bien là notre positionnement pour la niche du modelisme avec un nom de domaine http://www.modelisme.com crée en 1997 :-).

    la fréquentation est uniquement naturel avec plus de 7000 vu/jour. alors que le site n’est pas optimise pour le seo et que seul le forum est très actif.

    bonne continuation

  45. Trafic et positionnement sont liés, mais le trafic n’influe en rien le positionnement.
    Il semblerait toutefois que Google s’intéresse au taux de rebond, à suivre……..

  46. Dans chaque thématique on trouve des leaders qui sont difficiles à déloger. Là-dessus le moteur de recherche pourrait progresser pour mettre en avant de nouveaux services.

  47. En même temps on dit toujours qu’une avance est très difficile à rattraper et pas seulement sur le net…

  48. travaillant sur un site de comparaison de prix j’ajouterai peut-être à votre liste dans ce domaine rueducommerce.com, et bien sur wikipedia toutes requêtes confondues (je suis un peu surpris qu’il ne soit pas dans votre liste)
    Lolo

  49. Je pense honnêtement qu’il est toujours possible de passer devant des gros sites, j’ai un blog qui est aujourd’hui présent sur une grosse requète en tout 1r, devant aufeminin.com et doctissimo. Je me suis certes défoncé pour y arriver, mais c’est possible !!

  50. Pour ma part, je trouve que les résultats doctissimo sont trop présents, et je pense que ceux vont être impacté lorsque la mise à jour Google Panda sera appliqué à la France. Sinon contrairement à un des commentaires ici, je suis plutôt pour les résultats wikipedia qui ont un réel intérêt pour l’internaute.

  51. Le but ultime de tout référenceur est bien évidemment d’en arriver à ce stade, mais sur ces requêtes, vu le nombres de résultats ça demande un gros investissement.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *