Connect with us
Bouygues

Internet

Voyez avec les yeux de Google

Il y a

le

"Google est votre meilleur visiteur aveugle".

Mais que voient exactement les robots de Google ou Yahoo quand ils arrivent sur votre site ?
Rien de particulier si celui-ci ne cherche pas à "tromper" les visiteurs.
En revanche si celui-ci est un peu trop optimisé pour abuser les moteurs de recherche, le contenu vu par ceux-ci sera probablement différent de celui affiché au public.

C’est ce que ce site propose de découvrir, qui s’est déguisé en Googlebot par modification du User agent(1) pour afficher les sites tels qu’ils apparaissent aux yeux de Google.

Sinon vous pouvez modifier le User agent de Firefox avec cette extension, alors que la fonction est native dans Opera.

J’ai testé avec quelques sites et je n’ai pas été convaincu, probablement parce-que ceux-ci affichent un contenu unique et "honnête". Si vous trouvez des sites qui affichent un contenu très différent via ce service, je serai intéressé de voir ce que ça peut donner.

> Lire aussi :  Google+ ferme après une faille critique de sécurité

(1) User agent : identifiant du navigateur web utilisé, sorte de carte d’identité du browser.

9 Commentaires

9 Commentaires

  1. Hamid

    20 février 2007 at 15 h 13 min

    Dans le même genre :
    http://www.wannabrowser.com/

  2. Sébastien Billard

    20 février 2007 at 15 h 26 min

    En fait, les cloakers serieux se basent sur l’IP et non sur l’user-agent pour délivrer du contenu optimisé. Ce genre d’outil est donc peu utile en ce qui concerne la detection du cloaking 😉

  3. Mathilde

    20 février 2007 at 17 h 14 min

    j’ai testé bagatelles, et ça donne la même chose que ce que je vois avec mes yeux à moi… En fait le truc c’est quoi ? c’est de voir tout ce qu’il peut y avoir comme mots clefs cachés etc ?

  4. Nikkel

    20 février 2007 at 23 h 44 min

    Ce n’est du tout à fait la même chose, mais pour voir avec les yeux de Google, leurs propres outils me semblent plus adaptés. Allez jeter un petit coups d’oeil sur ce lien :

    http://www.google.com/webmasters

    La plupart connaitront surement, mais via ces outils pour pourrez voir d’un coups les mots clés vous définissant le mieux, et les différentes statistiques quant au crawling fait par Google.

  5. Régis

    21 février 2007 at 8 h 59 min

    Merci pour cet URL… mais je préfère tout autant utiliser spider-simulator.com.

  6. Nico

    21 février 2007 at 9 h 46 min

    Ce type d’outil (spider simulator) n’est qu’un rendu conçu par les créateur de l’outil.
    Le meilleur rendu "visuel" que l’on peut avoir d’une page indexé par Google est celui de son cache (sans les images donc version full text).

    Pour info, il suffit de désactiver les surcouches technologiques autres que le HTML, à savoir : les objets (Flash, JAVA), les scripts (Javascript, etc.), les styles de mises en forme (ceux dans le code HTML et ceux externalisés, donc les CSS), etc.

  7. gabyu

    21 février 2007 at 11 h 35 min

    D’accord avec toi Nico.

    Pour obtenir une idée de ce que voit google, vous pouvez, par exemple, utiliser webdeveloper sous firefox :

    desactiver le cache, javascript, cookies, toutes les images, afficher les ALT, desactiver les css, afficher les urls des liens, afficher le chemin des images…

  8. Jacques

    22 février 2007 at 11 h 45 min

    Oui parce que les robots ne prennent pas en compte les CSS déjà!

  9. lomig

    23 février 2007 at 13 h 43 min

    salut…!
    bah moi j’ai testé bêtement avec mon blog, et j’ai eu la surprise de voir s’afficher dans la fenêtre de test : … mon blog…!
    outil sans aucun interêt…
    A+
    LOmiG

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Dernières news

Les bons plans

Les tests