Passer au contenu

Google vous propose de réécrire vos pages web pour les rendre plus rapides

Google s’apprête à lancer un service d’un type un peu nouveau et destiné aux webmasters qui promet de réécrire les pages web automatiquement afin de les optimiser pour en accélérer le chargement et la navigation ! Les améliorations peuvent aller jusqu’à 27% de mieux au premier chargement et 60% plus rapide pour les visiteurs qui reviennent.

Google s’apprête à lancer un service d’un type un peu nouveau et destiné aux webmasters qui promet de réécrire les pages web automatiquement afin de les optimiser pour en accélérer le chargement et la navigation ! Les améliorations peuvent aller jusqu’à 27% de mieux au premier chargement et 60% plus rapide pour les visiteurs qui reviennent.

Pour utiliser le service c’est assez simple (quoi que un peu technique), il faut :

  • S’inscrire sur la Page Speed Service et renseigner son site web et une adresse email. Pour l’instant le service est en phase de test et n’est ouvert qu’à un lot limité de webmasters c’est à dire ceux qui on beaucoup de trafic mais sera probablement étendu à un public plus large par la suite.
  • Créer un une nouvelle DNS CNAME sur votre site pour que les utilisateurs soient dirigés (de manière transparente bien sur) sur la version optimisée de votre site réécrite par Google qui suit les bonnes pratiques de codage bien souvent pas respectées par le webmaster lambda (moi le premier d’ailleurs)

Google suggère aux utilisateurs de tester le temps de chargement avant et après l’optimisation de leur site (même sans être inscrit mais il y a une longue file d’attente) en utilisant cette page. Ce service vous donnera une estimation précise de ce que vous pouvez gagner en temps de chargement et de navigation en utilisant le nouveau service Google. Vous pouvez aussi avoir tous les détails sur le service avec un exemple détaillé (en anglais pour l’instant…) ici.

Dans le cas de Presse-citron les résultats sont les suivants :

  • Amélioration à la première visite : 1.2% même si on note bizarrement un petit retard à l’affichage du premier élément (Start Render Time +10%), la page entière s’affiche donc plus vite.
  • Amélioration pour les retours : 13.8% ! Avec e l’affichage du premier élément accéléré de 19.6%.

Ce n’est pas négligeable surtout pour un site avec des visiteurs fidèles ! @Eric, l’inscription c’est ici 🙂

Comme je le disais le site n’est pour l’instant ouvert qu’à un très faible nombre de webmasters pour un essai gratuit, et deviendra payant mais à des prix compétitifs par la suite d’après TechCrunch. Reste que même si on peut généralement faire confiance à Google, rediriger tous les utilisateurs de son site vers une version automatiquement réécrite et potentiellement légèrement différente voir même buguée, si j’étais webmaster d’un site avec plusieurs de dizaines de milliers de visites par jour… j’aurai un peu peur !

L’idée n’en est pas moins séduisante et si les résultats sont conformes aux promesses, les avantages à utiliser ce service peuvent être énormes.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera
48 commentaires
48 commentaires
  1. En ce moment Google m’énerve un peu avec son dictât de la vitesse sur internet. Car si ca reste une bonne idée en y regardant vite fait, j’ai surtout l’impression qu’il cherche à réduire leurs frais de bande passante et autres en forçant les webmaster à alléger le moindre pixel sous prétexte d’un meilleur référencement. Des services apparemment philanthrope mais qui (j’en suis persuadé) sont loin d’être désintéresse.

  2. @pourquoi : c’est clair que c’est pour ça aussi ! En même temps une page qui charge 1/2 seconde plus rapidement sur un site très visité je crois qu’au niveau taux de conversion ça a un impact énorme… donc c’est relativement gagnant gagnant dans ce cas….

  3. @Pourquoi
    Bien entendu que GG fait cela pour gagner de la bande passante et aussi de l’espace sur ses serveurs – bien entendu que c’est dans son interet – Google n’est pas ton Ami.

    je ne sais pas pour vous mais de mon cote cela me dérangerait d’avoir GG qui réécrit mon code et d’avoir un Cname qui pointe vers eux … ca fait un peu Big Brother

  4. @Pourquoi :
    Bien sûr que ce n’est pas désintéressé ! Mais si ça arrange tout le monde, où est le problème ? Confort des visiteurs, réduction des bandes passantes, allègement des serveurs, pages (à priori) plus propres…

  5. @Pourquoi

    Si Presse-Citron.net améliore la vitesse de ses pages, en quoi ça réduit les frais de bande passante de google ?

    Ah oui, dans les services de pré-chargement de pages. Mais concrètement, réécrire le code ne signifie pas réduire la qualité des images (tu parles de pixels).

    Et au fond, c’est Google Inc. qui propose ce service, pas la fondation Google pour les webmaster manchots. Qu’ils aient un intérêt à faire ça, ne fait aucun doute. Mais lorsque ça sert (vraiment) à tout le monde, sans discrimination, y’a pas besoin de crier au complot.

  6. Et puis d’un point de vue du confort, c’est quand même agreable d’avoir une page qui s’affiche rapidement. Il m’arrive de grogner devant une page qui met 10 secondes à s’afficher! Il est loin le temps du 56K…

  7. @Pourquoi réduction de la BP pour google = réduction de la BP pour toi donc pourquoi s’en priver.

    Par contre je confirme la redirection vers un CNAME me déplait fortement. A la limite pourquoi pas demander à google d’améliorer le site puis d’étudier les modifs qu’il à fait et les appliquer.

    Si après il s’agit juste de compacté le code, virer des commentaires et modifier l’ordre des script et css… y a pas besoin de google pour ça.

    Mais je suis curieux de voir ce que ça donne quand même.

  8. Personnellement, quand je vois qu’un site rame, j’ai vite tendance à le zapper pour chercher mon information ailleurs : heureusement que Google pousse les développeurs à faire attention à leur code !

    Sinon, une question Jean-Baptiste : Google réécrit les pages, c’est à dire ? Qu’est ce qu’il fait concrètement ?

    Il retouche au HTML ? Ça ne pète pas l’affichage ?

    1. @Ariakan : Alors c’est une bonne question j’ai pas encore pu vraiment voila le HTML à la sortie, mais je pense surtout que Google joue sur l’optimisation des caches et surement aussi un compactage de HTML source. Et pour le pètage de l’affichage, j’imagine qu’ils ont du se débrouiller pour trouver des fonctions de transformation identitaire (c’est à dire pour lesquelles ils sont 100% sur que le changement s’affiche pareil d’un côté et de l’autre de la fonction) donc pas de souçis à prioris mais comme je le disais dans l’article c’est vrai que ça doit quand même pas être rassurant au début et on est pas à l’abris des boulettes !

  9. Oui c’est clairement fait pour que la pub s’affiche plus vite et que la transformation soit meilleur au niveau des Adsense. Et c’est clair que c’est du gagnant-gagnant si on est pas évincé des premiers résultats par un site moins “interessant” mais qui a comme seul avantage de se charger plus vite que le notre.

  10. j’ai fait le teste suggéré pour mon site hébergé par wordpress.com (https://ntdroit.wordpress.com) et le résultat est surprenant avecun résultat mitigé pour les retours (Repeat View Page Load Time -0.094s (3.7%) et Repeat View Start Render Time +0.078s (3.7%)), mais surtout une grosse perte pour les premières visites:
    Page Load Time Original 2.018s Optimized 2.976s Difference +0.958s (47.5%) et Start Render Time Original 1.327s Otpimized 2.248s Difference +0.921s (69.4%).

  11. Je trouve que c’est une assez bonne chose celà va permettre de rendre internet un peu plus agréable mais comme toujours avec google ils y ont un interêt reste à voir lequel.

  12. je viens d’essayer sur une paire de mes sites, et je suis fier de dire que mon code est bon, puisque la réécriture de Google allongerait le temps de chargement (Page Load Time) de mes pages ! Par contre, elles s’afficheraient plus rapidement (Start Render Time). Je peux m’améliorer, mais il n’y a pas grand chose à gagner.

  13. Jean Baptiste, t’es un excellent rédacteur, tes news sont détaillés et tout, mais tu parle un peu trop à la première personne. On s’en fout de ta vie, alors les remarques à la “tous les webmasters en herbe, moi le premier”, “comme je le disais”, on en a pas besoin. Suis mon conseil, tes articles n’en seront que meilleures.

    1. @Méchant : LoL ouai narcissique un jour narcissique toujours 😉 le truc c’est que sans première personne ca fait vraiment journaliste et j’ai pas envie que les gens pensent que je suis là pour ça, j’écris des articles de blog, mais je vais essayer de trouver une autre manière

  14. ha ha… donne ton site à google…

    prochaine étape les clés de ta maison…

    et ensuite ta femme…

    putain, vous vous faites baiser à utiliser des services comme ça…

    restez maitres de vos données bordel!

  15. Je doute que cela soit une très bonne idée d’utiliser ce service. Personnelement je ne le testerai même pas ou sur un site vraiment de test. Parce que à s’immiscer partout, Google va tout nous prendre !

  16. Logiquement, le pricing du service de Google ne sera pas aussi competitif que CloudFlare c’est contradictoire avec le Pricing de Google App Engine.

    1. @Flo : C’est une bonne question… pour être honnête je comprend pas trop comment Google fait, s’ils réécrivent la page à chaque fois où s’ils réécrivent de temps en temps une réactualisation de la page sur leur serveur, dans ce cas en toute logique il pourrait y avoir un petit temps de latence entre la modification et l’affichage de la modif… mais j’imagine qu’ils ont trouvé un moyen de détecter très vite les changements…

  17. @Jean-Baptiste @Roch : Effectivement, comme le dit Roch, il doivent sûrement prendre en compte les expires headers. Cela pourrait être pratique pour réduire les charges sur les serveurs.

    Mais en utilisant ce service Google, les sites se partageront les IP Google. Et niveau référencement, il est déconseillé d’utiliser une même IP pour la même thématique de site. Je pense que le moteur de recherche Google prendra compte, mais les autres (Bing, Yahoo, etc..) ?

    Vivement les premiers retours ! 🙂

  18. Je préfère optimiser manuellement que de laisser Google faire des optimisations à posteriori sans controle de la part du webmaster. Il suffit de quelques heures et de suivre les recommandations d’YSlow ou de Google Pagespeed pour accélérer nettement son site

  19. En ce qui me concerne vu que je viens de passer 10 jours a optimiser le site, la seul chose qui puisse etre vraiment efficace serait de prendre un hébergement plus puissant puisque c’est le rendu HTML qui pèche. Comme beaucoup d’ailleurs.

  20. Dommage que leurs sites de test ne soient pas en France, ce serait plus utile pour les webmasters Français !
    Un site où on peut tester depuis Paris : http://www.monitoring-transactionnel.com/performance

    Je suis plutôt intéressée par la politique de Google. Même si les gens n’utilisent pas leur service d’accélération (qui ne franchira pas la porte de la majorité des entreprises et qui restera cantonné au “petits” sites), le confort des internautes sera globalement amélioré par une certaine prise de conscience sur ce sujet

  21. Une page optimisée c’est une navigation plus rapide d’un internaute passant de la page de résultats de GG vers le site cliqué et ainsi un utilisateur heureux de sa navigation qui reviendra effectuer des recherches sur Google…

    Sans compter les énormes économies de bande passante pour les sites crawlés, analysé, adsensé, etc.

  22. En effet il semble jouer beaucoup sur la compression des images, puisqu’il m’affiche 25% de gains la premiere fois… puis 14% (0.5s).

    Il existe des appli FF comme Firebug qui permettent une telle analyse. Google encourage aussi l’utilisation de Page Speed (qui a d’ailleurs le meme logo) et qui fait des recommendations:

    Combine images into CSS sprites
    Serve scaled images
    Optimise images
    Leverage browser caching
    Minify CSS
    Minify JavaScript
    Defer parsing of JavaScript
    In-line Small CSS
    Minimise redirects
    Minify HTML
    Specify a cache validator
    Specify image dimensions
    Remove query strings from static resources
    Specify a Vary: Accept-Encoding header
    Avoid CSS @import
    Avoid bad requests
    Enable Keep-Alive
    Enable compression
    In-line Small JavaScript
    Make landing page redirects cacheable
    Minimise request size
    Optimise the order of styles and scripts
    Prefer asynchronous resources
    Put CSS in the document head
    Serve resources from a consistent URL
    Specify a character set
    Defer loading of JavaScript
    Remove unused CSS
    Use efficient CSS selectors

  23. Il n’est pas question pour Google d’alléger sa bande passante puisqu’au lieu d’avoir à crawler un site il va devoir charger les pages et les optimiser à la volée : c’est bien plus consommateur pour Google.

    Alors quel est l’intérêt de Google ?
    Il y a plusieurs possibilités. L’une d’entre-elles a été évoquée plus haut, il faudrait voir ce que disent les CGU : la possibilité pour Google de pister les internautes sur des sites qui n’ont pas installé Google Analytics.

    Une autre possibilité serait que cela serve à favoriser Chrome en utilisant SPDY pour Chrome et HTTP pour les autres, par exemple. Ca lui donnerait un avantage technique.

    Quoiqu’il en soit, Google est vraiment très hypocrite avec sa soi-disant volonté d’accélérer le web : les boutons +1 n’étaient même pas asynchrones à leur lancement pourtant très récent, Analytics a mis des années à l’être, Adsense ne l’est que depuis très peu de temps alors que les pubs sont lentes à arriver : pendant des années Google a été le facteur n°1 de ralentissement du web.

    Il leur reste DFP (outil de diffusion de pubs) qui est encore synchrone et dont les performances sont loin d’être fulgurantes.
    Allez sur http://www.macgeneration.com/ par exemple et essayez avec et sans pubs : la différence est essentiellement due à DFP (et non aux bandeaux), donc à Google.
    Et c’est comme ça sur quantité de sites.

    @Fred > si le site dont tu parles est celui qui est en lien sur ton pseudo, tu devrais optimiser toutes tes images et ça ira déjà un peu mieux. Essaye ImageOptim sous OS X, ou utilise ses composants libres en ligne de commande : jpegTran, JPEGOptim, PNGCrush… J’ai testé, sur les miniatures il y a du 5-6% à gagner, sur tes grandes images j’ai eu des gains d’environ 20% (et même jusqu’à 26%).
    Si tu es sur un dédié tu devrais virer les signatures serveur et autres choses inutiles dans les headers.
    Bref, aller faire un tour sur WebPageTest.org et viser le A partout (sauf pour ce qui est d’utiliser un CDN : pour un site franco-français, bon…).

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *