Accélerer les choses

Derrière ce titre assez global se cache un débat qui concerne tous les webmasters (ou presque) : celui de la rapidité et de la fluidité des sites Internet. L’exemple de Facebook est révélateur je trouve, car bien que de nombreuses fonctionnalités soient implémentées chaque jour, le réseau social est souvent lent. C’est loin d’être le

Derrière ce titre assez global se cache un débat qui concerne tous les webmasters (ou presque) : celui de la rapidité et de la fluidité des sites Internet. L’exemple de Facebook est révélateur je trouve, car bien que de nombreuses fonctionnalités soient implémentées chaque jour, le réseau social est souvent lent.

digg_opti

C’est loin d’être le seul à avoir ce problème car rappelez-vous, il y a quelques mois de cela, Twitter affichait des temps d’indisponibilité pour les moins préoccupants. En effet, il devenait parfois difficile de charger une page sans avoir un message d’erreur. Désormais, on voit que rarement cette page, beaucoup moins qu’avant en tout cas. Le débat est aujourd’hui lancé par le célèbre Digg, qui consacre un temps important à l’optimisation de son site pour que la navigation soit plus rapide, au lieu d’implémenter sans cesse de nouvelles fonctionnalités.

De petites modifications parfois anodines peuvent se révéler payantes. Car les sites tels que Facebook ou Twitter consacrent un budget colossal aux serveurs, alors même un petit gain de bande passante est toujours bénéfique.

Sur le blog officiel de Digg, John Quinn parle justement des diverses optimisations que Digg est en train de faire pour rendre le site plus fluide. Dans un premier temps, les ressources statiques (fichiers CSS / JavaScript) sont déplacées sur un CDN (Content Delivery Network).

Le site a fait une autre modification : retirer les avatars 16×16 des membres sur la page d’accueil. Cette modification peut paraître mineure mais elle réduit considérablement le nombre de requêtes HTTP, et les performances le montrent. Selon le blog officiel, ils réduisent « les requêtes HTTP à Digg pour une charge de cache d’environ 75% ».

L’avatar de l’auteur est par contre visible sur la page du lien en taille normale. Digg affirme que c’est une modification parmi d’autres, qui se dérouleront au cours des prochains mois.

À ce propos, j’avais lu un article sur l’infrastructure de Wikipédia (et de ses serveurs) et ça m’avait assez étonné : il s’agit tout bêtement de LAMP (Linux Apache MySQL PHP) avec différents systèmes pour optimiser (load balancing, cache, memcached, etc.). Je fais cette remarque car Wikipédia est un des sites les plus visités au monde et reste très fluide.

Au passage, pour réduire le nombre de requêtes HTTP et votre bande passante, une des solutions est de fusionner et compresser vos fichiers CSS / JavaScript.


Nos dernières vidéos

17 commentaires

  1. Même si le contenu de wikipedia est éditable il est globalement très statique (je dirais que au moins 90% de gens ne font que consulter le contenu), du coup sa cache est rarement mise à jour. Facebook ou twitter sont beaucoup plus dynamique (leur concept est basé sur le changement des données permanentes), ça devient moins évidant au niveau de la gestion de cache, donc les ressources serveur sont beaucoup plus solliciter je pense…

  2. C’est vrai que malgré le haut débit ça rame toujours autant sur les gros sites. Pour Wikipédia une bonne partie des requêtes sont pour la lecture des articles donc il y a une bonne couche de cache derrière.

    Sinon pour tous ceux qui veulent en savoir plus sur l’optimisation du chargement des pages, y’a un site incontournable : http://performance.survol.fr/

  3. Comme le de labilde, on peut utiliser ces deux plugin firebug très utiles. (j’utilise Google Page speed, mais c’est équivalent).

    Le plus intéressant est qu’ils sont basés sur cet article de Yahoo! http://developer.yahoo.com/performance/rules.html qui fait référence dans le milieu.

    Il parle notamment de la fusion et compression (gzip) des CSS/Javascript, un nom de domaine spécifique pour les ressources statiques, la gestion du cache navigateur, etc.

  4. Y’a une chose que je trouve hallucinante.. les optimisation qu’il sont entrain de faire sur digg c’est ni plus ni moins que les bases de l’optimisation.

    Utiliser un cdn ? c’est vrai que c’est pas permis a tout le monde mais ce n’est pas l’idée du siècle..

  5. Mais lol , manquerait plus que Wikipedia Rame, la plupart des pages n’ont meme pas une image en jpeg dessus, ce serait malheureux que ça prenne du temps pour charger 1 page ou 2 de texte…

    rien à voir avec des sites + ou – socialo-communautaires genre FaceBook ou Digg où c’est à celui qui aura l’avatar et la signature la plus grosse , lourde et flashy…

  6. Y’a aussi le fait que Facebook a beaucoup plus d’intéractions que Wikipedia qui reste somme toute assez statique.
    Par conséquent, je pense il est plus difficile de gérer un cache sur Facebook (où les utilisateurs attendent de la nouvelle « fraîche »).

  7. Y’a des sites qui sont un bordel monstreux plein de JS et compagnie… Les sites du coup en sont ralentis et ça devient affreux de naviguer dessus… Franchement les sites optimisés et agréable comme presse-citron se font rares…

Répondre