Je regarde le code html dans facebook après m'être connecté et il semble qu'il y ait beaucoup de demandes de fichiers JS (jusqu'à 20 selon firebug). J'ai trouvé cette question qui résume assez bien ce que je voulais savoir au départ, mais cette question est plutôt ancienne maintenant, l'article de blog auquel il renvoie date de 2010, et facebook ne semble pas se soucier du référencement.
Si je comprends que Facebook doit charger de nombreux fichiers JS et CSS (au lieu d'un fichier JS et d'un fichier CSS), ma question porte sur les sites Web à usage plus général et sur l'état des robots d'exploration. Devons-nous nous inquiéter du fait que ces techniques (chargement du contenu principal via ajax) affecteront les robots d'exploration (googlebot et ses amis) ?
Je veux améliorer les performances et le chargement du contenu "nécessaire pour plus tard" (texte/js/css) semble être une bonne idée, mais pas s'il n'est pas disponible (le contenu bien sûr) pour les robots d'exploration.
Gracias.