Voici quelques-unes des caractéristiques de http/2 qui atténuent les avantages de la concaténation (extrait de Mise en réseau de navigateurs à haute performance ) :
Le regroupement de plusieurs ressources en une seule réponse était une optimisation essentielle pour HTTP/1.x, où le parallélisme limité et la surcharge élevée du protocole l'emportaient généralement sur toutes les autres préoccupations (voir Concaténation et Spriting). Cependant, avec HTTP/2, le multiplexage n'est plus un problème et la compression des en-têtes réduit considérablement la surcharge de métadonnées de chaque requête HTTP. Par conséquent, nous devons reconsidérer l'utilisation de la concaténation et du spriting à la lumière de ses nouveaux avantages et inconvénients :
-
Les ressources groupées peuvent entraîner des transferts de données inutiles : l'utilisateur peut ne pas avoir besoin de toutes les ressources d'une page particulière, voire pas du tout.
-
Les ressources groupées peuvent entraîner des invalidations de cache coûteuses : un seul octet mis à jour dans un composant oblige à récupérer l'ensemble du paquet.
-
Les ressources groupées peuvent retarder l'exécution : de nombreux types de contenu ne peuvent être traités et appliqués avant que la réponse entière ne soit transférée.
-
Les ressources regroupées peuvent nécessiter une infrastructure supplémentaire au moment de la construction ou de la livraison pour générer le regroupement associé. Les ressources groupées peuvent fournir une meilleure compression si les ressources contiennent un contenu similaire.
...
HTTP/2 supprime ce compromis malheureux en prenant en charge le multiplexage des demandes et des réponses, ce qui signifie que nous pouvons désormais optimiser nos applications en fournissant des ressources plus granulaires : chaque ressource peut avoir une politique de mise en cache optimisée (durée d'expiration et jeton de revalidation) et être mise à jour individuellement sans invalider les autres ressources du paquet. En bref, HTTP/2 permet à nos applications de mieux utiliser le cache HTTP.
Je ne pense pas que les récurrences diminuent beaucoup la taille des fichiers. De plus, la taille du fichier n'est qu'un aspect de la latence et de la vitesse perçue. Par exemple, même si le chargement initial est plus rapide, que se passe-t-il lorsque l'utilisateur effectue une deuxième visite ? Que se passe-t-il si un fichier doit être invalidé ?
Bien que je n'aie pas vu de données spécifiques concernant votre question, voici les résultats de Google pour http/1.1 par rapport à SPDY, un prédécesseur de http/2 :
En fin de compte, la réponse à votre question ne sera qu'une opinion, à moins que quelqu'un ne fasse des tests pour le savoir.