Je travaille avec un script (que je n'ai pas créé à l'origine) qui génère un fichier pdf à partir d'une page HTML. Le problème est qu'il prend maintenant un temps très long, comme 1-2 minutes, à traiter. Il est supposé que cela fonctionnait bien à l'origine, mais que cela a ralenti au cours des deux dernières semaines.
Le script appelle file_get_contents
sur un script php, qui sort ensuite le résultat dans un fichier HTML sur le serveur, et exécute l'application de génération de pdf sur ce fichier.
Je semble avoir réduit le problème au file_get_contents
sur une url complète, plutôt que sur un chemin local.
Quand j'utilise
$content = file_get_contents('test.txt');
il traite presque instantanément. Cependant, si j'utilise l'url complète
$content = file_get_contents('http://example.com/test.txt');
le traitement prend entre 30 et 90 secondes.
Ce n'est pas limité à notre serveur, il est lent lors de l'accès à toute url externe, telle que http://www.google.com . Je crois que le script appelle l'url complet parce qu'il y a des variables de chaîne de requête qui sont nécessaires et qui ne fonctionnent pas si vous appelez le fichier localement.
J'ai aussi essayé fopen
, readfile
et curl
et ils étaient tous aussi lents. Avez-vous des idées sur la façon de résoudre ce problème ?