Ok, donc j'ai besoin de télécharger des pages web à l'aide de Python et fait une rapide enquête de mes options.
Inclus avec Python:
urllib - me semble que je devrais utiliser urllib2 à la place. urllib n'a pas le support des cookies, HTTP/FTP/fichiers locaux uniquement (sans SSL)
urllib2 - complet HTTP/FTP client, prend en charge la plupart des choses nécessaires, comme les cookies, ne prend pas en charge tous les verbes HTTP (uniquement GET et POST, pas de TRACE, etc.)
Complète:
mécaniser - peut utiliser/enregistrer Firefox/IE cookies, de prendre des mesures comme suivre second lien, activement maintenu (0.2.5 publié en Mars 2011)
PycURL - prend en charge tout curl n' (FTP, FTPS, HTTP, HTTPS, GOPHER, TELNET, DICT, FILE et LDAP), mauvaise nouvelle: pas de mise à jour depuis, 9 septembre 2008 (7.19.0)
De nouvelles possibilités:
urllib3 - prend en charge la connexion de ré-utilisation/mise en commun et l'affichage de fichier
Obsolète (un.k.un. utilisation urllib/urllib2 à la place):
httplib - HTTP/HTTPS uniquement (pas de FTP)
httplib2 - HTTP/HTTPS uniquement (pas de FTP)
La première chose qui me frappe, c'est que urllib/urllib2/PycURL/mécaniser sont tous assez de maturité des solutions qui fonctionnent bien. mécaniser et PycURL navire avec un certain nombre de distributions Linux (par exemple Fedora 13) et les Bsd, donc l'installation est un non-problème en général (donc c'est bien).
urllib2 semble bon mais je me demandais pourquoi PycURL et mécaniser les deux semblent très populaire, est-il quelque chose que je suis absent (c'est à dire si j'utilise urllib2 je me peindre dans un coin à un certain point?). J'aimerais vraiment que certains des commentaires sur les avantages/inconvénients de ces choses afin que je puisse faire le meilleur choix pour moi-même.
Edit: ajout d'une remarque sur le verbe support dans urllib2