Quel est le moyen le plus rapide et le plus simple de télécharger toutes les images d'un site Web ? Plus précisément, http://www.cycustom.com/large/ .
Je pense à quelque chose du genre wget ou curl.
Pour clarifier, tout d'abord (et avant tout) je ne sais pas actuellement comment accomplir cette tâche. Deuxièmement, j'aimerais savoir si wget ou curl a une solution plus facile à comprendre. Merci.
--- MISE À JOUR @sarnold---
Merci d'avoir répondu. Je pensais aussi que cela ferait l'affaire. Cependant, ce n'est pas le cas. Voici la sortie de la commande :
wget --mirror --no-parent http://www.cycustom.com/large/
--2012-01-10 18:19:36-- http://www.cycustom.com/large/
Resolving www.cycustom.com... 64.244.61.237
Connecting to www.cycustom.com|64.244.61.237|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Saving to: `www.cycustom.com/large/index.html'
[ <=> ] 188,795 504K/s in 0.4s
Last-modified header missing -- time-stamps turned off.
2012-01-10 18:19:37 (504 KB/s) - `www.cycustom.com/large/index.html' saved [188795]
Loading robots.txt; please ignore errors.
--2012-01-10 18:19:37-- http://www.cycustom.com/robots.txt
Connecting to www.cycustom.com|64.244.61.237|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 174 [text/plain]
Saving to: `www.cycustom.com/robots.txt'
100%[======================================================================================================================================================================================================================================>] 174 --.-K/s in 0s
2012-01-10 18:19:37 (36.6 MB/s) - `www.cycustom.com/robots.txt' saved [174/174]
FINISHED --2012-01-10 18:19:37--
Downloaded: 2 files, 185K in 0.4s (505 KB/s)
Voici une image des fichiers créés https://img.skitch.com/20120111-nputrm7hy83r7bct33midhdp6d.jpg
Mon objectif est d'avoir un dossier rempli de fichiers d'images. La commande suivante n'a pas permis d'atteindre cet objectif.
wget --mirror --no-parent http://www.cycustom.com/large/