Ceci est une ancienne révision du document !
Si vous voulez télécharger un site entier, peut être pour le visiter off-line, wget peut le faire. Par exemple:
$ wget \ --recursive \ --no-clobber \ --page-requisites \ --html-extension \ --convert-links \ --restrict-file-names=windows \ --domains website.org \ --no-parent \ www.website.org/tutorials/html/
Cette commande va télécharger le site www.website.org/tutorials/html/.
Les options sont:
-–recursive: télécharge le site web entier.
–-domains website.org: ne suit pas les liens pointant hors du domaine website.org.
–-no-parent: ne suis pas les liens pointant hors du dossier tutorials/html/.
–-page-requisites: récupère tous les éléments qui composent la page (images, CSS et cie).
-–html-extension: enregistre les fichiers avec l’extention .html.
–-convert-links: convertit les liens afin qu’ils fontionnent localement (off-line).
–-restrict-file-names=windows: modifie les noms de fichiers afin qu’ils fonctionnent aussi sur Windows.
–-no-clobber: n’écrase pas les fichiers déjà existants (utilisé en cas de téléchargement interrompu et repris).
Il peut aussi être important d’ajouter les options
–wait=9 –limit-rate=10K
qui éviteront de surcharger le serveur qui vous fournit les pages et d’éviter, éventuellement, de vous faire blacklister par un admin un peu pointilleux.
–-wait=X : attend X secondes entre chaque téléchargement
-–limit-rate=XK : limite la bande passante utilisée à X Ko/s
Utiliser ces options permet plus de souplesse que de simplement utiliser l’option -m (mirror).