Ceci est une ancienne révision du document !
Si vous voulez télécharger un site entier, peut être pour le visiter off-line, wget peut le faire. Par exemple:
$ wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains website.org \
--no-parent \
www.website.org/tutorials/html/
Cette commande va télécharger le site www.website.org/tutorials/html/.
Les options sont:
-–recursive: télécharge le site web entier.
–-domains website.org: ne suit pas les liens pointant hors du domaine website.org.
–-no-parent: ne suis pas les liens pointant hors du dossier tutorials/html/.
–-page-requisites: récupère tous les éléments qui composent la page (images, CSS et cie).
-–html-extension: enregistre les fichiers avec l’extention .html.
–-convert-links: convertit les liens afin qu’ils fontionnent localement (off-line).
–-restrict-file-names=windows: modifie les noms de fichiers afin qu’ils fonctionnent aussi sur Windows.
–-no-clobber: n’écrase pas les fichiers déjà existants (utilisé en cas de téléchargement interrompu et repris).
Il peut aussi être important d’ajouter les options
–wait=9 –limit-rate=10K
qui éviteront de surcharger le serveur qui vous fournit les pages et d’éviter, éventuellement, de vous faire blacklister par un admin un peu pointilleux.
–-wait=X : attend X secondes entre chaque téléchargement
-–limit-rate=XK : limite la bande passante utilisée à X Ko/s
Utiliser ces options permet plus de souplesse que de simplement utiliser l’option -m (mirror).