Si vous voulez télécharger un site entier, peut être pour le visiter off-line, wget peut le faire. Par exemple:
$ wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains website.org \
--no-parent \
www.website.org/tutorials/html/
Cette commande va télécharger le site www.website.org/tutorials/html/.
Les options sont:
**-–recursive**: télécharge le site web entier.**–-domains website.org**: ne suit pas les liens pointant hors du domaine website.org.**–-no-parent**: ne suis pas les liens pointant hors du dossier tutorials/html/.**–-page-requisites**: récupère tous les éléments qui composent la page (images, CSS et cie).**-–html-extension**: enregistre les fichiers avec l’extention .html.**–-convert-links**: convertit les liens afin qu’ils fontionnent localement (off-line).**–-restrict-file-names=windows**: modifie les noms de fichiers afin qu’ils fonctionnent aussi sur Windows.**–-no-clobber**: n’écrase pas les fichiers déjà existants (utilisé en cas de téléchargement interrompu et repris).
Il peut aussi être important d’ajouter les options
**--wait=9 --limit-rate=10K**
q
ui éviteront de surcharger le serveur qui vous fournit les pages et d’éviter, éventuellement, de vous faire blacklister par un admin un peu pointilleux.
**–-wait=X** : attend X secondes entre chaque téléchargement**-–limit-rate=XK** : limite la bande passante utilisée à X Ko/s
Utiliser ces options permet plus de souplesse que de simplement utiliser l’option -m (mirror).