Provided by: manpages-fr_4.27.0-1_all bug

NOM

       Wget - L'outil de téléchargement réseau non interactif.

SYNOPSIS

       wget [option]... [URL]...

DESCRIPTION

       GNU Wget est un utilitaire libre pour le téléchargement non interactif de fichiers sur le Web. Il prend
       en charge les protocoles HTTP, HTTPS, et FTP, ainsi que le téléchargement au travers des mandataires
       HTTP.

       Wget est non interactif, c'est-à-dire qu'il peut travailler en arrière-plan, sans intervention de
       l'utilisateur. Cela permet de lancer un téléchargement et de se déconnecter du système, laissant wget
       finir le travail. En revanche, la plupart des navigateurs Web requièrent la présence constante de
       l'utilisateur, ce qui est particulièrement pénible lorsqu'il y a beaucoup de données à transférer.

       wget peut suivre les liens des pages HTML et XHTML, et CSS, pour créer des copies locales de sites web
       distants, en récréant complètement la structure du site original. Cela est parfois désigné sous le nom de
       « téléchargement récursif ». En faisant cela, wget respecte le standard d'exclusion de robots
       (/robots.txt). wget peut aussi être chargé de convertir les liens dans les fichiers téléchargés pour
       pointer sur des fichiers locaux, pour une consultation hors-ligne.

       wget a été conçu pour être robuste en dépit des connexions réseaux lentes ou instables ; si un
       téléchargement échoue suite à un problème réseau, il réessayera jusqu'à ce que l'intégralité du fichier
       soit récupérée. Si le serveur gère la reprise, il lui demandera de reprendre là où le téléchargement
       s'est interrompu.

OPTIONS

   Syntaxe d'option
       Comme wget utilise GNU getopt pour traiter les arguments de la ligne de commande, chaque option a une
       forme longue en plus de la forme courte. Les options longues sont plus pratiques à retenir, mais prennent
       du temps à taper. Vous êtes libre de mélanger différentes formes d'options, ou d'indiquer les options
       après les arguments de la ligne de commande. Ainsi, vous pouvez écrire :

               wget -r --tries=10 http://fly.srk.fer.hr/ -o log

       L'espace entre l'option acceptant un argument et l'argument peut être omise. Vous pouvez écrire -olog au
       lieu de -o log.

       Vous pouvez mettre ensemble plusieurs options ne nécessitant pas d'arguments, comme :

               wget -drc <URL>

       Cela est absolument équivalent à :

               wget -d -r -c <URL>

       Comme les options peuvent être indiquées après les arguments, vous pouvez les terminer avec --. Ainsi, ce
       qui suit va essayer de télécharger URL -x, en signalant l'échec à log :

               wget -o log -- -x

       Les options qui acceptent des listes séparées par des virgules respectent toutes la convention selon
       laquelle spécifier une liste vide efface sa valeur. Cela peut être utile pour nettoyer les réglages de
       .wgetrc. Par exemple, si .wgetrc indique "exclude_directories" à /cgi-bin, l'exemple suivant le
       réinitialisera d'abord, puis lui indiquera d'exclure /~nobody et /~somebody. Vous pouvez aussi effacer
       les listes dans .wgetrc.

               wget -X "" -X /~nobody,/~somebody

       La majorité des options qui n'acceptent pas d'arguments sont des options de type booléen, ainsi nommées
       car leur état peut être capturé avec une variable oui-ou-non  (« booléenne »). Par exemple, --follow-ftp
       indique à wget de suivre les liens FTP de fichiers HTML et, d'un autre coté, --no-glob lui dit de ne pas
       effectuer le « globbing » de fichiers sur les URL FTP. Une option booléenne peut être affirmative ou
       négative (commençant par --no). Toutes ces options partagent plusieurs propriétés.

       Sauf indication contraire, il est supposé que le comportement par défaut soit l'opposé de ce que l'option
       réalise. Par exemple, l'existence documentée de --follow-ftp suppose que le comportement par défaut est
       de ne pas suivre les liens FTP des pages HTML.

       Les options affirmatives peuvent être niées en antéposant le --no au nom de l'option ; les options
       négatives peuvent être niées en ommettant le préfixe --no. Cela peut sembler superflu : si le
       comportement par défaut d'une option affirmative est de ne pas faire quelque chose, alors pourquoi lui
       fournir un moyen pour ne pas le faire ? Mais le fichier de démarrage peut en fait changer le comportement
       par défaut. Par exemple, l'utilisation de "follow_ftp = on" dans .wgetrc fait suivre les liens FTP à wget
       par défaut, et l'utilisation de --no-follow-ftp est la seule manière de restaurer le comportement par
       défaut d'origine depuis la ligne de commande.

   Options de base pour démarrer
       -V
       --version
           Afficher la version de wget.

       -h
       --help
           Afficher un message d'aide décrivant toutes les options en ligne de commande de wget.

       -b
       --background
           Passer en arrière-plan aussitôt après le démarrage. Si aucun fichier de sortie n'est indiqué avec -o,
           la sortie est redirigée dans wget-log.

       -e commande
       --execute commande
           Exécuter la commande comme faisant partie de .wgetrc. Une commande invoquée ainsi sera exécutée après
           les  commandes  dans .wgetrc, par conséquent prévalant sur elles. Si vous avez besoin d'indiquer plus
           d'une commande dans wgetrc, utilisez plusieurs instances de -e.

   Options de journalisation et de fichier d'entrée
       -o fichier_journal
       --output-file=fichier_journal
           Enregistrer tous les messages dans fichier_journal. Les messages sont habituellement affichés sur  la
           sortie d'erreur standard.

       -a fichier_journal
       --append-output=fichier_journal
           Ajouter  dans  fichier_journal.  Cela  est  équivalent  à  -o, mais ajoute au fichier_journal au lieu
           d'écraser l'ancien fichier fichier_journal. Si fichier_journal n'existe pas, un nouveau  fichier  est
           créé.

       -d
       --debug
           Activer  la  sortie  de  débogage, c'est-à-dire des informations importantes pour les développeurs de
           wget si quelque chose ne fonctionne pas correctement. Votre administrateur système peut avoir  choisi
           de  compiler  wget  sans  l'option  de  débogage,  dans  ce cas -d ne fonctionnera pas. Remarquez que
           compiler avec l'option de débogage est toujours sûr, wget compilé sans la prise en charge du débogage
           n'affichera pas d'informations de débogage, à moins de le demander avec -d.

       -q
       --quiet
           Désactiver la sortie de wget.

       -v
       --verbose
           Activer le mode verbeux, avec toutes les données disponibles. Ce mode est activé par défaut.

       -nv
       --no-verbose
           Désactiver le mode verbeux sans être totalement silencieux (utilisez -q pour  cela),  signifiant  que
           les messages d'erreur et les informations de base seront encore affichés.

       --report-speed=type
           Bande passante de sortie comme type. La seule valeur acceptée est bits.

       -i fichier
       --input-file=fichier
           Lire  les  URL  depuis un fichier local ou externe. Si - est indiqué comme fichier, les URL sont lues
           depuis l'entrée standard. (Utilisez ./- pour lire à partir d'un fichier nommé -).

           Si cette fonction est utilisée, aucune URL n'a besoin d'être présente sur la ligne de commande.  S'il
           y  a  des  URL à la fois sur la ligne de commande et dans le fichier d'entrée, celles sur la ligne de
           commande seront les premières à être extraites. Si --force-html n'est pas indiqué, alors  le  fichier
           devrait consister en une suite d'URL, une par ligne.

           Cependant,  si  vous  indiquez --force-html, le document sera considéré comme html. Dans ce cas, vous
           pourriez avoir des problèmes avec les liens relatifs, que vous pouvez résoudre en  ajoutant  «  <base
           href=url> » aux documents ou en indiquant --base=url sur la ligne de commande.

           Si  le  fichier  est  externe,  le  document  sera automatiquement traité comme du html si le type de
           contenu correspond à text/html. Par ailleurs, l'emplacement du  fichier  sera  implicitement  utilisé
           comme href de base si aucun n'est indiqué.

           Si le fichier est un fichier local, sur les systèmes qui prennent en charge cela, il sera ouvert avec
           le  drapeau  "O_NONBLOCK"  pour  permettre  des  lectures  non bloquantes du fichier. wget tentera de
           continuer à lire le fichier jusqu'à ce que la fin de ficher soit atteinte (EOF) ou qu'il soit  fermé.
           Cela  permet  de  transférer  une  liste  de fichiers à récupérer, la liste à récupérer étant générée
           dynamiquement pendant l'exécution du processus. Actuellement, cette fonction n'est pas disponible sur
           les plateformes Windows.

       --input-metalink=fichier
           Télécharger les fichiers couverts par le fichier Metalink local. Metalink versions 3 et 4  sont  pris
           en charge.

       --keep-badhash
           Garder  les  fichiers  Metalink téléchargés avec un mauvais hachage. Cela ajoute .badhash aux noms de
           fichiers Metalink qui sont  incohérents  avec  la  somme  de  contrôle,  sans  écraser  les  fichiers
           existants.

       --metalink-over-http
           Émettre  une  requête  HTTP  HEAD au lieu de GET et extraire les métadonnées Metalink des en-têtes de
           réponse. Ensuite, il passe au  téléchargement  de  Metalink.  Si  aucune  métadonnée  Metalink  n'est
           trouvée,  il revient au téléchargement ordinaire HTTP. Cela permet le téléchargement et le traitement
           des fichiers Content-Type: application/metalink4+xml.

       --metalink-index=numéro
           Définir le NUMÉRO ordinal de la méta-url application/metalink4+xml de Metalink. De 1 au nombre  total
           de  «  application/metalink4+xml  »  disponibles. Spécifier 0 ou inf pour choisir la première qui est
           bonne. Les méta-url, telles que celles d'un --metalink-over-http, peuvent avoir été  triées  par  une
           valeur de clé de priorité ; gardez cela à l'esprit pour choisir le bon NUMÉRO.

       --preferred-location
           Définir  l'emplacement  préféré  pour les ressources Metalink. Cela est utile si plusieurs ressources
           ayant la même priorité sont disponibles.

       --xattr
           Activer l'utilisation des attributs étendus du système de fichiers pour sauvegarder la  valeur  l'URL
           d'origine et la valeur de l'en-tête Referer HTTP si elle est utilisée.

           Gardez  à  l'esprit  que  les  URL pourraient contenir des informations privées telles que des jetons
           d'accès ou des identifiants.

       -F
       --force-html
           Lorsque l'entrée lue est un fichier, le forcer à être traité comme un fichier HTML. Cela vous  permet
           de  retrouver  des  liens  relatifs  de  fichiers  HTML  sur  votre  disque local, en ajoutant "<base
           href="url">" à HTML ou en utilisant l'option de la ligne de commande --base.

       -B URL
       --base=URL
           Résoudre les liens relatifs en utilisant URL comme point de référence, lors de la  lecture  de  liens
           d'un  fichier HTML spécifié à l'aide de l'option -i/--input-file (conjointement avec --force-html, ou
           lorsque le fichier d'entrée a été récupéré à distance depuis un serveur  le  décrivant  comme  HTML).
           Cela  est  équivalent  à  la  présence  d'un drapeau "BASE" dans le fichier en entrée, avec URL comme
           valeur de l'attribut "href".

           Par exemple, si vous indiquez http://machin/truc/a.html pour URL, et que  wget  lit  ../bidule/b.html
           sur le fichier d'entrée, il sera résolu en http://machin/bidule/b.html.

       --config=FILE
           Indiquer  l'emplacement  du  fichier d'initialisation que vous voulez utiliser à la place de celui ou
           ceux par défaut. Utiliser --no-config pour désactiver la lecture des fichiers de configuration. Si  à
           la fois --config et --no-config sont donnés, --no-config est ignoré.

       --rejected-log=fichier_journal
           Enregistrer  tous  les  rejets d'URL dans fichier_journal avec des valeurs séparées par des virgules.
           Les valeurs incluent la raison du rejet, l'URL et l'URL parent dans lequel il a été trouvé.

   Options de téléchargement
       --bind-address=ADDRESS
           Lors des connexions TCP/IP client, l'attacher à ADDRESS sur la  machine  locale.  ADDRESS  peut  être
           indiquée  comme  un  nom d'hôte ou une adresse 1IP. Cette option peut être utile si votre machine est
           attachée à plusieurs IP.

       --bind-dns-address=ADDRESS
           [seulement avec libcares] Cette adresse surcharge la route pour les requêtes DNS. Si vous avez besoin
           de contourner les réglages standard de /etc/resolv.conf, cette option avec  --dns-servers  est  votre
           amie.ADDRESS  doit  être  spécifiée  comme une adresse soit IPV4, soit IPV6. wget doit être construit
           avec libcares pour que cette option soit disponible.

       --dns-servers=ADDRESSES
           [seulement avec libcares] Les adresses données écrasent les adresses du serveur de noms standard, par
           exemple comme configuré dans /etc/resolv.conf. Les ADDRESSES doivent être spécifiées en adresses IPV4
           ou IPV6 séparées par des virgules. wget a besoin d'être construit avec libcares pour que cette option
           soit disponible.

       -t nombre
       --tries=nombre
           Définir le nombre d'essais à nombre. Spécifier 0 ou inf pour réessayer indéfiniment. Par  défaut,  la
           commande  réessaie  20  fois, à l'exception des erreurs fatales comme connection refused ou not found
           (404), qui ne sont pas réessayées.

       -O fichier
       --output-document=fichier
           Les documents ne seront pas écrits dans les fichiers  appropriés,  mais  seront  tous  concaténés  et
           écrits  dans  fichier.  Si  -  est  utilisé  comme fichier, les documents seront écrits sur la sortie
           standard, désactivant la conversion de liens. (Utilisez ./- pour écrire dans un fichier littéralement
           appelé -.)

           L'utilisation de -O ne signifie pas simplement « utiliser le  nom  fichier  au  lieu  de  celui  dans
           l'URL  »  ;  Cela  est  similaire  à une redirection d'interpréteur : wget -O fichier http://truc est
           destiné à fonctionner comme wget -O - http://truc > fichier ; fichier sera tronqué immédiatement,  et
           tout le contenu téléchargé sera écrit là.

           Pour  cette  raison,  -N (pour le contrôle d'horodatage) n'est pas pris en charge en combinaison avec
           -O : dans la mesure où fichier est tout le temps nouvellement créé, il aura  toujours  un  horodatage
           très récent. Un avertissement sera affiché si la combinaison des deux est utilisée.

           De  même,  l'utilisation  de  -r  ou -p avec -O peut ne pas fonctionner comme vous voudriez : wget ne
           téléchargera pas seulement le premier fichier dans fichier  et  ensuite  le  reste  dans  leurs  noms
           courants  :  tout  le  contenu  téléchargé  sera  placé  dans  fichier.  Cela a été désactivé dans la
           version 1.11, mais a été réimplanté (avec un avertissement) dans la version 1.11.2, puisqu'il y a des
           cas où ce fonctionnement peut avoir une certaine utilité.

           Une combinaison avec -nc n'est acceptée que si le fichier donné en sortie n'existe pas.

           Remarquez qu'une combinaison avec -k n'est permise que lors du téléchargement d'un seul document, car
           dans ce cas il convertira seulement toutes les URl relatives en URL externes ; -k  n'a  pas  de  sens
           pour  des  URl multiples lorsqu'elles sont toutes téléchargées dans un seul fichier ; -k ne peut être
           utilisé que lorsque la sortie est un fichier normal.

       -nc
       --no-clobber
           Si un fichier est téléchargé plus d'une fois dans le même répertoire, le comportement de wget  dépend
           de  quelques options, incluant -nc. Dans certains cas, le fichier local sera corrompu ou écrasé après
           un téléchargement répété. Dans d'autres cas, il sera préservé.

           Lorsque wget est lancé sans -N, -nc, -r ou -p,  le  téléchargement  du  même  fichier  dans  le  même
           répertoire  préservera la copie d'origine de fichier et la seconde copie sera nommée fichier.1. Si ce
           fichier est à nouveau téléchargé, la troisième copie sera nommée fichier.2, et ainsi de suite.  (Cela
           est  aussi  le  comportement avec -nd, même si -r ou -p sont effectifs.) Lorsque -nc est spécifié, ce
           comportement est supprimé, et wget refusera de  télécharger  de  nouvelles  copies  de  fichier.  Par
           conséquent, « no-clobber » est en fait un terme mal choisi dans ce mode -- ce n'est pas la corruption
           qui  est  empêchée  (comme  les  suffixes  numériques  empêchent  déjà  la  corruption),  mais plutôt
           l'enregistrement de plusieurs versions qui est empêché.

           Lorsque wget est lancé avec -r ou -p, mais sans -N, -nd ou -nc,  télécharger  à  nouveau  un  fichier
           résultera  en  ce  que  la nouvelle copie écrasera simplement la précédente. Ajouter -nc empêchera ce
           comportement, provoquant plutôt la préservation de la version originale et  faisant  que  les  copies
           plus récentes sur le serveur seront ignorées.

           Lors du lancement de wget avec -N, avec ou sans -r ou -p, la décision de télécharger ou non une copie
           plus  récente  d'un  fichier  dépend de l'horodatage local et distant et de la taille du fichier. -nc
           peut ne pas être spécifié au même moment que -N.

           Une combinaison avec -O/--output-document n'est acceptée que si le fichier donné en  sortie  n'existe
           pas.

           Notez  que  lorsque  -nc  est  spécifié,  les fichiers avec les suffixes .html ou .htm seront chargés
           depuis le disque local et analysés comme s'ils avaient été récupérés sur le Web.

       --backups=sauvegardes
           Avant d'écrire ou d'écraser un fichier, faire une sauvegarde  du  fichier  existant  en  ajoutant  un
           suffixe  .1  (_1 sur VMS) au nom de fichier. De tels fichiers de sauvegarde sont numérotés .2, .3, et
           ainsi de suite, jusqu'à sauvegardes (en perdant ce qui vient après).

       --no-netrc
           Ne pas essayer d'obtenir des identifiants  du  fichier  .netrc.  Par  défaut  les  identifiants  sont
           recherchés  dans  le  fichier .netrc dans le cas où aucun n'ait été passé sur la ligne de commande et
           qu'une authentification serait nécessaire.

       -c
       --continue
           Continuer à récupérer un fichier partiellement téléchargé. Cela est utile lorsque vous  voulez  finir
           un  téléchargement  commencé  lors  d'une précédente instance de wget, ou par un autre programme. Par
           exemple :

                   wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

           S'il y a un fichier nommé ls-lR.Z dans le répertoire  actuel,  wget  supposera  qu'il  s'agit  de  la
           première  partie  du  fichier distant, et demandera au serveur de poursuivre la récupération à partir
           d'un décalage égal à la longueur du fichier local.

           Remarquez que vous  n'avez  pas  besoin  d'indiquer  cette  option  si  vous  voulez  simplement  que
           l'invocation  actuelle de wget réessaie de télécharger un fichier si la connexion est perdue en cours
           de route. C'est le comportement par défaut. -c n'affecte que la reprise des téléchargements commencés
           avant cette invocation de wget, et dont les fichiers locaux sont toujours en attente.

           Sans -c, l'exemple précédent devrait juste télécharger le fichier distant  dans  ls-lR.Z.1,  laissant
           seul le fichier tronqué ls-lR.Z.

           Si  vous  utilisez -c sur un fichier non vide, et que le serveur ne prend pas en charge la reprise du
           téléchargement, wget relancera le téléchargement depuis le début et écrasera entièrement  le  fichier
           existant.

           À  partir  de  Wget  1.7,  si  vous  utilisez -c sur un fichier ayant une taille égale à celui sur le
           serveur, wget refusera de télécharger le fichier et affichera un message explicatif.  La  même  chose
           arrive  lorsque le fichier est plus petit sur le serveur que celui en local (probablement parce qu'il
           a été modifié sur le serveur  depuis  votre  dernière  tentative  de  téléchargement)  --  parce  que
           « continuing » n'est pas assez explicite, aucun téléchargement n'est lancé.

           D'un  autre  coté,  en  utilisant  -c, tout fichier qui est plus gros sur le serveur qu'en local sera
           considéré comme un téléchargement incomplet  et  seulement  (longueur(distante)  -  longueur(locale))
           octets  seront téléchargés et ajoutés à la fin du fichier local. Ce comportement est appréciable dans
           quelques cas. Par exemple, vous pouvez utiliser wget -c   pour  télécharger  uniquement  la  nouvelle
           partie qui a été ajoutée à une collection de données ou à un fichier journal.

           En  tout  cas,  si le fichier est plus gros sur le serveur parce qu'il a été modifié, contrairement à
           juste ajouté, vous vous retrouverez avec un fichier brouillé. wget n'a pas la possibilité de vérifier
           que le  fichier  local  est  réellement  un  début  valable  du  fichier  distant.  Vous  devez  être
           particulièrement  attentif  à  cela  lors  de l'utilisation de -c en combinaison avec -r, vu que tout
           fichier sera considéré comme un « téléchargement incomplet » potentiel.

           Un autre cas où vous obtiendrez un fichier brouillé si vous essayez d'utiliser -c, est celui où  vous
           avez  un mandataire HTTP bancal qui insère une chaîne « transfer interrupted » dans le fichier local.
           Dans le futur, une option « rollback » (retour à l'état précédent) devrait être ajoutée pour gérer ce
           cas de figure.

           Prenez en compte que -c ne fonctionne qu'avec les serveurs FTP et les serveurs HTTP qui  prennent  en
           charge l'en-tête "Range".

       --start-pos=OFFSET
           Commencer  le téléchargement à la position d'OFFSET par rapport à zéro. Le décalage doit être exprimé
           en octets, kilooctets avec le suffixe k ou mégaoctets avec le suffixe m, etc.

           --start-pos a la  priorité  sur  --continue.  Lorsque  --start-pos  et  --continue  sont  toute  deux
           indiquées, wget émettra un avertissement et procèdera comme si --continue était absent.

           La  prise  en charge du serveur pour la poursuite du téléchargement est nécessaire, sinon --start-pos
           ne pourra pas aider. Voir -c pour les détails.

       --progress=type
           Sélectionnez le  type  d'indicateur  de  progression  que  vous  désirez  utiliser.  Les  indicateurs
           classiques sont « dot » et « bar ».

           L'indicateur  «  bar  » est utilisé par défaut. Il dessine un graphique de barre de progression ASCII
           (comme un affichage « thermomètre ») indiquant l'état de la récupération. Si la sortie n'est pas  une
           console TTY, la barre « dot » sera utilisée par défaut.

           Utilisez --progress=dot pour passer à l'affichage « dot » (pointillés). Il retrace la récupération en
           affichant   des  points  sur  l'écran,  chaque  point  représentant  une  quantité  fixe  de  données
           téléchargées.

           Le type de progression peut aussi prendre un ou plusieurs paramètres. Les paramètres varient  suivant
           le  type  sélectionné.  Les  paramètres  sont  passés au type en les ajoutant au type, séparés par un
           deux-points ( : ) comme ceci : --progress=type:paramètre1:paramètre2.

           Lorsque vous utilisez la représentation de la récupération par points, vous pouvez définir  le  style
           en  spécifiant  le type comme dot:style. Les différents styles assignent différents rôles à un point.
           Avec le style « default » chaque point représente 1Ko, il y a dix points par grappe et 50 points  sur
           une  ligne.  Le  style  «  binary  »  a plus une orientation du genre « ordinateur » : points de 8Ko,
           16 points par grappe et 48 points par ligne (ce qui fait des lignes de 384Ko). Le style « mega »  est
           adapté  au  téléchargement  de gros fichiers : chaque point représentant 64Ko de récupération, il y a
           huit points dans une grappe, et 48 points sur chaque ligne (chaque ligne contenant 3Mo). Si « mega  »
           n'est  pas  suffisant,  alors  vous pouvez utiliser le style « giga » -- chaque point représente 1 Mo
           récupérés, il y a huit points par grappe, et 32 points par ligne (donc chaque ligne contient 32Mo).

           Avec --progress=bar, il y a actuellement deux paramètres possibles, force et noscroll.

           Lorsque la sortie n'est pas une console TTY, la barre de progression retombe toujours sur  «  dot  »,
           même  si --progress=bar a été passé à wget lors de l'invocation. Ce comportement peut être outrepassé
           et la sortie « bar » forcée avec le paramètre « force » comme --progress=bar:force.

           Par défaut, la barre de progression du style bar fait défiler le nom du fichier de  gauche  à  droite
           pour  le fichier en cours de téléchargement si le nom du fichier dépasse la longueur maximale allouée
           à son affichage. Dans certains cas, comme avec --progress=bar:force,  il  peut  ne  pas  y  avoir  de
           défilement du nom de fichier dans la barre de progression. En passant le paramètre « noscroll », wget
           peut être forcé à afficher la plus grande partie possible du nom de fichier sans le faire défiler.

           Remarquez  que  vous  pouvez  indiquer  le  style par défaut en utilisant la commande "progress" dans
           .wgetrc. Ce réglage peut être écrasé par la ligne de commande. Par exemple, pour forcer la  barre  de
           sortie à ne pas défiler, utilisez --progress=bar:force:noscroll.

       --show-progress
           Forcer wget à afficher la barre de progression quelque soit le niveau de détail.

           Par  défaut,  wget  affiche  seulement  la  barre de progression en mode détaillé. Il est possible de
           vouloir que wget affiche la barre de progression en  accord  avec  un  autre  mode  de  détail  comme
           --no-verbose  ou  --quiet.  Cela  peut  être  désirable lors de l'invocation de wget pour télécharger
           plusieurs petits et/ou grands fichiers. Dans un tel cas, wget pourrait simplement être  invoqué  avec
           ce paramètre pour avoir une sortie plus propre sur l'écran.

           Cette  option  forcera  également la barre de progression à être affichée dans stderr lorsqu'elle est
           utilisée avec l'option --output-file.

       -N
       --timestamping
           Activer l'horodatage.

       --no-if-modified-since
           Ne pas envoyer d'en-tête If-Modified-Since en mode -N. Envoyer d'abord une réponse HEAD à  la  place.
           Cela n'est effectif qu'en mode -N.

       --no-use-server-timestamps
           Ne pas régler l'horodatage du fichier local sur celui du serveur.

           Par  défaut,  lorsqu'un fichier est téléchargé, son horodatage est réglé pour correspondre à celui du
           fichier distant. Cela permet l'utilisation de --timestamping sur les invocations suivantes  de  wget.
           Cependant,  il  est  parfois  nécessaire  de  baser  l'horodatage  du  fichier local sur celui de son
           téléchargement ; l'option --no-use-server-timestamps a été fournie dans ce but.

       -S
       --server-response
           Afficher les en-têtes envoyés par les serveurs HTTP et les réponses envoyées par les serveurs FTP.

       --spider
           Lorsqu'il est invoqué avec cette option, wget se  comportera  comme  un  robot  d'indexation,  il  ne
           téléchargera  pas les pages, il vérifiera simplement leur présence. Par exemple, vous pouvez utiliser
           wget pour vérifier vos marque-pages :

                   wget --spider --force-html -i marque-pages.html

           Cette caractéristique nécessite encore quelques travaux pour se  rapprocher  des  fonctionnalités  de
           véritables robots d'indexation.

       -T secondes
       --timeout=secondes
           Définir  le  délai  d'attente  du  réseau  à secondes. Cela est équivalent à spécifier --dns-timeout,
           --connect-timeout et --read-timeout, tous en même temps.

           Lorsqu'il interagit avec le réseau, wget peut vérifier le délai d'attente et annuler  l'opération  si
           cela  dure  trop.  Cela  permet  d'éviter  les  anomalies  telles  que les lectures suspendues et les
           connexions infinies. Le seul délai d'attente activé par défaut est un délai d'attente de  lecture  de
           900  secondes (15 min). Définir un délai d'attente à 0 désactive l'ensemble. À moins de savoir ce que
           vous faites, il vaut mieux ne pas changer les réglages du délai d'attente par défaut.

           Toutes les options liées au délai d'attente acceptent les valeurs décimales, ainsi que les valeurs en
           dixième de seconde. Par exemple, 0.1 seconde est un choix classique (bien que peu judicieux) du délai
           d'attente. Les temps d'attente en dixièmes de seconde sont utiles pour la vérification des  temps  de
           réponse du serveur ou pour tester la latence du réseau.

       --dns-timeout=secondes
           Définir le délai de consultation de DNS à secondes. Les recherches DNS qui ne sont pas terminées dans
           le  délai spécifié échouent. Par défaut, il n'y a pas de délai sur les recherches DNS autre que celui
           implémenté par les bibliothèques du système.

       --connect-timeout=secondes
           Définir le délai de connexion à secondes. Les connexions TCP qui mettent trop longtemps  à  s'établir
           seront  annulées.  Il  n'y a pas de délai de connexion par défaut, autre que celui qui est implémenté
           par les bibliothèques du système.

       --read-timeout=secondes
           Définir le délai de lecture (et d'écriture) à secondes. Le  «  temps  »  de  ce  délai  correspond  à
           idle  time  :  si,  à  quelque moment du téléchargement, aucune donnée n'est reçue durant plus que le
           nombre spécifié de secondes, la lecture échoue et le  téléchargement  est  recommencé.  Cette  option
           n'influe pas directement sur la durée totale du téléchargement.

           Bien  sûr,  le  serveur  distant  peut choisir de terminer la connexion plus tôt que requis par cette
           option. Le délai de lecture est de 900 secondes (15 min) par défaut.

       --limit-rate=quantité
           Limiter la vitesse de téléchargement à quantité octets par seconde. Cette quantité doit être exprimée
           en octets, kilooctets (avec  le  suffixe  k),  ou  mégaoctets  (avec  le  suffixe  m).  Par  exemple,
           --limit-rate=20K limitera le débit de récupération à 20 ko/s. Cela est utile lorsque, pour une raison
           quelconque, vous ne voulez pas que wget consomme toute la bande passante disponible.

           Cette option autorise l'usage de nombres décimaux, habituellement en conjonction avec des suffixes de
           puissance ; par exemple, --limit-rate=2.5k est une valeur classique.

           Remarquez  que  wget  implémente  la  limitation  en  dormant  pendant  la durée appropriée après une
           réception depuis le réseau qui a pris moins de temps que spécifié par le débit.  Éventuellement  cela
           peut  causer  le  ralentissement  du  transfert  TCP  jusqu'à  approximativement  le  débit spécifié.
           Cependant, il se peut que cela prenne un peu de temps avant de se stabiliser ; ne soyez  pas  surpris
           si cette limite n'est pas vraiment respectée lors du transfert de très petits fichiers.

       -w secondes
       --wait=secondes
           Attendre  le  nombre de secondes spécifié entre deux récupérations. L'utilisation de cette option est
           encouragée, car elle allège le travail du serveur en diminuant la fréquence des requêtes. Au lieu  de
           secondes,  le  temps  peut  être  indiqué  en  minutes en utilisant le suffixe "m", en heures avec le
           suffixe "h", ou en jours avec le suffixe "d".

           L'indication d'une grande valeur pour cette option est pratique si le réseau ou l'hôte de destination
           est éteint, ainsi wget peut attendre assez longtemps pour raisonnablement espérer que l'erreur réseau
           soit réparée d'ici le prochain essai. L'intervalle de temps d'attente indiqué par cette fonction  est
           influencé par "--random-wait" qui surveille.

       --waitretry=secondes
           Si  vous ne voulez pas que wget attende entre chaque récupération, mais seulement entre les nouvelles
           tentatives suite à des échecs de téléchargement, vous pouvez utiliser cette  option.  wget  utilisera
           linear  backoff,  en  attendant  une  seconde  après le premier échec sur un fichier donné, puis deux
           secondes après le second échec sur ce fichier, jusqu'au nombre maximal de secondes indiqué.

           Par défaut, wget prendra une valeur de dix secondes.

       --random-wait
           Certains sites web peuvent  effectuer  une  analyse  des  journaux  pour  identifier  les  programmes
           d'extraction  tels  que  wget  en  recherchant des similitudes statistiquement significatives dans le
           délai entre les requêtes. Cette option fait varier entre 0,5 et 1,5 * secondes d'attente, où secondes
           d'attente est indiquée par l'usage de l'option --wait, pour masquer la présence de wget à  partir  de
           ce type d'analyse.

           Un  article  est  paru  en  2001  dans une publication consacrée au développement sur une plate-forme
           populaire grand public qui fournissait un code permettant d'effectuer cette analyse à la  volée.  Son
           auteur  a  suggéré  un  blocage  au niveau des adresses de classe C pour s'assurer que les programmes
           d'extraction automatique soient bloqués malgré le changement des adresses fournies par le DHCP.

           L'option --random-wait a été inspirée par cette recommandation peu judicieuse qui consiste à  bloquer
           l'accès à un site web à de nombreux utilisateurs non concernés en raison des actions d'un seul.

       --no-proxy
           Ne pas utiliser de mandataire, même si la variable d'environnement appropriée *_proxy est définie.

       -Q quota
       --quota=quota
           Indiquer le quota de téléchargement pour l'extraction automatique. Cette valeur peut être indiquée en
           octets (par défaut), kilooctets (avec le suffixe k) ou mégaoctets (avec le suffixe m).

           Remarquez  que le quota n'affectera jamais le téléchargement d'un seul fichier. Donc si vous indiquez
           wget -Q10k https://example.com/ls-lR.gz, tout le fichier ls-lR.gz  sera  téléchargé.  C'est  la  même
           chose lorsque plusieurs URL sont indiquées sur la ligne de commande. Le quota n'est seulement vérifié
           qu'à la fin de chaque fichier téléchargé, donc il ne provoquera jamais le téléchargement partiel d'un
           fichier.  Ainsi  vous  pouvez  tranquillement  taper wget -Q2m -i sites, le téléchargement s'arrêtera
           après que le fichier qui dépasse le quota a été complètement téléchargé.

           Définir le quota à 0 ou à inf retire la limite du quota de téléchargement.

       --no-dns-cache
           Désactiver la mise en cache des recherches de DNS. Normalement, wget  se  souvient  des  adresses  IP
           qu'il  a  recherché  auprès de DNS afin de ne pas avoir à contacter de manière répétée le serveur DNS
           pour le même (généralement petit) ensemble d'hôtes qu'il récupère. Ce cache n'existe qu'en mémoire  ;
           un nouveau lancement de wget recontactera encore le DNS.

           Cela  dit,  il a été rapporté que dans quelques situations, il n'est pas désirable de mettre en cache
           les noms d'hôtes, même pour la durée d'une application brève et rapide comme wget. Avec cette option,
           wget effectue une nouvelle recherche DNS (plus précisément, un  nouvel  appel  à  "gethostbyname"  ou
           "getaddrinfo")  à  chaque nouvelle connexion. Veuillez prendre en compte que cette option n'affectera
           pas la mise en cache qui pourrait être effectuée par la bibliothèque de résolution ou par une  couche
           de mise en cache externe, telle que NSCD.

           Si vous ne comprenez pas exactement ce que fait cette option, vous n'en avez probablement pas besoin.

       --restrict-file-names=modes
           Modifier les caractères trouvés dans les URL distants qui doivent être protégés lors de la génération
           des noms de fichiers locaux. Les caractères qui sont restreints par cette option sont protégés, c'est
           à  dire  remplacés  par  %HH,  où HH est le nombre hexadécimal qui correspond au caractère restreint.
           Cette option peut aussi être utilisée pour  forcer  les  caractères  alphabétiques  à  être  soit  en
           minuscules, soit en capitales.

           Par  défaut,  wget  protège les caractères qui ne sont pas valables ou sûrs dans les noms de fichiers
           pour votre  système  d'exploitation,  ainsi  que  pour  les  caractères  de  contrôle  habituellement
           impossibles  à  afficher.  Cette  option est utile pour changer ce comportement par défaut, peut être
           parce que vous téléchargez dans une partition non native, ou parce  que  vous  voulez  désactiver  la
           protection des caractères de contrôle, ou parce que vous voulez restreindre encore plus de caractères
           à ceux de la plage de valeurs ASCII.

           Les  modes  sont  un  ensemble de valeurs textuelles séparées par des virgules. Les valeurs acceptées
           sont unix, windows, nocontrol, ascii, lowercase et  uppercase.  Les  valeurs  unix  et  windows  sont
           mutuellement  exclusives  (l'une  écrasera  l'autre),  de  même pour lowercase et uppercase. Ces deux
           dernières sont des cas spéciaux, car elles ne changent pas l'ensemble des  caractères  qui  devraient
           être protégés, mais plutôt forcent les chemins de fichier local à être converti soit en minuscules ou
           en capitales.

           Lorsque  «  unix  »  est  indiqué, wget protège le caractère / et les caractères de contrôle dans les
           plages de 0 à 31 et de 128 à 159. C'est le comportement par défaut pour les  systèmes  d'exploitation
           de type Unix.

           Lorsque  «  windows  »  est  indiqué,  wget  protège les caractères \, |, /, :, ?, ", *, <, >, et les
           caractères contrôle dans les plages de 0 à 31 et de 128 à 159. En plus de cela, wget en mode  Windows
           utilise  + au lieu de : pour séparer l'hôte et le port dans les noms de fichiers locaux, et utilise @
           au lieu de ? pour séparer la partie requête du nom de fichier du reste. Par conséquent, une  URL  qui
           aurait  été sauvegardée en www.xemacs.org:4300/search.pl?input=blabla en mode Unix pourrait l'être en
           www.xemacs.org+4300/search.pl@input=blabla en mode Windows. C'est le mode par défaut sur Windows.

           Si vous indiquez nocontrol, alors la protection des caractères  de  contrôle  est  aussi  désactivée.
           Cette  option est utile lorsque vous téléchargez des URL avec des noms contenant des caractères UTF-8
           sur un système qui peut sauvegarder et afficher les noms de  fichiers  en  UTF-8  (certaines  valeurs
           d'octets  possibles  utilisées  dans  les  séquences  d'octets UTF-8 tombent dans la plage de valeurs
           désignée par wget comme des « contrôles »).

           Le mode ascii est utilisé pour spécifier que tous les octets dont la valeur est en dehors de la plage
           de caractères ASCII (c'est-à-dire supérieure à 127) doivent être protégés. Cela est utile lors de  la
           sauvegarde des noms de fichiers dont l'encodage ne correspond pas à celui utilisé en local.

       -4
       --inet4-only
       -6
       --inet6-only
           Forcer  la  connexion  vers les adresses IPv4 ou IPv6. Avec --inet4-only ou -4, wget ne se connectera
           qu'à des hôtes IPv4, ignorant les enregistrements AAAA du  DNS,  et  refusant  de  se  connecter  aux
           adresses  IPv6  indiquées  dans les URL. Au contraire, avec --inet6-only ou -6, wget ne se connectera
           qu'aux hôtes IPv6 et ignorera les enregistrements A et les adresses IPv4.

           Aucune de ces options ne devrait être normalement nécessaire. Par défaut, un wget prenant  en  charge
           IPv6  utilisera  la famille d'adresses spécifiée par l'enregistrement DNS de l'hôte. Si le DNS répond
           avec à la fois des adresses IPv4 et IPv6, wget les essaiera dans l'ordre jusqu'à ce qu'il  en  trouve
           une pour se connecter. Consultez aussi l'option "--prefer-family" décrite ci-dessous.

           Ces  options  peuvent être utilisées pour forcer délibérément l'usage des familles d'adresses IPv4 ou
           IPv6 sur les systèmes avec les deux familles, habituellement pour  aider  au  débogage  ou  s'occuper
           d'une configuration réseau défaillante. Seulement l'une des options --inet6-only et --inet4-only peut
           être  indiquée  au même moment. Aucune option n'est disponible si wget a été compilé sans la prise en
           charge de IPv6.

       --prefer-family=none/IPv4/IPv6
           Lors d'un choix avec plusieurs adresses, se connecter d'abord aux adresses indiquées dans la  famille
           d'adresses. Par défaut, l'ordre des adresses renvoyé par DNS est utilisé sans changement.

           Cela  permet  d'éviter les erreurs et les tentatives de connexion intempestives lors de l'accès à des
           hôtes dont l'adresse est à la fois IPv6 et IPv4 à partir de réseaux IPv4. Par  exemple,  www.kame.net
           se  résout  en 2001:200:0:8002:203:47ff:fea5:3085 et en 203.178.141.194. Lorsque la famille souhaitée
           est "IPv4", l'adresse IPv4 sera utilisée en premier  ;  lorsque  la  famille  souhaitée  est  "IPv6",
           l'adresse  IPv6  sera  utilisée  en  premier ; si la valeur indiquée est "none", l'ordre des adresses
           renvoyé par DNS est utilisé sans changement.

           Contrairement à -4 et -6, cette action n'empêche pas l'accès à une quelconque famille d'adresse, elle
           change juste l'ordre dans lequel on accède aux adresses.  Remarquez  aussi  que  le  réordonnancement
           effectué  par  cette  option  est  stable : il n'affecte pas l'ordre des adresses de la même famille.
           C'est-à-dire que l'ordre relatif de toutes les adresses IPv4 et de toutes  les  adresses  IPv6  reste
           intact dans tous les cas.

       --retry-connrefused
           Considérer  «  connection  refused  »  comme  une  erreur  passagère  et réessayer. Normalement, wget
           abandonne une URL lorsqu'il ne parvient pas à se connecter au site, car l'échec de la  connexion  est
           considéré  comme  un signe que le serveur ne fonctionne pas du tout et que de nouvelles tentatives ne
           seraient d'aucune utilité. Cette option est destinée à la mise en miroir de sites  peu  fiables  dont
           les serveurs ont tendance à disparaître pendant de courtes périodes.

       --user=utilisateur
       --password=mot_de_passe
           Indiquer  le  nom  d'utilisateur utilisateur et le mot de passe mot_de_passe pour la récupération des
           fichiers à la fois FTP et HTTP. Ces paramètres peuvent être écrasés  par  l'utilisation  des  options
           --ftp-user  et  --ftp-password  pour les connexions FTP et les options --http-user et --http-password
           pour les connexions HTTP.

       --ask-password
           Demander un mot de passe pour chaque connexion établie. Ne peut pas être indiqué quand --password est
           déjà utilisé, car ils sont mutuellement exclusifs.

       --use-askpass=commande
           Demander un utilisateur et un mot de passe en utilisant la  commande  indiquée.  Si  aucune  commande
           n'est  indiquée,  alors  la  commande  dans la variable d'environnement WGET_ASKPASS est utilisée. Si
           WGET_ASKPASS n'est pas définie, alors la commande dans la variable  d'environnement  SSH_ASKPASS  est
           utilisée.

           Vous pouvez définir la commande par défaut pour use-askpass dans .wgetrc. Ce réglage peut être écrasé
           par la ligne de commande.

       --no-iri
           Désactiver  la  prise  en  charge  des URI internationalisés (IRI). Utiliser --iri pour l'activer. La
           prise en charge des IRI est activée par défaut.

           Vous pouvez définir l'état par défaut de la prise en charge des IRI en utilisant  la  commande  "iri"
           dans .wgetrc. Ce réglage peut être écrasé par la ligne de commande.

       --local-encoding=encodage
           Forcer  wget à utiliser encodage comme système d'encodage par défaut. Cela influe sur la manière dont
           wget convertit les URL indiqués comme arguments de paramètres régionnaux vers UTF-8 pour la prise  en
           charge d'IRI.

           wget  utilise  la  fonction nl_langinfo()" et donc la variable d'environnement "CHARSET" pour obtenir
           les paramètres régionaux. Si cela échoue, ASCII est utilisé.

           Vous pouvez définir l'encodage local par  défaut  en  utilisant  la  commande  "local_encoding"  dans
           .wgetrc. Ce réglage peut être écrasé par la ligne de commande.

       --remote-encoding=encodage
           Forcer wget à utiliser l'encodage comme encodage par défaut du serveur distant. Cela affecte la façon
           dont  wget  convertit  les  URI  trouvés  dans les fichiers de l'encodage distant en UTF-8 lors d'une
           récupération récursive. Cette option n'est utile que pour la prise en charge d'IRI, pour  interpréter
           les caractères qui ne sont pas ASCII.

           Pour  HTTP,  l'encodage  distant  peut  être  trouvé  dans  l'en-tête HTTP "Content-Type" et dans les
           méta-étiquettes HTML "Content-Type http-equiv".

           Vous pouvez définir l'encodage par défaut avec la commande "remoteencoding" dans .wgetrc. Ce  réglage
           peut être écrasé en ligne de commande.

       --unlink
           Forcer wget à délier le fichier au lieu d'écraser le fichier existant. Cette option est utile pour le
           téléchargement dans le répertoire avec des liens en dur (« hardlinks »).

   Options de répertoire
       -nd
       --no-directories
           Ne  pas  créer  de  hiérarchie  de  répertoires  lors d'une récupération récursive. Avec cette option
           activée, tous les fichiers sont sauvegardés dans le répertoire actuel, sans  écrasement  (si  un  nom
           apparait plus d'une fois, les noms de fichiers auront l'extension .n).

       -x
       --force-directories
           L'opposé  de -nd : créer une hiérarchie de répertoires, même si une n'aurait pas été créée autrement.
           Par exemple, wget -x http://fly.srk.fer.hr/robots.txt  sauvegardera  les  fichiers  téléchargés  dans
           fly.srk.fer.hr/robots.txt.

       -nH
       --no-host-directories
           Désactiver  la génération de répertoires préfixés par le nom d'hôte. Par défaut, l'invocation de wget
           avec -r http://fly.srk.fer.hr/ créera une structure de répertoires  commençant  par  fly.srk.fer.hr/.
           Cette option désactive un tel comportement.

       --protocol-directories
           Utiliser  le nom de protocole comme composant du répertoire des noms de fichiers locaux. Par exemple,
           avec cette option, wget -r http://hôte sera sauvegardé  en  http/hôte/...  plutôt  que  seulement  en
           hôte/....

       --cut-dirs=nombre
           Ignorer  un  certain  nombre de composants du répertoire. Cela est utile pour obtenir un contrôle fin
           sur le répertoire où la récupération récursive sera enregistrée.

           Prenons comme  exemple  le  répertoire  à  l'adresse  ftp://ftp.xemacs.org/pub/xemacs/.  Si  vous  le
           récupérez  avec  -r, il sera sauvegardé localement sous ftp.xemacs.org/pub/xemacs/. Bien que l'option
           -nH peut supprimer la partie ftp.xemacs.org/, vous êtes encore coincé avec pub/xemacs.  C'est  là  où
           --cut-dirs  est  vraiment  pratique  : il permet à wget de ne pas « voir » le nombre de composants de
           répertoire distant. Voici quelques exemples de la manière dont l'option --cut-dirs fonctionne.

                   Pas d'options        -> ftp.xemacs.org/pub/xemacs/
                   -nH               -> pub/xemacs/
                   -nH --cut-dirs=1  -> xemacs/
                   -nH --cut-dirs=2  -> .

                   --cut-dirs=1      -> ftp.xemacs.org/xemacs/
                   ...

           Si vous voulez simplement vous débarrasser de la structure du répertoire, cette option est  similaire
           à  une  combinaison de -nd et -P. Par contre, contrairement à -nd, --cut-dirs ne se perd pas avec des
           sous-répertoires (par exemple, avec  -nH  --cut-dirs=1,  un  sous-répertoire  beta/  sera  placé  sur
           xemacs/beta, comme on pourrait l'espérer.

       -P préfixe
       --directory-prefix=préfixe
           Désigner  le  préfixe de répertoire à préfixe. Le préfixe de répertoire est le répertoire où tous les
           autres fichiers et sous-répertoires vont  être  sauvegardés,  c'est-à-dire  le  haut  de  l'arbre  de
           récupération. C'est . (le répertoire actuel) par défaut.

   Options HTTP
       --default-page=nom
           Utiliser  nom  comme  nom  de  fichier par défaut quand il n'est pas connu (c'est-à-dire pour les URL
           finissants avec une barre oblique), au lieu de index.html.

       -E
       --adjust-extension
           Si un fichier de type application/xhtml+xml ou text/html est téléchargé et que l'URL ne finit pas par
           l'expression rationnelle \.[Hh][Tt][Mm][Ll]?, cette option provoquera le rajout du suffixe  .html  au
           nom  de  fichier  local.  C'est utile, par exemple, lorsque vous mettez en miroir un site distant qui
           utilise des pages .asp, mais que vous voulez que les pages mises en miroir puissent être  visualisées
           sur votre serveur Apache standard. Un autre usage appréciable pour cela est quand vous téléchargez du
           matériel  généré  par  CGI.  Une  URL telle que http://site.com/article.cgi?25 sera sauvegardée comme
           article.cgi?25.html.

           Notez que les noms de fichiers modifiés ainsi seront téléchargés  à  nouveau  chaque  fois  que  vous
           remettrez en miroir un site, car wget ne peut pas dire que le fichier local X.html correspond à l'URL
           X distante (étant donné qu'il ne sait pas encore que l'URL produit une sortie sous forme text/html ou
           application/xhtml+xml.

           Avec  la  version  1.12  wget  s'assure  aussi que tous les fichiers téléchargés de forme text/css se
           terminent par le suffixe .css, et l'option a été renommée de --html-extension,  pour  mieux  refléter
           son nouveau comportement. L'ancien nom de l'option est encore acceptable, mais devrait être considéré
           comme obsolète.

           Depuis  la version 1.19.2, wget s'assure aussi que tout fichier téléchargé avec un "Content-Encoding"
           de type br, compress, deflate ou gzip finisse avec le suffixe .br, .Z, .zlib et .gz respectivement.

           À l'avenir, cette option devrait être assez étendue pour englober  les  suffixes  d'autres  types  de
           contenus, incluant ceux qui ne sont pas analysés par wget.

       --http-user=utilisateur
       --http-password=mot_de_passe
           Indiquer  le nom d'utilisateur utilisateur et le mot de passe mot_de_passe sur un serveur HTTP. Selon
           le type d'authentification par question-réponse, wget encodera en  utilisant  à  la  fois  le  schéma
           d'authentification «"basic" (non-sécurisé), "digest" ou "NTLM" de Windows.

           Une autre manière d'indiquer le nom d'utilisateur et le mot de passe est de les spécifier dans l'URL.
           Les  deux  méthodes  révèlent votre mot de passe à quiconque se donne la peine d'exécuter "ps"). Pour
           empêcher que les mots de passe ne soient vus, utilisez --use-askpass ou stockez-les dans  .wgetrc  ou
           .netrc, et assurez vous de protéger ces fichiers des autres utilisateurs avec "chmod". Si les mots de
           passe  sont  très  importants,  ne  les  laissez  pas  traîner dans ces fichiers non plus (éditez les
           fichiers et effacez-les après que wget a commencé le téléchargement).

       --no-http-keep-alive
           Désactiver la fonction « keep-alive » pour les téléchargements HTTP.  Normalement,  wget  demande  au
           serveur  de laisser la connexion ouverte pour que, lorsque vous téléchargez plus d'un document sur le
           même serveur, ils soient transférés sur la même connexion TCP.  Cela  économise  du  temps  et  aussi
           réduit la charge sur le serveur.

           Cette  option  a  son  utilité  quand,  pour  une  raison  quelconque,  les  connexions  persistantes
           (keep-alive) ne fonctionnent pas pour vous, dû par exemple à un bogue du  serveur  ou  en  raison  de
           l'incapacité des scripts côté serveur à gérer les connexions.

       --no-cache
           Désactiver   le   cache   coté  serveur.  Dans  ce  cas,  wget  enverra  les  directives  appropriées
           (Cache-Control: no-cache et Pragma: no-cache) au serveur distant pour recevoir les fichier du service
           distant, au lieu de renvoyer la version mise en cache. Cela est surtout utile pour retrouver et vider
           les documents obsolètes sur des serveurs mandataires.

           La mise en cache est autorisée par défaut.

       --no-cookies
           Désactiver l'utilisation des cookies. Les cookies sont un mécanisme permettant de conserver l'état du
           serveur. Le serveur envoie au client un cookie utilisant l'en-tête "Set-Cookie" et le  client  répond
           avec  le même cookie lors de requêtes supplémentaires. Comme les cookies autorisent les propriétaires
           du serveur à garder une trace des visiteurs  et  pour  les  sites  de  s'échanger  ces  informations,
           certains considèrent cela comme une atteinte à la vie privée. Par défaut, les cookies sont utilisés ;
           cependant, il n'y a pas de stockage de cookies par défaut.

       --load-cookies fichier
           Charger  les  cookies  d'un fichier avant la première récupération HTTP. fichier est un fichier texte
           dans le format utilisé à l'origine par les fichiers cookies.txt de Netscape.

           Vous utiliserez généralement cette option pour la mise en place d'un miroir de sites qui exigent  que
           vous  soyez  connecté  pour  accéder  à  tout  ou  partie  de leur contenu. Le processus de connexion
           fonctionne généralement de la manière suivante : le serveur Web émet un cookie HTTP après avoir  reçu
           et  vérifié  vos  identifiants.  Le  cookie  est alors renvoyé par le navigateur pour accéder à cette
           partie du site, et prouve ainsi votre identité.

           La mise en miroir d'un tel site nécessite que wget renvoie les même cookies que ceux envoyés  par  le
           navigateur  lors  de  la  communication  avec  le  site. Cela est fait par --load-cookies ; il suffit
           d'indiquer à wget l'emplacement du fichier cookies.txt et il enverra  les  mêmes  cookies  que  votre
           navigateur  enverrait  dans  la  même  situation.  Les différents navigateurs conservent les fichiers
           cookies textuels à des endroits différents :

           "Netscape 4.x."
               Les cookies sont dans ~/.netscape/cookies.txt.

           "Mozilla and Netscape 6.x."
               Le fichier de cookies de Mozilla se nomme aussi  cookies.txt  et  se  trouve  quelque  part  sous
               ~/.mozilla,  dans  le  répertoire  de  votre  profil. Le nom de chemin se termine généralement en
               quelque chose comme ~/.mozilla/default/chaîne_bizarre/cookies.txt.

           "Internet Explorer."
               Vous pouvez produire un fichier cookie que wget peut  utiliser  en  utilisant  le  menu  Fichier,
               Import  et  Export,  Export  de cookies. Cela a été testé avec Internet Explorer 5 ; il n'est pas
               garanti que cela fonctionne avec des versions plus récentes.

           "Other browsers."
               Si vous utilisez un autre navigateur pour créer vos cookies, --load-cookies ne pourra fonctionner
               que si vous pouvez situer ou créer un fichier cookie dans le format Netscape  comme  attendu  par
               wget.

           Si  vous  ne  pouvez  pas  utiliser  --load-cookies,  il  devrait  exister  une alternative. Si votre
           navigateur prend en charge un « gestionnaire de cookie », vous pouvez l'utiliser pour visualiser  les
           cookies  utilisés  pour  accéder  au  site  que  vous mettez en miroir. Écrire le nom et la valeur du
           cookie, et donner des instructions manuellement à wget pour qu'il envoie ces cookies, en  contournant
           le gestionnaire de cookie « officiel » :

                   wget --no-cookies --header "Cookie: <nom>=<valeur>"

       --save-cookies fichier
           Sauvegarder  les  cookies dans fichier avant de quitter. Cela ne sauvegardera pas les cookies qui ont
           expirés ou qui n'ont pas de délai d'expiration (nommés les « cookies de session »), mais  voir  aussi
           --keep-session-cookies.

       --keep-session-cookies
           Lorsque  indiqué,  fait  que  --save-cookies  sauvegarde aussi les cookies de session. Les cookies de
           session ne sont normalement pas sauvegardés, car ils sont sensés être gardés en  mémoire  et  oubliés
           lorsque  vous  quittez  le  navigateur.  Les  sauvegarder est utile sur les sites qui nécessitent une
           identification ou une visite de la page d'accueil avant que vous puissiez accéder à certaines  pages.
           Avec  cette  option,  de  multiples  exécutions  de  wget sont considérées comme une seule session de
           navigateur tant que le site est concerné.

           Comme le format de fichier de cookie ne contient généralement pas les cookies de  session,  wget  les
           marque  avec  un  délai  d'expiration  de  0.  --load-cookies  de wget les reconnaît comme cookies de
           session, mais cela pourrait être confus pour d'autres navigateurs. Prenez en  compte  aussi  que  les
           cookies  chargés  ainsi  seront  traités  comme  d'autres cookies de session, donc si vous voulez que
           --save-cookies les conserve à nouveau, vous devez utiliser --keep-session-cookies à nouveau.

       --ignore-length
           Hélas, quelques serveurs HTTP (les programmes CGI,  pour  être  précis)  envoient  de  faux  en-têtes
           "Content-Length",  ce qui rend wget fou, car il pense que tout le document n'a pas été récupéré. Vous
           pouvez repérer ce syndrome si wget tente à plusieurs reprises  de  récupérer  le  même  document,  en
           affirmant à chaque fois que la connexion (par ailleurs normale) a été fermée au même instant précis.

           Avec cette option, wget ignorera l'en-tête "Content-Length", comme s'il n'avait jamais existé.

       --header=header-line
           Envoyer l'en-tête de ligne header-line avec le reste des en-têtes dans chaque requête HTTP. L'en-tête
           fourni  est  envoyé  tel quel, ce qui signifie qu'il doit contenir le nom et la valeur séparés par un
           deux-points, et ne doit pas contenir de passage à la ligne.

           Vous pouvez définir plus d'un en-tête additionnel en indiquant --header plus d'une fois.

                   wget --header='Accept-Charset: iso-8859-2' \
                        --header='Accept-Language: hr'        \
                          http://fly.srk.fer.hr/

           L'indication d'une chaîne vide comme valeur d'en-tête effacera tous les en-têtes précédemment définis
           par l'utilisateur.

           Avec wget 1.10, cette option peut être utilisée pour écraser les en-têtes qui autrement auraient  été
           générés  automatiquement. Cet exemple donne l'instruction à wget de se connecter à l'hôte local, mais
           en indiquant truc.machin dans l'en-tête "Host" :

                   wget --header="Host: truc.machin" http://localhost/

           Dans les versions de wget antérieures à 1.10, une telle utilisation de  --header  provoquait  l'envoi
           d'en-têtes en double.

       --compression=type
           Choisir le type de compression à utiliser. Les valeurs permises sont auto, gzip et none.

           Si  auto  ou  gzip  sont  indiqués,  wget demande au serveur de compresser le fichier en utilisant le
           format gzip de compression. Si le serveur compresse le fichier et  répond  avec  le  champ  d'en-tête
           "Content-Encoding" configuré de manière adéquate, le fichier sera décompressé automatiquement.

           Si  none  est  indiqué, wget ne demandera pas au serveur de compresser le fichier et ne décompressera
           aucune réponse du serveur. C'est le comportement par défaut.

           La prise en charge de la compression est actuellement expérimentale. Au cas  où  la  compression  est
           activée, merci de rapporter tout bogue à "bug-wget@gnu.org".

       --max-redirect=nombre
           Indique  le  nombre maximal de redirections à suivre pour une ressource. Par défaut, c'est 20, ce qui
           est généralement largement plus que suffisant. Cependant, en certaines occasions où  vous  voulez  en
           autoriser plus (ou moins), c'est l'option à utiliser.

       --proxy-user=utilisateur
       --proxy-password=mot_de_passe
           Indiquer le nom d'utilisateur utilisateur et le mot de passe mot_de_passe pour l'authentification sur
           un serveur mandataire. wget les encodera en utilisant le schéma d'authentification "basic".

           Des considérations de sécurité similaires à celles avec --http-password sont pertinentes ici aussi.

       --referer=url
           Inclure  l'en-tête « Referer: url » dans la requête HTTP. Cela est utile pour récupérer des documents
           avec un traitement de serveur qui suppose qu'ils sont toujours  récupérés  par  des  navigateurs  web
           interactifs  et ne s'en sortent correctement que lorsque le Referer est réglé sur l'une des pages qui
           pointent vers eux.

       --save-headers
           Sauvegarder les en-têtes envoyés par le serveur HTTP au fichier, précédant le  contenu  actuel,  avec
           une ligne vide comme séparateur.

       -U agent-string
       --user-agent=agent-string
           S'identifier comme agent-string pour le serveur HTTP.

           Le  protocole  HTTP  autorise  les  clients  à s'identifier eux-mêmes en utilisant un champ d'en-tête
           "User-Agent". Cela  permet  de  différencier  les  logiciels  WWW,  généralement  dans  des  buts  de
           statistiques  ou  pour  retracer  les  violations  de  protocole. Normalement, wget s'identifie comme
           Wget/version, où version est le numéro de la version actuelle de wget.

           Cependant, certains sites sont connus pour imposer la politique d'adaptation de la sortie en fonction
           des informations fournies par le "User-Agent". Bien que ce ne  soit  pas  une  si  mauvaise  idée  en
           théorie, il y a eu des abus par des serveurs refusant l'information à des clients autres que Netscape
           (historiquement),  ou  plus  fréquemment,  Microsoft  Internet  Explorer. Cette option vous permet de
           changer la ligne "User-Agent" fournie par wget. Utiliser cette option est  déconseillé,  à  moins  de
           savoir réellement ce que vous faites.

           Indiquer  un  user  agent  vide  avec  --user-agent=""  demandera  à wget de ne pas envoyer d'en-tête
           "User-Agent" dans les requêtes HTTP.

       --post-data=chaîne
       --post-file=fichier
           Utiliser POST comme méthode pour toutes les requêtes HTTP et les envoyer dans le  corps  de  requêtes
           désiré.  --post-data envoie chaîne comme données, alors que --post-file envoie le contenu de fichier.
           À part cela, ces options fonctionnent exactement  de  la  même  manière.  En  particulier,  les  deux
           s'attendent  à  du  contenu  sous  la  forme  "clé1=valeur1&clé2=valeur2",  avec un encodage-pourcent
           (percent encoding) des caractères spéciaux ; la seule différence est que  l'une  attend  son  contenu
           comme  paramètre  de  ligne  de  commande et l'autre accepte son contenu d'un fichier. En particulier
           --post-file n'est pas fait pour transmettre des fichiers sous  forme  de  pièces  jointes  :  ceux-là
           doivent apparaitre comme des données "clé=valeur" (avec l'encodage-pourcent adéquat) juste comme tout
           le reste. wget ne prend pas actuellement en charge "multipart/form-data" pour transmettre des données
           POST,  mais  seulement  "application/x-www-form-urlencoded".  Seule  une  des  options --post-data ou
           --post-file doit être spécifiée.

           Veuillez noter que wget n'exige pas que le contenu soit de la forme  "clé1=valeur1&clé2=valeur2",  et
           ne  le  teste  pas non plus. wget transmettra simplement toutes les données qui lui sont fournies. La
           plupart des serveurs s'attendent toutefois à ce que les données POST soient dans le format  ci-dessus
           lors du traitement des formulaires HTML.

           Lors  de l'envoi d'une requête POST à l'aide de l'option --post-file, wget traite le fichier comme un
           fichier binaire et envoie chaque caractère de la requête POST sans supprimer les caractères de fin de
           ligne ou de saut de page. Tout autre caractère de contrôle dans le texte sera aussi envoyé  tel  quel
           dans la requête POST.

           Merci  de  prendre  en  compte  que  wget doit connaître la taille des données POST à l'avance. C'est
           pourquoi l'argument à "--post-file" doit être un fichier normal ; spécifier une FIFO ou quelque chose
           comme /dev/stdin ne fonctionnera pas. La façon de contourner cette limite inhérente à HTTP/1.0  n'est
           pas  très claire. Bien que HTTP/1.1 introduise le transfert morcelé qui ne nécessite pas de connaître
           la longueur à l'avance, un client ne peut pas utiliser le tronçonnage avant de savoir qu'il  parle  à
           un  serveur  HTTP/1.1.  Et  il  ne  peut pas le savoir avant d'avoir reçu une réponse, qui a son tour
           nécessite qu'une requête ait abouti (le problème de l'œuf et de la poule).

           Note : Depuis la version 1.15 si wget  est  redirigé  après  que  la  requête  POST  a  terminé,  son
           comportement  dépendra  du  code  de  la  réponse  renvoyé par le serveur. Dans le cas d'un 301 Moved
           Permanently, 302 Moved Temporarily ou 307  Temporary  Redirect,  wget  en  accord  avec  la  RFC2616,
           continuera à envoyer une requête POST. Dans le cas où un serveur veut que le client change la méthode
           de requête lors de la redirection, il devrait envoyer un code de réponse 303 See Other.

           Cet  exemple  montre  comment  se  connecter  à  un  serveur en utilisant POST et ensuite procéder au
           téléchargement des  pages  souhaitées,  vraisemblablement  accessibles  uniquement  aux  utilisateurs
           autorisés :

                   # Se connecter au serveur. Cela ne peut être fait qu'une fois.
                   wget --save-cookies cookies.txt \
                        --post-data 'user=truc&password=machin' \
                        http://example.com/auth.php

                   # Maintenant prendre la ou les pages qui nous intéressent.
                   wget --load-cookies cookies.txt \
                        -p http://example.com/interesting/article.php

           Si  le  serveur  utilise  des  cookies  de  session  pour tracer l'authentification de l'utilisateur,
           l'exemple ci-dessus ne fonctionnera pas car --save-cookies  ne  les  sauvegardera  pas  (comme  aucun
           navigateur)  et  le  fichier cookies.txt sera vide. Dans ce cas, utiliser --keep-session-cookies avec
           --save-cookies pour forcer la sauvegarde des cookies de session.

       --method=HTTP-Method
           Pour les besoins des scripts RESTful, wget permet l'envoi d'autres méthodes HTTP sans avoir besoin de
           les définir explicitement en utilisant --header=Header-Line. wget utilisera n'importe  quelle  chaîne
           qui lui sera passé après --method comme méthode HTTP pour le serveur.

       --body-data=chaîne-données
       --body-file=Fichier-données
           Doit  être  positionné lorsque des données additionnelles nécessitent d'être envoyées au serveur avec
           la méthode préconisée par l'utilisation de --method. --body-data envoie  une  chaîne  comme  données,
           alors que --body-file envoie le contenu de fichier. Autrement, ils fonctionnent exactement pareil.

           Actuellement,  --body-file ne transmet pas les fichiers comme un tout. wget ne prend actuellement pas
           en   charge   "multipart/form-data"   pour   la   transmission    de    données,    mais    seulement
           "application/x-www-form-urlencoded". Dans le futur, cela devrait changer pour que wget puisse envoyer
           le  fichier  --body-file comme un fichier complet, au lieu d'envoyer son contenu au serveur. Veuillez
           prendre en compte que wget nécessite de connaître le contenu des données  BODY  à  l'avance  et  donc
           l'argument  de  --body-file devrait être un fichier ordinaire. Voir --post-file pour des explications
           plus détaillées. Une seule des options --body-data et --body-file devra être spécifiée.

           Si wget est redirigé après la fin de la requête, wget suspend la  méthode  en  cours  et  envoie  une
           requête GET jusqu'à ce que la redirection soit terminée. Cela est vrai pour tous les codes de réponse
           à l'exception de 307 Temporary Redirect qui est utilisé pour indiquer explicitement que la méthode de
           requête  ne  devrait  pas changer. Une autre exception est quand la méthode est positionnée à "POST",
           auquel cas les règles de redirection indiquées avec --post-data sont suivies.

       --content-disposition
           Si l'option est positionnée, la prise en charge expérimentale (pas  complètement  fonctionnelle)  des
           en-têtes  "Content-Disposition"  est  activée.  Cela  peut  actuellement entraîner des allers-retours
           supplémentaires vers le serveur pour une requête "HEAD", et souffre de quelques bogues connus,  c'est
           pourquoi ce n'est pas actuellement activé par défaut.

           Cette  option  est  utile  pour  quelques programmes de téléchargement CGI qui utilisent des en-têtes
           "Content-Disposition" pour décrire à quoi devrait ressembler le nom d'un fichier téléchargé.

           Quand il est combiné avec --metalink-over-http  et  --trust-server-names,  un  fichier  Content-Type:
           application/metalink4+xml est nommé en utilisant le champ de nom de fichier de "Content-Disposition",
           s'il est disponible.

       --content-on-error
           Si cela est activé, wget ne sautera pas le contenu lorsque le serveur répond avec un code d'état http
           qui indique une erreur.

       --trust-server-names
           Si  cela  est  activé,  lors  d'une  redirection,  le  nom  du  fichier  local sera basé sur l'URL de
           redirection. Par défaut le nom du fichier local est basé sur l'URL d'origine.  Lors  d'une  recherche
           récursive,  cela  peut  être utile car dans de nombreux sites web, les URL redirigées correspondent à
           une structure de fichiers sous-jacente, alors que les URL de liens ne le font pas.

       --auth-no-challenge
           Si cette option est passée,  wget  enverra  une  information  d'authentification  HTTP  basique  (nom
           d'utilisateur  et  mot  de  passe  en texte clair) pour toutes les requêtes, comme le fait par défaut
           wget 1.10.2 et antérieurs.

           L'utilisation de cette option est déconseillée, et est destinée uniquement à la prise  en  charge  de
           quelques  serveurs  obscurs, qui n'envoient jamais d'authentification par question-réponse HTTP, mais
           acceptent les informations d'authentification non sollicitées, disons, en plus de  l'authentification
           par formulaire.

       --retry-on-host-error
           Considérer  les  erreurs  de l'hôte, telles que « Échec temporaire dans la résolution du nom », comme
           des erreurs non fatales et transitoires.

       --retry-on-http-error=code[,code,...]
           Considérer les codes de réponse HTTP donnés comme des erreurs non-fatales  et  transitoires.  Fournir
           une  liste  de  codes de réponse HTTP à trois chiffres séparés par des virgules comme argument. Utile
           pour travailler dans certaines circonstances où les réessais sont nécessaires,  mais  où  le  serveur
           répond  avec  un  code  d'erreur que wget ne réessaye pas normalement. Ces erreurs devraient être 503
           (Service non disponible) et 429 (Trop de requêtes). Les tentatives activées  par  cette  option  sont
           effectuées  sous  réserve  des  limitations  normales  de  wget  en matière de délais et de nombre de
           tentatives.

           L'utilisation de cette option n'est prévue que pour  des  cas  d'utilisation  particuliers  et  n'est
           généralement  pas  recommandée,  car  elle peut forcer des tentatives même dans les cas où le serveur
           essaie réellement de réduire sa charge. Veuillez l'utiliser à bon escient et seulement si vous  savez
           ce que vous faites.

   Options HTTPS (SSL/TLS)
       Pour  la  prise  en  charge  des  téléchargements  HTTP (HTTPS) chiffrés, wget doit être compilé avec une
       bibliothèque SSL externe. Habituellement par défaut c'est GnuTLS. En plus, wget  prend  aussi  en  charge
       HSTS (HTTP  Strict Transport Security). Si wget est compilé sans la prise en charge de SSL, aucune de ces
       options n'est disponible.

       --secure-protocol=protocole
           Choisir le protocole de sécurité à utiliser. Les valeurs autorisées sont auto, SSLv2,  SSLv3,  TLSv1,
           TLSv1_1,  TLSv1_2,  TLSv1_3  et PFS. Si auto est utilisé, le choix est donné à la bibliothèque SSL de
           choisir le protocole approprié automatiquement, qui s'achève par l'envoi d'un salut TLSv1.  C'est  le
           comportement par défaut.

           Indiquer  SSLv2,  SSLv3,  TLSv1,  TLSv1_1,  TLSv1_2  ou  TLSv1_3  force  l'utilisation  du  protocole
           correspondant. Cette fonction est utile lorsque l'on s'adresse à des implémentations de  serveur  SSL
           anciennes  et  boguées  qui  rendent  le  choix de la version correcte du protocole difficile pour la
           bibliothèque SSL sous-jacente. Heureusement, de tels serveurs sont assez rares.

           La spécification de PFS impose l'utilisation des  suites  de  chiffrement  dites  «  Perfect  Forward
           Security  ».  Pour  faire court, PFS ajoute une sécurité en créant une clé à usage unique pour chaque
           connexion SSL. Cela a un impact un peu plus important sur le  CPU  du  client  et  du  serveur.  Nous
           utilisons  des  chiffrements  connus pour être sûrs (par exemple, pas de MD4) et le protocole TLS. Ce
           mode exclut également de manière explicite les méthodes d'échange de clés non SFP, telles que RSA.

       --https-only
           En mode récursif, seuls les liens HTTPS sont suivis.

       --ciphers
           Définir la chaîne  de  listes  de  chiffrement.  Normalement  cette  chaîne  définit  les  suites  de
           chiffrement  et  autres  options  SSL/TLS  que  l'utilisateur  voudrait  utiliser,  avec  un ordre de
           préférence (GnuTLS l'appelle « chaîne prioritaire »). Cette  chaîne  sera  envoyée  littéralement  au
           moteur  SSL/TLS  (OpenSSL  ou  GnuTLS)  et  donc  son  format et sa syntaxe en dépendront. wget ne la
           traitera ni ne la manipulera en aucune façon. Se référer à la documentation d'OpenSSL  ou  de  GnuTLS
           pour de plus amples informations.

       --no-check-certificate
           Ne  pas  vérifier  le certificat du serveur auprès des autorités de certification disponibles. Ne pas
           requérir non plus que le nom d'hôte de l'URL corresponde au nom commun présenté par le certificat.

           Par défaut, wget 1.10 vérifie  le  certificat  du  serveur  auprès  des  autorités  de  certification
           reconnues, cassant l'établissement de la liaison SSL et stoppant le téléchargement si la vérification
           échoue. Aussi, même si cela procure des téléchargements plus sûrs, cela casse l'interopérabilité avec
           certains  sites  qui  fonctionnent  avec  des  versions  précédentes de wget, en particulier ceux qui
           utilisent des  certificats  auto-signés,  expirés  ou  non  valables.  Cette  option  force  le  mode
           «  insecure » qui transforme les erreurs de vérification de certificats en avertissements, permettant
           ainsi de poursuivre.

           Si vous rencontrez des erreurs « certificate verification » ou qui indiquent  «  le  nom  courant  ne
           correspond  pas  au  nom  d'hôte  demandé  »,  vous  pouvez utiliser cette option pour outrepasser la
           vérification. N'utilisez cette option que si vous êtes convaincu par un autre moyen de l'authenticité
           du site, ou si vraiment peu vous importe la validité de son certificat. C'est  presque  toujours  une
           mauvaise  idée  de ne pas vérifier les certificats lors de la transmission de données confidentielles
           ou importantes. Pour les certificats auto-signés, vous devriez  télécharger  le  certificat  pour  le
           vérifier  au  lieu  de  forcer  en  mode non sécurisé. Si vous êtes vraiment sûr de ne vouloir aucune
           vérification de certificat, vous pouvez indiquer --check-certificate=quiet pour dire à wget de ne pas
           afficher d'avertissements au sujet des certificats non valables, bien que dans la plupart des cas  ce
           soit la mauvaise chose à faire.

       --certificate=fichier
           Utiliser  le certificat du client stocké dans fichier. Cela est nécessaire pour les serveurs qui sont
           configurés pour demander les certificats des clients qui s'y connectent. Normalement,  un  certificat
           n'est pas demandé et cette option est optionnelle.

       --certificate-type=type
           Indiquer  le type de certificat du client. Les valeurs autorisées sont PEM (par défaut) et DER, aussi
           connu comme ASN1.

       --private-key=fichier
           Lire la clé privée dans fichier. Cela vous permet de fournir la clé privée dans un fichier séparé  du
           certificat.

       --private-key-type=type
           Indiquer le type de la clé privée. Les valeurs acceptées sont PEM (par défaut) et DER.

       --ca-certificate=fichier
           Utiliser  fichier  comme  fichier  contenant  le  paquet  d'autorités  de certification (« CA ») pour
           vérifier les pairs. Les certificats doivent être au format PEM.

           Sans cette option wget cherche les certificats CA aux endroits spécifiés par le système, choisis  par
           OpenSSL lors de son installation.

       --ca-directory=répertoire
           Indiquer  le  répertoire  contenant  les  certificats  CA  au  format PEM. Chaque fichier contient un
           certificat CA, et le nom du fichier est basé sur une valeur de hachage dérivée  du  certificat.  Cela
           est  réalisé  en  traitant  un  répertoire  de  certificats  avec l'utilitaire "c_rehash" fourni avec
           OpenSSL. L'utilisation de --ca-directory est plus efficace  que  --ca-certificate  lorsque  plusieurs
           certificats sont installés car cela permet à wget de récupérer les certificats sur demande.

           Sans  cette option wget cherche les certificats CA aux endroits spécifiés par le système, choisis par
           OpenSSL lors de son installation.

       --crl-file=fichier
           Indiquer un fichier CRL dans fichier. Cela est nécessaire  pour  les  certificats  révoqués  par  les
           Autorités de Certifications.

       --pinnedpubkey=file/hashes
           Dire  à  wget  d'utiliser la clé publique indiquée (ou les hachages) pour vérifier le pair. Cela peut
           être un chemin qui contient une seule clé publique au format PEM ou DER, ou tout  nombre  de  hachage
           sha256 encodé en base64 précédé de « sha256 » et séparé par « ; »

           Lors  de  la  négociation  d'une  connexion  TLS ou SSL, le serveur envoie un certificat prouvant son
           identité. Une clé publique est extraite de ce certificat et si cela ne correspond  pas  exactement  à
           une  des  clés  publique  fournies  à  cette  option,  wget annulera la connexion avant l'envoi ou la
           réception de données.

       --random-file=fichier
           [OpenSSL et LibreSSL seulement] Utiliser fichier comme source de données aléatoires  pour  ensemencer
           le générateur de nombres pseudo-aléatoires sur les systèmes sans /dev/urandom.

           Sur de tels systèmes, la bibliothèque SSL a besoin d'une source extérieure de données aléatoires pour
           s'initialiser. Les données aléatoires pouvaient être fournies par EGD (voir --egd-file ci-dessous) ou
           lues  sur une source extérieure spécifiée par l'utilisateur. Si cette option n'est pas indiquée, wget
           cherchera les données aléatoires dans $RANDFILE ou, s'il n'est pas défini, dans $HOME/.rnd.

           Si vous obtenez l'erreur « Could not seed OpenSSL PRNG; disabling SSL »,  vous  devriez  fournir  des
           données aléatoires en utilisant l'une des méthodes décrites ci-dessus.

       --egd-file=fichier
           [seulement pour OpenSSL] Utiliser fichier comme socket EGD. EGD signifie Entropy Gathering Daemon, un
           programme  de  l'espace  utilisateur  qui  collecte  des données à partir de diverses sources système
           imprévisibles et les met à la disposition d'autres programmes qui pourraient  en  avoir  besoin.  Les
           logiciels  de chiffrement, tels que la bibliothèque SSL, ont besoin de sources d'aléas non répétitifs
           pour ensemencer le générateur de nombres aléatoires utilisé pour produire des  clés  cryptographiques
           solides.

           OpenSSL  autorise  l'utilisateur  à  indiquer  sa  propre  source d'entropie en utilisant la variable
           d'environnement "RAND_FILE". Si cette variable n'est pas définie, ou si le fichier indiqué ne produit
           pas assez de caractères aléatoires, OpenSSL lira les données aléatoires  du  socket  EGD  indiqué  en
           utilisant cette option.

           Si  cette option n'est pas indiquée (et que la commande équivalente de démarrage n'est pas utilisée),
           EGD n'est jamais contacté. EGD n'est pas nécessaire sur les systèmes Unix modernes  qui  prennent  en
           charge /dev/urandom.

       --no-hsts
           wget  prend  en charge HSTS (HTTP Strict Transport Security, RFC 6797) par défaut. Utiliser --no-hsts
           pour faire que wget se comporte comme un UA non compatible avec HSTS. Comme conséquence wget ignorera
           tous  les  en-têtes  "Strict-Transport-Security",  et  ne  voudra  appliquer  aucune  politique  HSTS
           existante.

       --hsts-file=fichier
           Par  défaut,  wget stocke sa base de données HSTS dans ~/.wget-hsts. Vous pouvez utiliser --hsts-file
           pour écraser cela. wget utilisera le fichier fourni comme base de données HSTS. Un tel  fichier  doit
           être  conforme  au  format  de base de données HSTS utilisé par wget. Si wget ne peut pas analyser le
           fichier fourni, le comportement est indéterminé.

           La base de données HSTS de wget est un fichier en texte brut. Chaque ligne contient une  entrée  HSTS
           (c'est-à-dire  le site qui a fourni un en-tête "Strict-Transport-Security" et a néanmoins indiqué une
           politique concrète HSTS à appliquer). Les lignes commençant par un croisillon ("#") sont ignorées par
           wget. Veuillez noter qu'en dépit de cette facilité de lecture, la création manuelle  de  la  base  de
           données HSTS n'est généralement pas une bonne idée.

           Une entrée de ligne HSTS consiste en plusieurs champs séparés par un ou plusieurs espaces blancs :

           "<hostname> SP [<port>] SP <include subdomains> SP <created> SP <max-age>"

           Les  champs  hostname  et  port  indiquent  le  nom  de l'hôte et le port sur lequel est appliquée la
           politique HSTS indiquée. Le champ port peut être zéro, et le sera, dans la  majorité  des  cas.  Cela
           signifie  que  le  numéro de port ne sera pas pris en compte lors de la décision d'appliquer telle ou
           telle politique HSTS pour une requête donnée (seul le nom  d'hôte  sera  évalué).  Lorsque  port  est
           différent  de  zéro,  à  la  fois  le  nom d'hôte et le port seront évalués et la politique HSTS sera
           appliquée si les deux  correspondent.  Cette  option  a  été  incluse  à  des  fins  de  test  et  de
           développement  surtout. La suite de tests de wget (dans testenv/) crée des bases de données HSTS avec
           des ports explicites dans  le  but  d'assurer  un  comportement  correct  à  wget.  L'utilisation  de
           politiques  HSTS  sur  des  ports  autres  que ceux par défaut est déconseillée par la RFC 6797 (voir
           l'appendice B « Differences between HSTS Policy and Same-Origin Policy »).  Ainsi,  cette  option  ne
           devrait pas être utilisée dans des environnements en production et le port sera typiquement zéro. Les
           trois  derniers  champs  font  ce qu'on attend d'eux. Le champ include_subdomains peut être 1 ou 0 et
           indique si les sous-domaines du domaine cible devraient aussi  faire  partie  de  la  politique  HSTS
           donnée.  Les  champs  create et max-age portent l'horodatage de la création de l'entrée (comme vu par
           wget) et la valeur définie par HSTS « max-age », qui définit  combien  de  temps  la  politique  HSTS
           devrait  rester activée, mesuré en secondes écoulées depuis le délai stocké dans created. Une fois ce
           temps écoulé, la politique HSTS ne sera plus valable  et  sera  finalement  enlevée  de  la  base  de
           données.

           Si  vous  fournissez  votre propre base de données HSTS à l'aide de --hsts-file, sachez que wget peut
           modifier le fichier fourni si un changement se produit entre les politiques HSTS  demandées  par  les
           serveurs distants et celles du fichier. Quand wget se termine, il met effectivement à jour la base de
           données HSTS en réécrivant le fichier de base de données avec les nouvelles entrées.

           Si  le  fichier  fourni  n'existe pas, wget en créera un. Ce fichier contiendra les nouvelles entrées
           HSTS. Si aucune entrée HSTS n'a été crée (aucun en-tête "Strict-Transport-Security"  n'a  été  envoyé
           par  aucun des serveurs) alors aucun fichier n'est créé, même pas un vide. Ce comportement s'applique
           aussi au fichier de base de données par défaut (~/.wget-hsts) : il ne sera  pas  créé,  sauf  par  un
           serveur qui force la politique HSTS.

           L'attention  est  mise sur le fait de ne pas écraser de possibles changements faits par d'autres wget
           au même moment sur la base de données HSTS. Avant de déposer les entrées HSTS mises à  jour  dans  le
           fichier, wget le relit et fusionne les modifications.

           Il  est  déconseillé  d'utiliser  une  base  de  données  HSTS  personnalisée ou de modifier une base
           existante. Pour plus d'informations sur les menaces de sécurité potentielles  découlant  d'une  telle
           pratique,  consultez  la  section  14 « Considérations de sécurité » de la RFC 6797 en particulier la
           section 14.9 « Manipulation créative du stockage de politique HSTS  ».

       --warc-file=fichier
           Utiliser fichier comme fichier WARC de destination.

       --warc-header=chaîne
           Utiliser chaîne dans l'enregistrement warcinfo.

       --warc-max-size=taille
           Définir la taille maximale des fichiers WARC à taille.

       --warc-cdx
           Écrire les fichiers index CDX.

       --warc-dedup=fichier
           Ne pas conserver les documents répertoriés dans ce fichier CDX.

       --no-warc-compression
           Ne pas compresser les fichiers WARC avec GZIP.

       --no-warc-digests
           Ne pas calculer les sommes de contrôle SHA1.

       --no-warc-keep-log
           Ne pas stocker le fichier journal dans un enregistrement WARC.

       --warc-tempdir=répertoire
           Indiquer l'emplacement des fichiers temporaires créés par le rédacteur WARC.

   Options FTP
       --ftp-user=utilisateur
       --ftp-password=mot_de_passe
           Indiquer le nom de l'utilisateur utilisateur et le mot de passe mot_de_passe sur un serveur FTP. Sans
           cela ou l'option de démarrage adéquate, le mot de passe par défaut est  -wget@,  normalement  utilisé
           pour un FTP anonyme.

           Le nom d'utilisateur et le mot de passe peuvent être indiqués différemment dans l'URL. Chaque méthode
           révèle  votre  mot de passe à quiconque se donne la peine d'exécuter "ps". Pour empêcher que vos mots
           de passe soient vus, stockez les dans .wgetrc ou .netrc, et assurez-vous de protéger ces fichiers des
           autres utilisateurs avec "chmod". Si les mots de passe sont très importants, vous ne devriez pas  les
           laisser  traîner  dans  ces  fichiers non plus (éditez les fichiers et effacez les après que wget ait
           commencé le téléchargement).

       --no-remove-listing
           Ne pas supprimer les fichiers temporaires .listing générés par les  récupérations  FTP.  Normalement,
           ces  fichiers  contiennent  les  listings  bruts  de  répertoires  reçus des serveurs FTP. Ne pas les
           supprimer peut être utile pour des objectifs de  débogage,  ou  quand  vous  voulez  être  facilement
           capable  de vérifier le contenu des répertoires du serveur distant (par exemple, pour vérifier que le
           miroir que vous lancez est complet).

           Remarquez que même si wget écrit dans un nom de fichier connu pour  ce  fichier,  ce  n'est  pas  une
           faille  de  sécurité  dans  le  scénario d'un utilisateur faisant de .listing un lien symbolique vers
           /etc/passwd ou autre et demandant à "root" d'exécuter wget dans son  répertoire.  Selon  les  options
           utilisées,   soit   wget   refusera   d'écrire   dans   .listing,   faisant  échouer  l'opération  de
           globbing/récursion/horodatage, soit le lien symbolique sera  supprimé  et  remplacé  par  le  fichier
           .listing réel, soit le listing sera écrit dans un fichier .listing.numéro.

           Même dans cette situation, cela n'est pas un problème, bien que, "root" ne devrait jamais lancer wget
           dans  un  répertoire  utilisateur  non  sécurisé. Un utilisateur pourrait faire quelque chose d'aussi
           simple qu'un lien de index.html à /etc/passwd et demander à "root" de lancer wget avec -N  ou  -r  et
           ainsi écraser le fichier.

       --no-glob
           Désactiver  le  globbing  FTP.  Globbing  (englober)  réfère  à  l'utilisation de caractères spéciaux
           (jokers) à la façon du shell, tels que *, ?, [ et ] pour retrouver plus d'un  fichier  dans  le  même
           répertoire en une fois, comme :

                   wget ftp://gnjilux.srk.fer.hr/*.msg

           Par  défaut,  la  fonction  de globbing est activée si l'URL contient un caractère de globbing. Cette
           option peut être utilisée pour activer ou désactiver le globbing de manière permanente.

           Vous devrez peut-être mettre entre guillemets  l'URL  pour  le  protéger  de  l'expansion  par  votre
           interpréteur  de  commandes.  Le  globbing fait que wget cherche une liste de répertoires, ce qui est
           spécifique au système. C'est pourquoi cela ne fonctionne actuellement qu'avec les serveurs  FTP  Unix
           (et ceux qui émulent la sortie "ls" d'Unix).

       --no-passive-ftp
           Désactiver  l'utilisation  du mode de transfert FTP passif. Le mode FTP passif implique que le client
           se connecte au serveur pour établir la connexion de données plutôt que l'inverse.

           Si la machine est connectée directement à Internet, FTP actif et passif devraient  fonctionner  aussi
           bien  l'un que l'autre. Derrière la plupart des configurations de pare-feu et de NAT, le FTP passif a
           plus de chance de fonctionner. Cependant, dans certaines configurations rares  de  pare-feu,  le  FTP
           actif fonctionne alors que le FTP passif ne fonctionne pas. Si vous pensez que c'est le cas, utilisez
           cette option, ou définissez "passive_ftp=off" dans votre fichier init.

       --preserve-permissions
           Préserver les permissions de fichiers distants au lieu des permissions définies par umask.

       --retr-symlinks
           Par  défaut,  lors  de  la  récupération  récursive  des répertoires FTP et qu'un lien symbolique est
           rencontré, le lien symbolique est suivi et les fichiers pointés sont récupérés. Actuellement, wget ne
           suit pas les liens symboliques pour télécharger les répertoires récursivement, bien que cette  option
           pourrait être ajoutée dans le futur.

           Lorsque  --retr-symlinks=no  est indiqué, le fichier pointé n'est pas téléchargé. À la place, un lien
           symbolique correspondant est créé sur le système de fichiers local. Le fichier  pointé  ne  sera  pas
           récupéré  sauf si la récupération récursive le rencontre autrement et le télécharge de toutes façons.
           Cette option pose un risque de sécurité où un serveur FTP malveillant pourrait amener wget  à  écrire
           dans  des  fichiers  situés  en  dehors  des  répertoires  prévus  par le biais d'un fichier .LISTING
           spécialement contrefait.

           Notez que cette option n'a aucun effet lors de la récupération d'un  fichier  (pas  d'un  répertoire)
           parce  qu'il  a  été  indiqué  dans  la ligne de commandes plutôt que trouvé par récursion. Les liens
           symboliques sont toujours suivis dans ce cas.

   Options FTPS
       --ftps-implicit
           Cette option indique à wget d'utiliser FTPS implicitement.  FTPS  implicite  consiste  à  initialiser
           SSL/TLS au tout début de la connexion de contrôle. Cette option n'envoie pas de commande "AUTH TLS" :
           elle  présume que le serveur parle FTPS et démarre directement une connexion SSL/TLS. Si la tentative
           réussit, la session continue juste comme FTPS normal ("PBSZ"  et  "PROT"  sont  envoyés,  etc).  FTPS
           implicite  n'est  plus  un  prérequis  pour les implémentations FTPS, donc beaucoup de serveurs ne le
           prennent pas en charge. Si --ftps-implicit est passé et  qu'aucun  numéro  de  port  explicite  n'est
           indiqué,  le  port  par défaut pour le FTPS implicite, 1990, sera utilisé, au lieu du port par défaut
           pour le FTPS « normal » (explicite), qui est le même que celui pour FTP, 21.

       --no-ftps-resume-ssl
           Ne pas reprendre la session SSL/TLS dans le canal de données. Lors du démarrage  d'une  connexion  de
           données,  wget  essaiera  de  reprendre la session SSL/TLS précédemment démarrée dans la connexion de
           contrôle. La reprise de session SSL/TLS évite d'effectuer une poignée de main entièrement nouvelle en
           réutilisant les paramètres SSL/TLS  d'une  session  précédente.  Habituellement,  les  serveurs  FTPS
           souhaitent  cela,  aussi  wget  le  fait par défaut. Dans de rares circonstances néanmoins, il serait
           possible de souhaiter démarrer une  session  SSL/TLS  entièrement  nouvelle  à  chaque  connexion  de
           données. C'est à cela que --no-ftps-resume-ssl est destiné.

       --ftps-clear-data-connection
           Toutes  les  connexions  de  données  seront  en texte brut. Seule la connexion de contrôle sera sous
           SSL/TLS. wget enverra une commande "PROT C" pour réaliser cela, ce qui  doit  être  approuvé  par  le
           serveur.

       --ftps-fallback-to-ftp
           Revenir  à  FTP  si FTPS n'est pas pris en charge par le serveur cible. Pour des raisons de sécurité,
           cette option n'est pas déclarée par défaut. Le comportement  par  défaut  est  de  quitter  avec  une
           erreur.  Si un serveur ne répond pas avec succès à la commande initiale "AUTH TLS", ou dans le cas du
           FTPS, implicite si la tentative de connexion SSL/TLS initiale est rejetée, on  considère  ce  serveur
           comme ne prenant pas en charge FTPS.

   Options de récupération récursive
       -r
       --recursive
           Activer la récupération récursive. La profondeur maximale par défaut est 5.

       -l profondeur
       --level=profondeur
           Définir  le  nombre  maximal  de sous-répertoires dans lesquels wget fera une récursion à profondeur.
           Dans le but d'éviter de télécharger de très grands sites web, lors de l'utilisation de la  récursion,
           cela est limité à une profondeur de 5 par défaut, c'est à dire qu'il traversera au plus 5 répertoires
           en profondeur en commençant à l'URL fournie. Indiquer -l 0 ou -l inf pour une profondeur de récursion
           infinie.

                   wget -r -l 0 http://<site>/1.html

           Idéalement,  on  pourrait  s'attendre à ce que cela ne télécharge que 1.html, mais malheureusement ce
           n'est pas le cas, car -l 0 est  équivalent  à  -l  inf  (ce  qui  est  la  récursion  infinie).  Pour
           télécharger  une  seule  page  HTML  (ou  quelques  pages),  indiquez les sur la ligne de commande et
           délaissez -r et -l. Pour télécharger les éléments essentiels à l'affichage  d'une  seule  page  HTML,
           consulter page requisites.

       --delete-after
           Cette  option  indique  à wget de supprimer chaque fichier qu'il télécharge, après l'avoir fait. Elle
           est utile pour précharger des pages populaires à travers un mandataire, par exemple :

                   wget -r -nd --delete-after http://toto.com/~page/populaire/

           L'option -r est pour récupérer récursivement et -nd pour ne pas créer de répertoires.

           Remarquez que --delete-after efface les fichiers sur la machine locale. Cela n'émet pas  la  commande
           DELE  pour  les  sites FTP distants, par exemple. Notez aussi que lorsque --delete-after est indiqué,
           --convert-links est ignoré, ainsi les fichiers .orig ne sont tout simplement  pas  créés  en  premier
           lieu.

       -k
       --convert-links
           Une  fois  le  téléchargement  terminé,  convertir les liens du document pour les rendre adaptés à un
           affichage local. Cela concerne non seulement les hyperliens visibles,  mais  aussi  toute  partie  du
           document qui renvoie à un contenu externe, comme les images intégrées, les liens vers des feuilles de
           style, les hyperliens vers du contenu non HTML, etc.

           Chaque lien sera changé d'une manière ou d'une autre :

           -   Les liens vers les fichiers qui ont été téléchargés par wget seront modifiés pour faire référence
               au fichier qu'ils pointent comme lien relatif.

               Exemple  :  si le fichier téléchargé /toto/doc.html pointe vers /machin/img.gif aussi téléchargé,
               alors le lien dans doc.html sera  modifié  pour  pointer  vers  ../machin/img.gif.  Ce  genre  de
               transformation fonctionne pour relier des combinaisons arbitraires de répertoires.

           -   Les liens des fichiers qui n'ont pas été téléchargés par wget seront modifiés pour inclure le nom
               d'hôte et le chemin absolu de l'emplacement vers lequel ils pointent.

               Exemple  :  si  le  fichier  téléchargé  /toto/doc.html  pointe  vers  /machin/img.gif  (ou  vers
               ../machin/img.gif),  alors   le   lien   dans   doc.html   sera   modifié   pour   pointer   vers
               http://nomdhôte/machin/img.gif.

           De  ce  fait, la navigation locale fonctionne de manière fiable : si un fichier lié a été téléchargé,
           le lien renverra à son nom local ; s'il n'a pas été  téléchargé,  le  lien  renverra  à  son  adresse
           Internet  complète  plutôt  que  de  présenter  un  lien  brisé. Le fait que les anciens liens soient
           convertis en liens relatifs garantit que vous pouvez déplacer la hiérarchie téléchargée vers un autre
           répertoire.

           Notez que ce n'est qu'à  la  fin  du  téléchargement  que  wget  peut  savoir  quels  liens  ont  été
           téléchargés.  De  ce  fait,  le  travail  effectué  par  -k  sera  réalisé  à  la  fin  de  tous  les
           téléchargements.

       --convert-file-only
           Cette option ne convertit que la partie nom de fichier des URL, laissant le reste des  URL  intactes.
           La  partie  nom  de fichier réfère parfois au « nom de base », mais nous éludons ce terme ici pour ne
           pas créer de confusion.

           Cela fonctionne particulièrement bien en conjonction avec --adjust-extension,  même  si  ce  couplage
           n'est pas appliqué. Cela est utile pour alimenter les caches Internet avec des fichiers téléchargés à
           partir de différents hôtes.

           Exemple  :  si  un  lien  pointe  vers //toto.com/machin.cgi?xyz avec --adjust-extension activé et sa
           destination locale étant prévue d'être  /toto.com/machin.cgi?xyz.css,  alors  le  lien  devrait  être
           converti  en  //toto.com/machin.cgi?xyz.css.  Remarquez  que  seule  la  partie  nom de fichier a été
           modifiée. Le reste de l'URL n'a pas été touché, y compris le chemin de réseau ("//")  qui  aurait  dû
           autrement être traité par wget et converti en schéma effectif (c'est à dire "http://").

       -K
       --backup-converted
           Lors de la conversion d'un fichier, sauvegarder la version d'origine avec un suffixe .orig. Cela a un
           effet sur le comportement de -N.

       -m
       --mirror
           Activer  les  options  adaptées  à  la  création  de  mirroir.  Cette  option  active la récursion et
           l'horodatage, définit la profondeur de la récursion infinie et garde les listes  du  répertoire  FTP.
           C'est actuellement l'équivalent de -r -N -l inf --no-remove-listing.

       -p
       --page-requisites
           Cette  option  force  wget  à  télécharger  tous  les  fichiers  qui  sont  nécessaires pour afficher
           correctement une page HTML donnée. Cela comprend des  éléments  tels  que  les  images  et  les  sons
           intégrés, ainsi que les feuilles de style référencées.

           Normalement,  lors du téléchargement d'une seule page HTML, les documents nécessaires à son affichage
           ne sont pas téléchargés. Utiliser -r associé à -l peut aider, comme wget ne distingue pas d'ordinaire
           les documents externes de ceux internes, on se retrouve généralement avec des « documents feuilles  »
           à qui manquent les éléments requis.

           Par  exemple,  le  document  1.html contient une étiquette "<IMG>" référençant 1.gif et une étiquette
           "<A>" pointant vers le document externe 2.html. Disons que 2.html est similaire mais  que  son  image
           est  2.gif  et  qu'elle pointe vers 3.html. Disons que cela continue jusqu'à un nombre arbitrairement
           élevé.

           Si on exécute la commande :

                   wget -r -l 2 http://<site>/1.html

           alors 1.html, 1.gif, 2.html, 2.gif, et 3.html seront téléchargés. Comme vous pouvez voir, 3.html  est
           sans  son  requis  3.gif  parce  que wget compte juste le nombre de bonds (jusqu'à deux) en dehors de
           1.html pour déterminer où arrêter la récursion. De toute façon, avec cette commande :

                   wget -r -l 2 -p http://<site>/1.html

           tous les fichiers au-dessus et le fichier 3.gif nécessaire à 3.html seront téléchargés. De même,

                   wget -r -l 1 -p http://<site>/1.html

           entraînera le téléchargement de 1.html, 1.gif, 2.html et 2.gif. On pourrait penser que :

                   wget -r -l 0 -p http://<site>/1.html

           ne téléchargera que 1.html et 1.gif, mais  malheureusement  ce  n'est  pas  le  cas,  car  -l  0  est
           équivalent  à  -l  inf  (qui  est la récursion infinie). Pour télécharger une seule page HTML (ou une
           poignée d'entre elles, toutes indiquées sur la ligne de commande ou dans un fichier d'entrée -i URL )
           et son (ou ses) éléments requis, enlevez simplement -r et -l :

                   wget -p http://<site>/1.html

           Notez que wget se comportera comme si -r avait été spécifié, mais seule  cette  page  unique  et  ses
           éléments requis seront téléchargés. Les liens de cette page vers des documents externes ne seront pas
           suivis. Actuellement, pour télécharger une seule page et ses éléments requis (même s'ils existent sur
           d'autres  sites  web),  et  s'assurer  que  le lot s'affiche correctement localement, cet auteur aime
           utiliser quelques options en plus de -p :

                   wget -E -H -k -K -p http://<site>/<document>

           Pour terminer ce sujet, il est utile de savoir que l'idée que wget se fait d'un lien vers un document
           externe est toute URL spécifiée dans une étiquette "<A>", une étiquette  "<AREA>"  ou  une  étiquette
           "<LINK>" autre que "<LINK REL="stylesheet">".

       --strict-comments
           Activer  l'analyse  stricte  des  commentaires  HTML.  Par  défaut  cela arrête les commentaires à la
           première occurrence de -->.

           Selon les spécifications, les commentaires HTML sont exprimés  en  tant  que  declarations  SGML.  La
           déclaration  est  un  marqueur spécial commençant par <! et finissant par >, comme <!DOCTYPE...>, qui
           peut contenir des commentaires entre une paire de délimiteurs --.  Les  commentaires  HTML  sont  des
           «  déclarations  vides  », des déclarations SGML sans aucun texte qui ne soit pas un commentaire. Par
           conséquent, <!--toto--> est un commentaire valable, et aussi <!--un --deux-->, mais <!--1--2-->  n'en
           est pas un.

           D'autre  part, la plupart des rédacteurs de HTML ne perçoivent pas les commentaires comme autre chose
           que du texte délimité par <!-- et -->, ce qui n'est pas tout à  fait  la  même  chose.  Par  exemple,
           quelque  chose  comme  <!------------>  fonctionne comme un commentaire valable tant que le nombre de
           tirets est un multiple de quatre (!). Sinon, le commentaire dure techniquement jusqu'au prochain  --,
           qui  peut  se trouver à l'autre bout du document. À cause de cela, beaucoup de navigateurs populaires
           ignorent totalement la  spécification  et  mettent  en  œuvre  ce  que  l'utilisateur  attend  :  des
           commentaires délimités par <!-- et -->.

           Jusqu'à  la  version  1.9, wget interprétait les commentaires de façon stricte, ce qui aboutissait en
           des liens manquants dans plusieurs pages web  qui  s'affichaient  bien  dans  les  navigateurs,  mais
           avaient  la  malchance de contenir des commentaires non conformes. À partir de la version 1.9, wget a
           rejoint les rangs des  clients  qui  implémentent  des  commentaires  «  naïfs  »,  terminant  chaque
           commentaire à la première occurrence de -->.

           Si,  pour  une  raison  quelconque,  vous voulez une analyse stricte des commentaires, utilisez cette
           option pour l'activer.

   Options accepter/rejeter de manière récursive
       -A liste_acceptation --accept liste_acceptation
       -R liste_rejet --reject liste_rejet
           Spécifier des listes de suffixes ou de modèles de noms de  fichiers,  séparés  par  des  virgules,  à
           accepter  ou  à  rejeter. Prenez en compte que tout caractère joker *, ?, [ ou ] apparaissant dans un
           élément de liste_acceptation ou liste_rejet sera traité comme un motif, plutôt que comme un  suffixe.
           Dans  ce  cas,  vous  devez  l'enclore  de guillemets pour empêcher votre interpréteur de commande de
           l'étendre, comme dans -A "*.mp3 ou -A '*.mp3'.

       --accept-regex urlregex
       --reject-regex urlregex
           Indiquer une expression rationnelle pour accepter ou rejeter l'URL entière.

       --regex-type regextype
           Indiquer le type d'expression rationnelle. Les types possibles sont posix ou pcre. Veuillez noter que
           pour pouvoir utiliser le type pcre, wget doit avoir été compilé avec la prise en charge de libpcre.

       -D liste_domaine
       --domains=liste_domaine
           Désigner les domaines à suivre. liste_domaine est une liste de domaines  séparés  par  des  virgules.
           Cela n'active pas -H.

       --exclude-domains liste_domaine
           Indiquer les domaines à ne pas suivre.

       --follow-ftp
           Suivre les liens FTP des documents HTML. Sans cette option, wget ignorera tous les liens FTP.

       --follow-tags=liste
           wget  a  une  table  interne  de paires d'étiquette/attribut HTML qu'il examine lorsqu'il cherche des
           documents liés lors d'une récupération récursive. Cependant, si un utilisateur souhaite que  seul  un
           sous-ensemble  de ces étiquettes soit pris en compte, il doit spécifier ces étiquettes dans une liste
           séparée par des virgules avec cette option.

       --ignore-tags=liste
           C'est l'opposé de l'option --follow-tags. Pour ignorer certaines étiquettes HTML lors de la recherche
           récursive de documents à télécharger, indiquez-les dans une liste séparée par des virgules.

           Dans le passé, cette option était la meilleure solution  pour  télécharger  une  seule  page  et  ses
           éléments requis, en utilisant une ligne de commande comme :

                   wget --ignore-tags=a,area -H -k -K -r http://<site>/<document>

           Cependant,  l'auteur  de  cette  option a trouvé une page avec des étiquettes comme "<LINK REL="home"
           HREF="/">" et a réalisé que spécifier les étiquettes à ignorer n'était pas suffisant. On ne peut  pas
           simplement  dire  à  wget  d'ignorer  "<LINK>", car les feuilles de style ne seront pas téléchargées.
           Maintenant la meilleure solution pour télécharger une seule page et  son  nécessaire  reste  l'option
           --page-requisites.

       --ignore-case
           Ignorer  la  casse  pour  la  correspondance  des  fichiers  et  des  répertoires.  Cela influence le
           comportement des options -R, -A, -I et -X, ainsi que le globbing mis en œuvre lors du  téléchargement
           à  partir de sites FTP. Par exemple, avec cette option, -A *.txt fera correspondre fichier1.txt, mais
           aussi fichier2.TXT, fichier3.TxT, et ainsi de suite. Les  guillemets  dans  l'exemple  sont  là  pour
           empêcher l'interpréteur de commandes de développer le motif.

       -H
       --span-hosts
           Activer l'extension entre les hôtes lors de la récupération récursive.

       -L
       --relative
           Suivre  uniquement  les liens relatifs. Utile pour retrouver une page d'accueil spécifique sans aucun
           égarement, même pas celui dans les mêmes hôtes.

       -I liste
       --include-directories=liste
           Indiquer une liste de répertoires  séparés  par  des  virgules  que  vous  voudriez  suivre  lors  du
           téléchargement. Les éléments de la liste peuvent contenir des jokers.

       -X liste
       --exclude-directories=liste
           Indiquer   une  liste  de  répertoires  séparés  par  des  virgules  que  vous  voudriez  exclure  du
           téléchargement. Les éléments de la liste peuvent contenir des jokers.

       -np
       --no-parent
           Ne jamais monter dans le répertoire parent lors d'une récupération récursive. C'est une option utile,
           vu qu'elle garantit que seuls les fichiers en dessous d'une certaine hiérarchie seront téléchargés.

ENVIRONNEMENT

       wget prend en charge les mandataires à la fois pour les récupérations  HTTP  et  FTP.  La  façon  normale
       d'indiquer l'emplacement des mandataires, reconnus par wget, est d'utiliser les variables d'environnement
       suivantes :

       http_proxy
       https_proxy
           Si  définies, les variables http_proxy et https_proxy devraient contenir les URL des mandataires pour
           les connexions HTTP et HTTPS respectivement.

       ftp_proxy
           Cette variable devrait contenir l'URL du mandataire pour les connexions FTP. Il  est  assez  habituel
           que http_proxy et ftp_proxy soient définis à la même URL.

       no_proxy
           Cette  variable  devrait  contenir  une liste de mandataires d'extensions de domaine séparées par des
           virgules pour lesquelles le mandataire ne devrait pas être utilisé. Par  exemple,  si  la  valeur  de
           no_proxy est .mit.edu, le mandataire ne sera pas utilisé pour récupérer des documents de MIT.

CODE DE RETOUR

       wget peut renvoyer l'un des différents codes d'erreur s'il rencontre des problèmes.

       0   Aucun problème.

       1   Code d'erreur générique.

       2   Erreur  d'analyse  - par exemple, lors de l'analyse des options de la ligne de commande, des fichiers
           .wgetrc ou .netrc...

       3   Erreur d'entrées/sorties du fichier.

       4   Échec du réseau.

       5   Échec de la vérification SSL.

       6   Échec de l'authentification du nom d'utilisateur ou du mot de passe.

       7   Erreurs de protocole.

       8   Le serveur a émis une réponse d'erreur.

       À l'exception de 0 et 1, les codes de retour les moins élevés sont  prioritaires  par  rapport  aux  plus
       élevés lorsque plusieurs types d'erreurs sont rencontrés.

       Dans  les versions de wget antérieures à la 1.12, les codes de retour de wget tendaient à n'être d'aucune
       utilité et incohérents. Les téléchargements récursifs auraient toujours renvoyé 0  (succès),  sans  tenir
       compte des problèmes rencontrés, et les recherches non récursives ne renvoyaient que l'état correspondant
       à la dernière tentative de téléchargement.

FICHIERS

       /etc/wgetrc
           L'emplacement par défaut du fichier de démarrage global.

       .wgetrc
           Fichier de démarrage de l'utilisateur.

BOGUES

       Vous êtes les bienvenus pour soumettre des rapports de bogue à l'aide du système de suivi de bogue de GNU
       Wget   (voir  <https://savannah.gnu.org/bugs/?func=additem&group=wget>)  ou  de  la  liste  de  diffusion
       <bug-wget@gnu.org>.

       Visitez  <https://lists.gnu.org/mailman/listinfo/bug-wget>  pour  obtenir  plus  d'informations  (comment
       souscrire, les archives de la liste, ...).

       Avant de soumettre un rapport de bogue, veuillez essayer de suivre quelques principes simples.

       1.  Essayez de vérifier que le comportement que vous observez est bien un bogue. Si wget se plante, c'est
           un  bogue.  Si  wget  ne  se comporte pas comme indiqué dans la documentation, c'est un bogue. Si les
           choses fonctionnent bizarrement, mais que vous n'êtes pas sûr de la manière dont elles sont supposées
           fonctionner, cela pourrait bien être un bogue, mais vous devriez faire une double  vérification  dans
           la documentation et dans les listes de diffusion.

       2.  Essayez  de  répéter le bogue dans des circonstances aussi simples que possible. Par exemple, si wget
           plante lors du téléchargement wget -rl0 -kKE -t5  --no-proxy  http://example.com  -o  /tmp/log,  vous
           devriez  essayer  de  voir  si  le  plantage  est  reproductible,  et si cela n'arrive qu'avec un jeu
           d'options plus réduit. Vous pouvez même essayer de lancer le téléchargement à partir de la page où le
           plantage s'est produit pour voir si cette page a déclenché le plantage d'une manière ou d'une autre.

           De plus, bien que je serais intéressé par le contenu de votre fichier .wgetrc, l'intégrer  simplement
           dans  le  message  de  débogage  est probablement une mauvaise idée. À la place, vous devriez d'abord
           essayer de voir si le bogue se répète avec un .wgetrc retiré de son emplacement. C'est seulement s'il
           s'avère que les paramètres de .wgetrc affectent le bogue, que  vous  devriez  m'envoyer  les  parties
           pertinentes du fichier.

       3.  Merci  de  démarrer  wget  avec  l'option -d et envoyez-nous le résultat de la sortie (ou des parties
           pertinentes de celle-ci). Si wget a été compilé sans la gestion du débogage, recompilez-le -- il  est
           beaucoup plus simple de suivre les bogues avec la prise en charge du débogage activée.

           Note : merci de veiller à supprimer toute information potentiellement sensible du journal de débogage
           avant  de  l'envoyer  à  l'adresse  pour  les  bogues.  Le "-d" ne se démènera pas pour collecter des
           informations  sensibles,  mais  le  journal  contiendra  une  transcription  assez  complète  de   la
           communication  de wget avec le serveur, qui peut inclure des mots de passe et des éléments de données
           téléchargés. Comme l'adresse pour les bogues est publiquement archivée,  vous  devez  comprendre  que
           tous les rapports de bogue sont visibles du public.

       4.  Si  wget  a  planté,  essayez de l'exécuter dans un outil de débogage, par exemple, "gdb `which wget`
           core"  et  tapez  "where"  pour  en  garder  une  sauvegarde.  Cela  peut  ne  pas   fonctionner   si
           l'administrateur système a désactivé les fichiers core, mais on peut essayer en toute sécurité.

VOIR AUSSI

       Cela  n'est  pas  le  manuel  complet  de GNU Wget. Pour des informations plus complètes, comprenant plus
       d'explications détaillées de certaines des options, et  un  nombre  de  commandes  à  utiliser  avec  les
       fichiers .wgetrc et l'option -e, consulter l'entrée de GNU Info pour wget.

       Voir  aussi  wget2(1),  la  version  mise à jour de GNU Wget avec une prise en charge encore meilleure du
       téléchargement récursif et des protocoles modernes tels que HTTP/2.

AUTEUR

       Écrit  à  l'origine  par  Hrvoje  Niki  <hniksic@xemacs.org>.  Actuellement  maintenu  par  Darshit  Shah
       <darnir@gnu.org> et Tim Rühsen <tim.ruehsen@gmx.de>.

COPYRIGHT

       Copyright (c) 1996--2011, 2015, 2018--2024 Free Software Foundation, Inc.

       Autorisation  est  donnée  de copier, distribuer et/ou modifier ce document sous les termes de la licence
       GNU Free Documentation License, version  1.3  ou  ultérieure  publiée  par  la  fondation  Free  Software
       Foundation,  sans  sections invariantes, sans texte de couverture et sans texte de dos de couverture. Une
       copie de la licence figure dans la section « GNU Free Documentation License ».

TRADUCTION

       La traduction française de  cette  page  de  manuel  a  été  créée  par  Sébastien  Blanchet,  Éric  Piel
       <eric.piel@tremplin-utc.net> et bubu <bubub@no-log.org>

       Cette  traduction  est  une  documentation libre ; veuillez vous reporter à la GNU General Public License
       version 3 concernant les conditions de copie et de distribution. Il n'y a aucune RESPONSABILITÉ LÉGALE.

       Si vous découvrez un bogue dans la traduction de cette page de manuel,  veuillez  envoyer  un  message  à
       debian-l10n-french@lists.debian.org.

GNU Wget 1.25.0                                    8 mars 2025                                           WGET(1)