Provided by: manpages-fr_4.13-4_all bug

NOM

       nfs - Format de fstab et options pour les systèmes de fichiers nfs

SYNOPSIS

       /etc/fstab

DESCRIPTION

       NFS  est  un  protocole standard de l'Internet créé par Sun Microsystem en 1984. NFS a été développé pour
       permettre le partage de fichiers entre des systèmes connectés à un réseau local. Le client NFS  de  Linux
       gère  trois  versions  du  protocole : NFS version 2 [RFC1094], NFS version 3 [RFC1813], et NFS version 4
       [RFC3530].

       La commande mount(8) lie un système de  fichiers  au  point  de  montage  donné  dans  l'espace  de  noms
       hiérarchisé du système. Le fichier /etc/fstab décrit la façon dont mount(8) doit recréer la hiérarchie de
       l'espace de noms du système de fichiers à partir de systèmes de fichiers indépendants (dont ceux partagés
       par des serveurs NFS). Chacune des lignes du fichier /etc/fstab décrit un unique système de fichiers, son
       point de montage, et un ensemble d'options par défaut pour ce point de montage.

       Dans le cas des montages de systèmes de fichiers NFS, une ligne dans le fichier /etc/fstab indique le nom
       du  serveur,  le chemin du répertoire partagé à monter, le répertoire local qui sera le point de montage,
       le type de système de fichiers à monter et la liste des options de montage qui indique la façon  dont  le
       système de fichiers sera monté et quel sera le comportement du client NFS lorsqu'il accédera aux fichiers
       du  point  de montage. Le cinquième et le sixième champs de chaque ligne ne sont pas utilisés par NFS, et
       par conséquent contiennent par convention la valeur zéro. Par exemple :

               serv:chemin   /pt_montage   type_fs  option,option,...   0 0

       Le nom du serveur et le chemin de partage sont séparés par un deux points,  tandis  que  les  options  de
       montage  sont  séparées  par  des  virgules.  Les  champs  restants  sont  séparés par des espaces ou des
       tabulations.

       Le nom du serveur peut être un nom d'hôte non qualifié, un nom de domaine  pleinement  qualifié  (« fully
       qualified  domain  name »), une adresse IPv4, ou une adresse IPv6 entourée par des crochets. Les adresses
       IPv6 de liens locaux  ou  de  sites  locaux  doivent  être  accompagnées  d'un  identifiant  d'interface.
       Référez-vous à ipv6(7) pour des détails quant à l'écriture des adresses IPv6 brutes.

       Le champ fstype contient « nfs ». La valeur « nfs4 » est obsolète.

OPTIONS DE MONTAGE

       Consultez  mount(8)  pour  la  description  des  options  de montage génériques disponibles pour tous les
       systèmes de fichiers. Si vous n'avez pas besoin d'indiquer d'options de montage  particulières,  utilisez
       l'option générique defaults dans /etc/fstab.

   Options prises en charge par toutes les versions
       Les options suivantes peuvent être utilisées avec n'importe quelle version de NFS.

       nfsvers=n      Le numéro de version du protocole NFS utilisé pour contacter le service NFS du serveur. Si
                      le  serveur ne gère pas la version demandée, la requête de montage échoue. Si cette option
                      n'est pas définie, le client tente de trouver une version adaptée au serveur,  en  tentant
                      successivement les versions 4, 3 puis 2.

       vers=n         This option is an alternative to the nfsvers option. It is included for compatibility with
                      other operating systems

       soft / hard    Définir le comportement de récupération du client NFS lorsqu'une requête NFS ne répond pas
                      (« time  out »).  Si  aucune  option  n'est  indiquée (ou si c'est l'option hard qui a été
                      choisie), les requêtes NFS sont retentées indéfiniment. Si par contre l'option soft a  été
                      choisie,  le  client  NFS  lèvera  un  échec  après  l'envoi  de  retrans retransmissions,
                      entraînant alors le retour d'une erreur à l'application appelante.

                      NB : Un délai expiré « soft » peut provoquer dans certains cas des erreurs de données  non
                      signalées.  C'est pourquoi l'option soft doit être utilisée uniquement si la réactivité du
                      client est plus importante que l'intégrité des données. L'utilisation de NFS avec  TCP  ou
                      l'augmentation  de  la  valeur  de  l'option  retrans  peut  diminuer  les  risques liés à
                      l'utilisation de l'option soft.

       intr / nointr  This option is provided for backward compatibility. It is ignored after kernel 2.6.25.

       timeo=n        Le temps en dixièmes de seconde où le client NFS attend une réponse avant  qu'il  réessaie
                      une requête NFS.

                      Pour  NFS  sur  TCP,  la  valeur  timeo est de 600 par défaut (60 secondes). Le client NFS
                      effectue une progression linéaire :  après  chaque  retransmission  la  temporisation  est
                      augmentée de timeo jusqu'au maximum de 600 secondes.

                      Cependant,  dans  le  cas  de  NFS  sur UDP, le client utilise un algorithme évolutif pour
                      estimer la valeur appropriée de dépassement de  temps  (« timeout »)  pour  les  types  de
                      requêtes  fréquemment  utilisées (les requêtes READ et WRITE par exemple), mais utilise le
                      réglage timeo pour les requêtes moins courantes (comme FSINFO). Si  l'option  timeo  n'est
                      pas  définie,  les  types  de  requêtes moins courantes sont ré-émises après 1,1 secondes.
                      Après chaque ré-émission, le client NFS double la valeur  de  dépassement  de  temps  pour
                      cette requête, jusqu'à atteindre un maximum de 60 secondes.

       retrans=n      The  number  of times the NFS client retries a request before it attempts further recovery
                      action. If the retrans option is not specified, the NFS  client  tries  each  UDP  request
                      three times and each TCP request twice.

                      Le  client  NFS  génère  un message « le serveur ne répond pas » après retrans tentatives,
                      puis enclenche la récupération (qui dépend de l'activation de l'option hard de mount).

       rsize=n        Nombre maximal d'octets pour chaque requête réseau en LECTURE que peut recevoir le  client
                      NFS  lorsqu'il  lit  les  données  d'un fichier sur le serveur NFS. La taille réelle de la
                      charge utile de données pour chaque requête NFS en LECTURE est plus  petite  ou  égale  au
                      réglage  rsize.  La  plus  grande  charge  utile  gérée  par  le  client  NFS Linux est de
                      1 048 576 octets (un méga-octet).

                      La valeur de rsize  est  un  entier  positif  multiple  de  1024.  Les  valeurs  de  rsize
                      inférieures  à  1024  sont  remplacées  par  4096,  et celles supérieures à 1 048 576 sont
                      remplacées par 1 048 576. Si la valeur indiquée est bien dans la plage gérée, mais qu'elle
                      n'est pas un multiple de 1024, elle sera arrondie au multiple de 1024  inférieur  le  plus
                      proche.

                      Si  la valeur de rsize n'est pas définie, ou si la valeur de rsize dépasse le maximum qu'à
                      la fois le client et le serveur peuvent gérer, le client et le serveur négocient  la  plus
                      grande valeur de rsize qu'ils peuvent gérer ensemble.

                      L'option  rsize  de  mount  telle  qu'elle  a été définie sur la ligne de commande lors du
                      mount(8) apparaît dans le fichier /etc/mtab. D'autre  part,  la  valeur  réelle  de  rsize
                      négociée entre le client et le serveur est indiquée dans le fichier /proc/mounts.

       wsize=n        Nombre maximal d'octets par requête d'ÉCRITURE réseau que le client NFS peut envoyer quand
                      il  écrit  des  données  dans un fichier sur un serveur NFS. La taille réelle de la charge
                      utile de données pour chaque requête NFS en ÉCRITURE est plus petite ou égale  au  réglage
                      wsize.  La  plus grande charge utile gérée par le client NFS Linux est de 1 048 576 octets
                      (un méga-octet).

                      Comme pour rsize, la valeur de wsize est un entier positif multiple de 1024.  Les  valeurs
                      de  wsize  inférieures  à 1024 sont remplacées par 4096, et celles supérieures à 1 048 576
                      par 1 048 576. Si la valeur définie est bien dans l'étendue valide mais qu'elle n'est  pas
                      multiple de 1024, elle est arrondie au multiple de 1024 inférieur le plus proche.

                      Si  la valeur de wsize n'est pas définie, ou si la valeur wsize indiquée est supérieure au
                      maximum que soit le client soit le serveur peut gérer, le client et le  serveur  négocient
                      la plus grande valeur de wsize qu'ils peuvent tous les deux gérer.

                      L'option  wsize de mount telle qu'elle a été indiquée sur la ligne de commande du mount(8)
                      apparaît dans le fichier /etc/mtab. D'autre part, la valeur réelle de wsize  négociée  par
                      le client et le serveur est indiquée dans le fichier /proc/mounts.

       ac / noac      Définir  si  le client peut mémoriser (cache) les attributs des fichiers. Si aucune option
                      n'est indiquée (ou si c'est ac qui est choisi),  le  client  mémorise  les  attributs  des
                      fichiers.

                      Afin  d'améliorer  les  performances,  les  clients  NFS mémorisent (mettent en cache) les
                      attributs des fichiers. Toutes les quelques secondes, un client NFS vérifie les  attributs
                      de chaque fichier de la version du serveur afin de se mettre à jour. Les modifications qui
                      interviennent pendant ces petits intervalles restent inaperçues tant que le client n'a pas
                      relancé  sa  vérification  sur  le  serveur.  L'option  noac  empêche  la mémorisation des
                      attributs de fichiers par le client, ce qui  permet  aux  applications  de  détecter  plus
                      rapidement les modifications des fichiers sur le serveur.

                      En  plus d'empêcher le client de mémoriser les attributs des fichiers, l'option noac force
                      l'écriture synchronisée pour les applications afin que les modifications  sur  un  fichier
                      soient  immédiatement  visibles sur le serveur. De cette façon, les autres clients peuvent
                      rapidement détecter les nouvelles écritures lors  de  la  vérification  des  attributs  du
                      fichier.

                      L'usage  de  l'option  noac  offre  une plus grande cohérence du cache aux clients NFS qui
                      accèdent  aux  mêmes  fichiers,  mais  au  prix  d'une  pénalisation   significative   des
                      performances.  C'est  pour  cette  raison  qu'une utilisation judicieuse des verrouillages
                      (« locking ») de fichiers  est  préférable.  La  section  COHÉRENCE  DES  DONNÉES  ET  DES
                      MÉTADONNÉES contient une présentation détaillée de ces approches.

       acregmin=n     The  minimum  time  (in  seconds)  that the NFS client caches attributes of a regular file
                      before it requests fresh attribute information from  a  server.  If  this  option  is  not
                      specified,  the  NFS  client  uses a 3-second minimum. See the DATA AND METADATA COHERENCE
                      section for a full discussion of attribute caching.

       acregmax=n     The maximum time (in seconds) that the NFS client caches  attributes  of  a  regular  file
                      before  it  requests  fresh  attribute  information  from  a server. If this option is not
                      specified, the NFS client uses a 60-second maximum. See the DATA  AND  METADATA  COHERENCE
                      section for a full discussion of attribute caching.

       acdirmin=n     The  minimum time (in seconds) that the NFS client caches attributes of a directory before
                      it requests fresh attribute information from a server. If this option  is  not  specified,
                      the NFS client uses a 30-second minimum. See the DATA AND METADATA COHERENCE section for a
                      full discussion of attribute caching.

       acdirmax=n     The  maximum time (in seconds) that the NFS client caches attributes of a directory before
                      it requests fresh attribute information from a server. If this option  is  not  specified,
                      the NFS client uses a 60-second maximum. See the DATA AND METADATA COHERENCE section for a
                      full discussion of attribute caching.

       actimeo=n      L'utilisation  de  actimeo  configure  toutes  les  durées acregmin, acregmax, acdirmin et
                      bacdirmax à la même valeur. Si cette option n'est pas définie,  le  client  utilisera  les
                      valeurs par défaut de chacune des options, telles que décrites ci-dessus.

       bg / fg        Déterminer  le comportement de la commande mount(8) dans le cas d'un échec d'une tentative
                      de montage d'un partage. L'option fg entraîne l'arrêt de mount(8) avec un statut  d'erreur
                      si  la  moindre  partie  de  la requête de montage dépasse le temps alloué ou échoue d'une
                      quelconque autre manière.  C'est  ce  que  l'on  appelle  le  montage  en  « premier  plan
                      (foreground) », et c'est le comportement par défaut si ni fg ni bg n'est indiqué.

                      Si  l'option  bg  est  indiquée,  un  dépassement  du  temps  alloué (timeout) ou un échec
                      entraînera la création d'un fils (fork) qui continuera à essayer de monter le partage.  Le
                      père  s'interrompt  immédiatement en renvoyant un code de sortie à zéro. C'est ce que l'on
                      appelle le montage en « arrière-plan (background) ».

                      Si le répertoire servant de point de montage local n'existe pas, la commande  mount(8)  se
                      comporte comme si la requête était restée sans réponse (timeout). Cela permet aux montages
                      NFS  imbriqués  définis  dans  /etc/fstab  de s'exécuter dans n'importe quel ordre lors de
                      l'initialisation du système, même si certains serveurs NFS ne sont pas encore disponibles.
                      On peut aussi gérer ces problèmes grâce à un  auto-monteur  (consultez  automount(8)  pour
                      plus de détails).

       rdirplus / nordirplus
                      Indiquer  s'il  faut  utiliser  les  requêtes  READDIRPLUS de NFS version 3 ou 4. Si cette
                      option n'est pas définie, le  client  NFS  utilisera  les  requêtes  READDIRPLUS  sur  les
                      montages  en  NFS  version 3  ou  4  pour  la  lecture  des  petits répertoires. Certaines
                      applications sont plus efficaces si le client n'utilise que des requêtes READDIR pour tous
                      les répertoires.

       retry=n        Durée, en minute, pendant laquelle le montage NFS sera tenté par la commande mount(8),  en
                      arrière-plan  ou  au  premier  plan, avant d'abandonner. Si l'option n'est pas définie, la
                      valeur par défaut pour le premier plan est de 2 minutes, et celle pour l'arrière-plan  est
                      10 000 minutes,  soit  environ  une  semaine,  à  80 minutes  près.  La  commande mount(8)
                      s'arrêtera dès le premier échec si on lui passe la valeur 0.

                      Note that this only affects how many retries are made and doesn't affect the delay  caused
                      by  each  retry.  For  UDP  each  retry takes the time determined by the timeo and retrans
                      options, which by default will be about 7 seconds. For TCP the default is 3  minutes,  but
                      system  TCP connection timeouts will sometimes limit the timeout of each retransmission to
                      around 2 minutes.

       sec=flavors    A colon-separated list of one or more security flavors to use for accessing files  on  the
                      mounted  export.  If the server does not support any of these flavors, the mount operation
                      fails. If sec= is not specified, the client attempts to find a security flavor  that  both
                      the  client  and the server supports. Valid flavors are none, sys, krb5, krb5i, and krb5p.
                      Refer to the SECURITY CONSIDERATIONS section for details.

       sharecache / nosharecache
                      Déterminer comment le client partage ses caches de  données  et  d'attributs  de  fichiers
                      lorsqu'un  même  partage  est monté plus d'une fois en même temps. L'utilisation d'un seul
                      cache réduit les besoins en mémoire sur le client et présente aux applications un  contenu
                      identique lorsque l'on accède au même fichier partagé par différents points de montage.

                      Si  aucune  des  options  n'est  indiquée, ou si l'option sharecache est demandée, un seul
                      cache est utilisé pour tous les points  de  montage  qui  accèdent  au  même  partage.  Si
                      l'option  nosharecache  est  indiquée, ce point de montage utilise son propre cache. Notez
                      que lorsque les caches des données et des attributs sont partagés, les options de  montage
                      du premier point de montage s'appliquent pour les futurs montages de ce même partage, tant
                      que celui-ci est monté.

                      En  ce  qui  concerne  le  noyau 2.6.18,  le  comportement  défini par nosharecache est le
                      comportement traditionnel normal. Ceci est considéré  comme  dangereux  pour  les  données
                      puisque  de  multiples  copies  mémorisées  du  même fichier sur le même client peuvent se
                      désynchroniser suite à une mise à jour locale d'une des copies.

       resvport / noresvport
                      Indiquer si le client NFS doit utiliser un port source privilégié quand il communique avec
                      un serveur NFS pour ce point de montage.  Si  cette  option  n'est  pas  précisée,  ou  si
                      l'option  resvport  est  précisée,  le  client  NFS  utilise un port source privilégié. Si
                      l'option noresvport est activée, le client NFS utilise  un  port  source  non  privilégié.
                      Cette option est permise par les noyaux 2.6.28 et suivants.

                      Utiliser  un  port source non privilégié permet d'augmenter le nombre maximal de points de
                      montage permis par client, mais les serveurs NFS doivent être configurés pour permettre la
                      connexion de clients par des ports source non privilégiés.

                      Veuillez consulter la section CONSIDÉRATIONS DE SÉCURITÉ pour d'importantes précisions.

       lookupcache=mode
                      Préciser comment le noyau s'occupe du cache des entrées de répertoire  pour  un  point  de
                      montage donné. mode peut être all, none, pos ou positive. Cette option est prise en charge
                      par les noyaux 2.6.28 et suivants.

                      Le  client  NFS  Linux  garde  en  cache tous les résultats des requêtes NFS LOOKUP. Si le
                      répertoire indiqué existe sur le serveur, le résultat renvoyé est positif  (« positive »),
                      sinon c'est négatif (« negative »).

                      Si  cette option n'est pas précisée, ou si all est précisé, le client suppose que les deux
                      types d'entrées (positif ou négatif) du cache de répertoire sont valables jusqu'à  ce  que
                      le cache de leur répertoire parent expire.

                      Si  pos ou positive est précisé, le client suppose que les entrées positives sont valables
                      jusqu'à ce que le cache  de  leur  répertoire  parent  expire,  mais  valide  les  entrées
                      négatives avant qu'une application les utilise.

                      Si  none  est  précisé,  le  client  valide à nouveau les deux types d'entrées de cache de
                      répertoire avant qu'une application puisse les utiliser. Cela permet une détection  rapide
                      des  fichiers  qui  ont  été  créés ou supprimés par d'autres clients, mais peut avoir des
                      répercussions sur ces applications et les performances du serveur.

                      La partie COHÉRENCE DES DONNÉES ET DES MÉTADONNÉES contient un  propos  détaillé  sur  ces
                      échanges.

       fsc / nofsc    Activer  ou désactiver le cache des pages de données (en lecture seule) du disque local en
                      utilisant l'outil FS-Cache. Consultez cachefilesd(8) et  Documentation/filesystems/caching
                      dans  le  code  source  du  noyau  pour  plus  de  détails sur la configuration de l'outil
                      FS-Cache. La valeur par défaut est nofsc.

   Options pour les versions NFS 2 et 3 uniquement
       Utilisez ces options ainsi que les options de la sous-section précédente uniquement pour les systèmes  de
       fichiers de type NFS version 2 et 3.

       proto=idreseau L'identifiant  réseau  idreseau  détermine  le  transport utilisé pour communiquer avec le
                      serveur NFS. Les options possibles sont udp, udp6, tcp, tcp6 et rdma. Les valeurs  qui  se
                      terminent  par  6  utilisent  des  adresses IPv6 et ne sont disponibles que si la prise en
                      charge de TI-RPC est intégrée. Les autres utilisent des adresses IPv4.

                      Chaque protocole de transport utilise différents réglages de retransmission et  de  timeo.
                      Merci de vous référer à la description de ces deux options de montage

                      En  plus  de contrôler la façon dont le client NFS transmet les requêtes au serveur, cette
                      option de mount gère aussi la façon dont la commande mount(8) communique avec les services
                      rpcbind et mountd du serveur. Indiquer un id réseau qui utilise TCP entraîne l'utilisation
                      de  TCP  par  tout  le  trafic  passant  par  la  commande  mount(8)  ou  le  client  NFS.
                      Réciproquement, indiquer UDP entraîne l'utilisation d'UDP par tout le trafic.

                      avant d'utiliser NFS sur UDP, consultez la section MÉTHODES DE TRANSPORT.

                      Si  l'option  proto  de  mount  n'est  pas  définie, la commande mount(8) découvrira quels
                      protocoles sont acceptés par le serveur et choisira un transport approprié pour chacun des
                      services. Consultez la section MÉTHODES DE TRANSPORT pour plus de détails.

       udp            L'option  udp  est  une  variante  pour  proto=udp,  compatible  avec  d'autres   systèmes
                      d'exploitation.

                      avant d'utiliser NFS sur UDP, consultez la section MÉTHODES DE TRANSPORT.

       tcp            L'option   tcp  est  une  variante  pour  proto=tcp,  compatible  avec  d'autres  systèmes
                      d'exploitation.

       rdma           L'option rdma est une variante pour proto=rdma.

       port=n         Valeur numérique du port du service NFS sur le serveur. Si le service NFS du serveur n'est
                      pas accessible sur le port indiqué, la requête de montage échoue.

                      Si cette option n'est pas définie, ou si le port indiqué est 0, le client NFS  utilise  le
                      numéro  du  port  du  service  NFS publié par le service rpcbind du serveur. La requête de
                      montage échoue si le service rpcbind du serveur n'est pas accessible, si le service NFS du
                      serveur n'est pas enregistré dans son service rpcbind, ou si le  service  NFS  du  serveur
                      n'est pas accessible sur le port publié.

       mountport=n    Valeur  numérique  du port de mountd sur le serveur. Si le service mountd du serveur n'est
                      pas présent sur le port indiqué, la requête de montage échoue.

                      Si cette option n'est pas définie, ou si le port  indiqué  est  0,  la  commande  mount(8)
                      utilise  le  numéro du port du service mountd publié par le service rpcbind du serveur. La
                      requête de montage échoue si le service rpcbind du serveur n'est  pas  accessible,  si  le
                      service  mountd du serveur n'est pas enregistré dans son service rpcbind, ou si le service
                      mountd du serveur n'est pas accessible sur le port publié.

                      Cette option peut être utilisée pour les montages sur un serveur NFS à travers un pare-feu
                      qui bloque le protocole rpcbind.

       mountproto=idreseau
                      Le transport utilisé par le client NFS pour transmettre ses  requêtes  au  service  mountd
                      d'un  serveur NFS quand il lance cette requête de montage, puis quand il démontera ensuite
                      ce montage.

                      idreseau peut valoir udp ou tcp qui utilisent des adresses IPv4, ou bien,  si  TI-RPC  est
                      intégré dans la commande mount.nfs, udp6 ou tcp6, qui utilisent des adresses IPv6.

                      Cette  option  peut  être  utilisée  pour  monter un serveur NFS à travers un pare-feu qui
                      bloque des transferts spécifiques.  Utilisé  avec  l'option  proto,  différents  modes  de
                      transfert  peuvent  être  choisis  pour  les requêtes vers mountd et NFS. Si le serveur ne
                      propose pas de service pour le mode indiqué, la requête de montage échoue.

                      Veuillez consulter la section MÉTHODES DE TRANSPORT pour plus  de  renseignements  sur  la
                      manière dont l'option de montage mountproto interagit avec l'option proto.

       mounthost=nom  Le  nom  d'hôte de la machine qui exécute le mountd. Si cette option n'est pas définie, la
                      commande mount(8) considère que le service mountd est assuré par la machine qui  offre  le
                      service NFS.

       mountvers=n    Numéro  de  version  des  RPC utilisé pour contacter le mountd du serveur. Si cette option
                      n'est pas définie, le client utilise un numéro de version approprié à la  version  du  NFS
                      contacté.  Cette  option est utile quand de nombreux services NFS sont offerts par un seul
                      et même serveur.

       namlen=n       La taille maximale d'un composant du nom de chemin de ce montage. Si  cette  option  n'est
                      pas  définie,  la  taille  maximale est négociée avec le serveur. Dans la plupart des cas,
                      cette taille maximale est 255 caractères.

                      Des versions précédentes de NFS ne gèrent pas cette négociation.  L'utilisation  de  cette
                      option  garantit  que  pathconf(3) donnera bien la longueur maximale aux applications pour
                      ces versions.

       lock / nolock  Indiquer s'il faut utiliser le protocole auxiliaire NLM pour verrouiller les fichiers  sur
                      le  serveur.  Si  aucune  option  n'est  indiquée  (ou  si  c'est lock qui est choisi), le
                      verrouillage NLM est activé pour ce point de montage. Si on utilise l'option  nolock,  les
                      applications  peuvent  verrouiller les fichiers, mais ces verrous n'ont de portée que pour
                      les applications qui tournent sur ce même client. Les applications distantes ne  sont  pas
                      informées de ces verrous.

                      Le  verrouillage  NLM doit être désactivé lors de l'utilisation de l'option nolock si /var
                      est  monté   à  l'aide  de  NFS,  parce  que  /var  contient  des  fichiers  utilisés  par
                      l'implémentation  de  NLM sous Linux. L'usage de nolock est aussi requis lors des montages
                      de partages de serveurs NFS ne gérant pas le protocole NLM.

       cto / nocto    Indiquer s'il faut utiliser la sémantique de cohérence de cache close-to-open.  Si  aucune
                      option n'est indiquée (ou si c'est cto qui est choisi), le client utilise la sémantique de
                      cohérence  de  cache  close-to-open.  Si  c'est  l'option nocto qui est choisie, le client
                      utilise une heuristique non standard pour savoir quand les  fichiers  ont  changé  sur  le
                      serveur.

                      L'utilisation  de  l'option  nocto peut améliorer les performances des montages en lecture
                      seule, mais devrait être limitée au  cas  où  les  données  sur  le  serveur  ne  changent
                      qu'occasionnellement.  La  section  COHÉRENCE  DES  DONNÉES  ET  DES MÉTADONNÉES expose le
                      comportement de cette option en détails.

       acl / noacl    Indiquer s'il faut utiliser le protocole auxiliaire NFSACL sur ce  point  de  montage.  Le
                      protocole auxiliaire NFSACL est un protocole propriétaire mis en œuvre dans Solaris et qui
                      gère  les  listes  de  contrôle  d'accès (les ACLs). NSFACL n'est jamais devenu un élément
                      standard de la spécification du protocole NFS.

                      Si ni acl ni noacl ne sont précisées, le client NFS négocie avec le serveur afin de savoir
                      si le protocole NFSACL est actif, et l'utilise dans ce cas. La désactivation du  protocole
                      auxiliaire  NFSACL  est  parfois rendue nécessaire quand la négociation pose des problèmes
                      sur le client ou sur le serveur. Consultez la section CONSIDÉRATIONS DE SÉCURITÉ pour plus
                      de détails.

       local_lock=mécanisme
                      Précise si le verrouillage local doit être utilisé pour les mécanismes  flock,  POSIX,  ou
                      les deux. mechanism peut être all, flock, posix, or none. Cette option est prise en charge
                      par les noyaux 2.6.37 et suivants.

                      Le client Linux NFS fournit un moyen de poser des verrous locaux. Les applications peuvent
                      donc  verrouiller des fichiers, mais ces verrous n'ont de portée que pour les applications
                      qui tournent sur ce même client. Les applications distantes ne sont pas informées  de  ces
                      verrous.

                      Si  cette  option  n'est  pas  précisée, ou si none est précisé, le client suppose que les
                      verrous ne sont pas locaux.

                      Si all est spécifié, le client suppose que les deux types de verrous flock et  POSIX  sont
                      locaux.

                      Si  flock  est  spécifié,  le  client  suppose que seuls les verrous flock sont locaux, et
                      utilise le protocole NLM associé pour verrouiller les fichiers  quand  les  verrous  POSIX
                      sont utilisés.

                      Si  posix est spécifié, le client suppose que les verrous POSIX sont locaux, et utilise le
                      protocole NLM associé pour verrouiller les fichiers quand les verrous flock sont utilisés.

                      Pour supporter le comportement flock de façon semblable à celui des clients NFS <  2.6.12,
                      utiliser  'local_lock= flock'. Cette option est requise lors de l'exportation des montages
                      NFS à l'aide de Samba comme des cartes Windows Samba partagé  en  mode  verrouillé  flock.
                      Puisque  les clients NFS > 2.6.12 utilise flock en émulant les verrous POSIX, il y aura un
                      conflit de verrous.

                      NOTE : Quand elles sont utilisées ensemble, l'option de montage 'local_lock' sera  écrasée
                      par l'option de montage 'nolock'/'lock'.

   Options pour NFS version 4 uniquement
       Utilisez  ces  options  ainsi  que les options de la première sous-section ci-dessus pour les systèmes de
       fichiers de type NFS version 4 et plus récents.

       proto=idreseau
                       L'identifiant réseau idreseau détermine le transport utilisé  pour  communiquer  avec  le
                      serveur  NFS.  Les  options  possibles  sont  tcp, tcp6 et rdma. L'option tcp6 utilise des
                      adresses IPv6 et n'est disponible que si la prise en charge de TI-RPC  est  intégrée.  Les
                      deux autres utilisent des adresses IPv4.

                      Les  serveurs  NFS version 4 doivent prendre en charge TCP, donc si cette option n'est pas
                      précisée, le client NFS utilise le protocole TCP.  Veuillez  vous  référer  à  la  section
                      MÉTHODES DE TRANSPORT pour plus de détails.

       port=n         Valeur numérique du port du service NFS sur le serveur. Si le service NFS du serveur n'est
                      pas accessible sur le port indiqué, la requête de montage échoue.

                      Si  cette  option  de montage n'est pas définie, le client NFS utilisera le numéro de port
                      standard de NFS (2049) sans vérifier de prime abord le service rpcbind du  serveur.  Cette
                      option permet à un client NFS version 4 de contacter un serveur NFS version 4 à travers un
                      pare-feu qui bloquerait les requêtes rpcbind.

                      Si  la valeur du port indiquée est 0, le client NFS utilisera le numéro de port du service
                      NFS publié par le service rpcbind du serveur. La requête de montage échouera si le service
                      rpcbind du serveur n'est pas disponible, si le service NFS du serveur n'est pas enregistré
                      dans son service rpcbind, ou si le service NFS du serveur n'est pas accessible sur le port
                      publié.

       cto / nocto    Indiquer s'il faut utiliser la sémantique de cohérence du  cache  close-to-open  pour  les
                      répertoires  NFS  de  ce  point  de  montage.  Si  ni  cto  ni nocto ne sont indiquées, la
                      sémantique de  cohérence  du  cache  close-to-open  sera  utilisée  par  défaut  pour  les
                      répertoires.

                      La  politique  de  mise  en  cache  des données des fichiers n'est pas concernée par cette
                      option. La section COHÉRENCE DES DONNÉES ET DES  MÉTADONNÉES  décrit  le  comportement  de
                      cette option en détails.

       clientaddr=n.n.n.n

       clientaddr=n:n:...:n
                      Indiquer  une seule adresse IPv4 en quatre parties séparées par des points, ou une adresse
                      IPv6 qui n'est pas un lien local. Le client NFS signalera alors que les  serveurs  peuvent
                      envoyer  des  requêtes  NFSv4  de  rappel  sur  les fichiers de ce point de montage. Si le
                      serveur ne peut pas établir de connexion de rappel (« callback »)  sur  ces  clients,  les
                      performances peuvent être dégradées ou les accès à ces fichiers temporairement suspendus.

                      Si   cette   option   n'est  pas  indiquée,  la  commande  mount(8)  essaie  de  découvrir
                      automatiquement  une  adresse  de  rappel  (« callback »)  appropriée.  La  procédure   de
                      découverte  automatique  n'est  cependant  pas  parfaite.  Dans le cas d'interfaces réseau
                      multiples, de directives de routages spéciales ou de typologie réseau atypique,  l'adresse
                      exacte à utiliser pour les rappels peut ne pas être triviale à déterminer.

       migration / nomigration
                      Selects  whether  the  client  uses an identification string that is compatible with NFSv4
                      Transparent State Migration (TSM). If the mounted server  supports  NFSv4  migration  with
                      TSM, specify the migration option.

                      Some  server  features  misbehave  in  the  face  of a migration-compatible identification
                      string. The nomigration option retains the use of  a  traditional  client  indentification
                      string  which  is compatible with legacy NFS servers. This is also the behavior if neither
                      option is specified. A client's open and lock state cannot be migrated transparently  when
                      it identifies itself via a traditional identification string.

                      This  mount  option  has no effect with NFSv4 minor versions newer than zero, which always
                      use TSM-compatible client identification strings.

SYSTÈME DE FICHIERS DE TYPE nfs4

       Le type nfs4 de système de fichiers est une ancienne syntaxe précisant l'utilisation de  NFSv4.  Il  peut
       toujours  être  utilisé avec toutes les options spécifiques à NFSv4, à l'exception de l'option de montage
       nfsvers

FICHIER DE CONFIGURATION DU MONTAGE

       Si la commande de montage est configurée pour, toutes les options de montage  décrites  dans  la  section
       précédente  peuvent  être configurées dans le fichier /etc/nfsmount.conf. Référez-vous à nfsmount.conf(5)
       pour plus de détails.

EXEMPLES

       Pour réaliser le montage d'un partage en NFS version 2, il faut  préciser  que  le  type  du  système  de
       fichiers est nfs et indiquer l'option de montage nfsvers=2. Pour réaliser un montage en NFS version 3, il
       faut  préciser que le type du système de fichiers est nfs et indiquer l'option de montage nfsvers=3. Pour
       réaliser un montage en NFS version 4, il faut préciser que le type du système de fichiers est  nfs,  avec
       l'option de montage nfsver=4, ou demander le système de fichiers nfs4.

       L'exemple  de  fichier  /etc/fstab qui suit permet à la commande mount de négocier des valeurs par défaut
       convenables pour le comportement NFS.

               serveur:/export /mnt  nfs   defaults                      0 0

       Voici un exemple de ligne du fichier /etc/fstab concernant un montage NFS version 2 en UDP.

               serveur:/export /mnt  nfs   nfsvers=2,proto=udp           0 0

       This example shows how to mount using NFS version 4 over TCP with Kerberos 5 mutual authentication.

               serveur:/export /mnt  nfs4  sec=krb5                      0 0

       This example shows how to mount using NFS version 4 over TCP with Kerberos 5 privacy  or  data  integrity
       mode.

               server:/export  /mnt  nfs4  sec=krb5p:krb5i               0 0

       Cet exemple peut servir à réaliser le montage de /usr grâce à NFS.

               serveur:/export /usr  nfs   ro,nolock,nocto,actimeo=3600  0 0

       Cet exemple montre comment utiliser une adresse brute non locale IPv6.

               [fe80::215:c5ff:fb3e:e2b1%eth0]:/export /mnt nfs defaults 0 0

MÉTHODES DE TRANSPORT.

       Les  clients  NFS  envoient  leurs  requêtes  aux  serveurs  NFS grâce aux appels de procédures distantes
       (« Remote Procedure Calls »), les RPCs. Le client RPC découvre automatiquement  les  entrées  du  service
       distant,  gère  l'authentification  requête par requête, ajuste les paramètres des requêtes afin de gérer
       l'ordre des octets sur le client et le serveur (« endianess »), et se charge  de  la  retransmission  des
       requêtes qui pourraient s'être perdues dans le réseau ou sur le serveur. Les requêtes et les réponses RPC
       circulent sur un protocole de transport réseau.

       Dans  la  plupart  des  cas,  la  commande  mount(8),  le  client  NFS et le serveur NFS peuvent négocier
       automatiquement les valeurs adéquates de taille pour les transferts de données et de  transport  pour  un
       point  de  montage.  Cependant,  dans  certains  cas,  il peut être efficace d'indiquer explicitement ces
       valeurs grâce aux options de montage.

       Anciennement, les clients NFS se servaient uniquement du transport UDP pour transmettre des requêtes  aux
       serveurs.  Bien  que  son  implémentation  soit  simple,  NFS  sur  UDP  a  de nombreuses limitations qui
       l'empêchent d'obtenir de bonnes performances et un fonctionnement fluide dans certains environnements  de
       déploiement  courants.  Un  taux  de  paquets  perdus même insignifiant entraîne la perte de requêtes NFS
       complètes. On règle alors généralement le délai de dépassement (« timeout ») à une valeur inférieure à la
       seconde afin que les clients puissent récupérer  rapidement  en  cas  de  requêtes  rejetées.  Cela  peut
       entraîner une surcharge du trafic réseau et du serveur.

       Cependant, UDP peut être assez efficace grâce à des réglages spécifiques lorsque le MTU du réseau dépasse
       la  taille  de  transfert de données de NFS (par exemple dans les environnements réseau qui utilisent les
       trames Ethernet Jumbo). Dans ces cas, il est judicieux d'adapter les réglages rsize et wsize de  façon  à
       ce  que  chaque  requête de lecture ou d'écriture NFS soit contenue dans quelques trames du réseau (voire
       même dans une seule trame). Cela réduit la probabilité qu'une perte  d'une  simple  trame  réseau  de  la
       taille de la MTU entraîne la perte complète d'un grande requête en lecture ou écriture.

       TCP  est le protocole de transport utilisé par défaut dans toutes les implémentations modernes de NFS. Il
       est efficace dans  pratiquement  tous  les  environnements  réseau  concevables  et  offre  d'excellentes
       garanties  contre  la  corruption  de  données que pourrait entraîner un incident réseau. TCP est souvent
       requis pour accéder à un serveur à travers un pare-feu.

       Dans des conditions normales, les réseaux rejettent des paquets bien plus souvent que les serveurs NFS ne
       rejettent de requêtes. C'est pourquoi un réglage agressif  de  délai  de  dépassement  (« time-out »)  de
       retransmission  pour NFS sur TCP est inutile. Les réglages habituels de délai de dépassement pour NFS sur
       TCP varient entre une et dix minutes. Après qu'un client a terminé  ses  retransmissions  (la  valeur  de
       l'option  retrans  de  mount),  il considère que le réseau a subi une panne et tente de se reconnecter au
       serveur grâce à une nouvelle interface de connexion (« socket »). Puisque TCP fiabilise le  transport  de
       données  sur  le  réseau,  rsize  et  wsize peuvent en toute sécurité permettre par défaut la plus grande
       valeur gérée à la fois par le client et par le serveur, indépendamment de la taille du MTU du réseau.

   Utilisation de l'option de montage mountproto
       Cette section s'applique uniquement aux versions 2 et 3 du protocole mount car  NFS 4  n'utilise  pas  un
       protocole de montage séparé.

       Le  client  Linux  peut  utiliser  différents  modes  de transfert pour contacter le service rpcbind d'un
       serveur, son service mountd, son gestionnaire de verrou réseau (NLM) et  son  service  NFS.  Le  mode  de
       transport  utilisé  par  le client NFS de Linux pour chaque point de montage dépend des options passées à
       mount, qui incluent proto, mountproto udp et tcp.

       Le client envoie des notifications au gestionnaire réseau de statut (NSM : « network status manager »)  à
       l'aide  d'UDP,  quel  que soit le mode de transfert précisé. Il écoute cependant les notifications NSM du
       serveur à la fois sur UDP et TCP. Le protocole gérant la liste de contrôle d'accès à NFS  (NFACL :  « nfs
       access control list ») utilise le même mode de transfert que le service NFS principal.

       Si  aucune  option  n'est  précisée  quant  au  mode  de  transfert, le client NFS Linux utilise UDP pour
       contacter le service mountd du server, et TCP pour contacter ses services NLM et NFS par défaut.

       Si le serveur ne gère pas ces modes de transfert pour  ces  services,  la  commande  mount(8)  essaye  de
       trouver  quel  mode est pris en charge par le serveur, et essaye une fois de se reconnecter avec ce mode.
       Si le serveur ne propose aucun mode géré par le client ou  est  mal  configuré,  la  requête  de  montage
       échoue.  Si  l'option  bg  a été passée, la commande mount passe en arrière-plan et continue d'essayer la
       requête de montage demandée.

       Quand l'une des options proto, udp ou tcp est passée mais  que  mountproto  ne  l'est  pas,  le  mode  de
       transfert  demandé  est utilisé à la fois pour contacter le service mountd du serveur et ses services NLM
       et NFS.

       Si l'option mountproto est passée mais que ni proto, ni udp et ni tcp n'est passée alors le mode  demandé
       est  utilisé  pour  la  requête  mount  initiale, mais la commande mount essaye de découvrir quel mode de
       transfert est pris en charge pour le protocole NFS, et préférera TCP si les deux modes sont implémentés.

       Si mountproto et proto (ou udp ou tcp) sont passés en même temps, le mode de transport indiqué à l'option
       mountproto est utilisé pour la requête initiale de mountd, et le mode indiqué à proto (ou udp ou tcp) est
       utilisé pour NFS, quel que soit l'ordre de ces options. Le programme  ne  cherchera  pas  à  trouver  les
       services si ces options sont données.

       Si  l'une  des  options  proto, udp, tcp ou mountproto est passée plus d'une fois dans une même commande,
       alors la valeur retenue sera celle la plus à droite.

   Utiliser NFS sur UDP sur des connexions haut débit
       Utiliser NFS sur UDP avec des connexions haut débit comme Gigabit peut causer des corruptions de  données
       silencieuses.

       Le  problème  peut  être  déclenché  lors  de  fortes  charges,  et est causé par des difficultés dans le
       réassemblage de fragments IP. Les lectures et écritures par NFS transmettent typiquement des paquets  UDP
       de  4 kilooctets  ou  plus,  qui doivent être cassés en plusieurs fragments pour être envoyés sur le lien
       Ethernet, pour lequel la taille des paquets est limitée à 1500 octets par défaut. Ce processus a lieu  au
       niveau de la couche réseau IP et est appelé fragmentation.

       Afin d'identifier les fragments qui proviennent du même paquet, IP attribue un identifiant IP (IP ID) sur
       16 bits à chaque paquet. Les fragments générés à partir du même paquet UPD auront le même identifiant IP.
       Le système destinataire récupère ces fragments et les combine pour reformer les paquets UPD originaux. Ce
       processus  est  appelé réassemblage. Le délai d'expiration par défaut pour le réassemblage de paquets est
       de 30 secondes. Si la pile réseau ne reçoit  pas  tous  les  fragments  d'un  paquet  donné  pendant  cet
       intervalle de temps, elle suppose que les fragments manquants se sont perdus et rejette ceux qui ont déjà
       été reçus.

       Le  problème  que  cela  crée sur des connexions à haut débit est dû au fait qu'il est possible d'envoyer
       plus de 655356 paquets en 30 secondes. En fait, avec un trafic dense NFS, les identifiants IP se répètent
       au bout d'environ 5 secondes.

       Cela a de sérieux effets sur le réassemblage : si un fragment se perd,  un  autre  fragment  d'un  paquet
       différent mais avec le même identifiant IP arrivera avant l'expiration au bout de 30 secondes, et la pile
       réseau  combinera  ces  fragments  pour former un nouveau paquet. La plupart du temps, les couches réseau
       au-dessus d'IP détecteront ce réassemblage non assorti — dans le cas d'UPD, la somme de contrôle UDP  sur
       16 bits sur la charge utile du paquet ne correspondra pas, et UDP rejettera le mauvais paquet.

       Cependant,  comme  la  somme  de  contrôle  UDP  est sur uniquement 16 bits, il y a une chance sur 655356
       qu'elle coïncide même si la charge utile du paquet est complètement aléatoire (ce qui très souvent  n'est
       pas vrai). Si tel est le cas, une corruption de données silencieuse se sera produite.

       Cette  possibilité  doit  être  prise  au  sérieux,  au  moins sur Ethernet Gigabit. Les débits réseau de
       100 Mbit/s devraient être considérés comme moins problématiques, car  dans  la  plupart  des  situations,
       l'épuisement des identifiants IP prendra bien plus que 30 secondes.

       Il  est  donc fortement recommandé d'utiliser NFS sur TCP   c'est possible, car TCP n'effectue pas de
       fragmentation.

       Si vous devez absolument utiliser NFS sur UDP sur un réseau Gigabit Ethernet,  quelques  actions  peuvent
       être effectuées pour limiter le problème et réduire la probabilité de corruption :

       trames Jumbo : Beaucoup de cartes réseau Gigabit sont capables de transmettre des trames plus grandes que
                      la  limite  traditionnelle sur Ethernet de 1500 octets (typiquement 9000 octets). Utiliser
                      ces grandes trames (Jumbo) vous permettra de faire fonctionner NFS sur UDP avec une taille
                      de page de 8 ko sans fragmentation. Bien sûr,  cela  n'est  possible  que  si  toutes  les
                      stations impliquées gèrent les trames Jumbo.

                      Pour  activer  l'envoi de trames Jumbo sur une machine avec une carte réseau qui les gère,
                      il suffit de configurer l'interface avec une valeur MTU de 9000.

       diminution du délai avant expiration de réassemblage :
                      Le réassemblage incorrect de fragments peut être aussi évité en diminuant ce délai sous le
                      temps nécessaire à la  réinitialisation  des  identifiants  IP.  Pour  ce  faire,  écrivez
                      simplement    la    nouvelle    valeur   du   délai   (en   seconde)   dans   le   fichier
                      /proc/sys/net/ipv4/ipfrag_time.

                      Une valeur de 2 secondes diminuera fortement la probabilité d'une collision d'identifiants
                      IP sur un seul lien Gigabit, tout en permettant un délai d'expiration raisonnable lors  de
                      la réception d'un trafic fragmenté depuis des serveurs distants.

COHÉRENCE DES DONNÉES ET DES MÉTADONNÉES

       Some  modern  cluster  file  systems  provide  perfect cache coherence among their clients. Perfect cache
       coherence among disparate NFS clients is expensive to achieve, especially on wide area networks. As such,
       NFS settles for weaker cache coherence that satisfies the requirements of most file sharing types.

   Cohérence de cache « close-to-open »
       Typically file sharing is completely sequential. First client A opens a file,  writes  something  to  it,
       then closes it. Then client B opens the same file, and reads the changes.

       When  an  application opens a file stored on an NFS version 3 server, the NFS client checks that the file
       exists on the server and is permitted to the opener by sending a  GETATTR  or  ACCESS  request.  The  NFS
       client sends these requests regardless of the freshness of the file's cached attributes.

       When  the application closes the file, the NFS client writes back any pending changes to the file so that
       the next opener can view the changes. This also gives the NFS  client  an  opportunity  to  report  write
       errors to the application via the return code from close(2).

       The  behavior  of  checking at open time and flushing at close time is referred to as close-to-open cache
       consistency, or CTO. It can be disabled for an entire mount point using the nocto mount option.

   Faible cohérence de cache
       Il y a toujours des cas dans lesquels le cache de données du client contient  des  données  incohérentes.
       Dans  la  version 3  du  protocole  NFS est apparue la « faible cohérence de cache » (appelée aussi WCC),
       offrant une méthode efficace de vérification des attributs  d'un  fichier  avant  et  après  une  requête
       unique.  Cela permet à un client une meilleure perception des modifications qui ont pu être réalisées par
       les autres clients.

       Quand un client génère beaucoup d'opérations concomitantes qui modifient le même fichier au  même  moment
       (par exemple grâce à des écritures asynchrones en arrière-plan), il est difficile de savoir si le fichier
       a été modifié par ce client ou par un autre.

   Mémorisation (cache) des attributs
       L'utilisation  de  l'option  noac de mount permet de réaliser la cohérence de la mémorisation (cache) des
       attributs pour de multiples clients. Pratiquement toutes les opérations de système de fichiers  vérifient
       les informations d'attributs de fichiers. Le client garde cette information en mémoire (cache) pendant un
       certain  temps  afin  de  réduire la charge du serveur et du réseau. Quand noac est activée, le cache des
       attributs de fichier est désactivé sur le client et chaque opération qui doit vérifier les attributs  des
       fichiers  doit  impérativement  s'adresser  au  serveur.  Ceci  permet  au  client de voir rapidement les
       modifications sur un fichier, en contrepartie d'une augmentation importante des opérations réseaux.

       Soyez attentif à ne pas  confondre  l'option  noac  avec  « pas  de  mémorisation  de  données  (no  data
       caching) ».  L'option  noac  de  mount empêche la mise en cache par le client des métadonnées du fichier,
       mais il existe toujours des cas dans lesquels des incohérences de données cachées peuvent survenir  entre
       le client et le serveur.

       Le protocole NFS n'a pas été conçu pour gérer la cohérence absolue des caches pour des grappes (clusters)
       de  systèmes de fichiers sans qu'il soit nécessaire d'utiliser des types particuliers de sérialisation au
       niveau applicatif. Si la cohérence absolue du cache est nécessaire aux clients, les applications  devront
       utiliser  le  verrouillage  de fichiers (« file locking »). D'autre part, les applications pourront aussi
       utiliser le drapeau O_DIRECT lors de l'ouverture des fichiers afin de désactiver totalement  la  mise  en
       cache des données.

   File timestamp maintainence
       NFS  servers are responsible for managing file and directory timestamps (atime, ctime, and mtime). When a
       file is accessed or updated on an NFS server, the file's timestamps are updated just like they  would  be
       on a filesystem local to an application.

       NFS  clients  cache file attributes, including timestamps. A file's timestamps are updated on NFS clients
       when its attributes are retrieved from the NFS server. Thus there may  be  some  delay  before  timestamp
       updates on an NFS server appear to applications on NFS clients.

       To comply with the POSIX filesystem standard, the Linux NFS client relies on NFS servers to keep a file's
       mtime and ctime timestamps properly up to date. It does this by flushing local data changes to the server
       before reporting mtime to applications via system calls such as stat(2).

       The  Linux  client  handles atime updates more loosely, however. NFS clients maintain good performance by
       caching data, but that means that application reads, which normally update atime, are  not  reflected  to
       the server where a file's atime is actually maintained.

       Because  of  this  caching  behavior,  the  Linux NFS client does not support generic atime-related mount
       options. See mount(8)  for details on these options.

       In particular, the atime/noatime, diratime/nodiratime, relatime/norelatime, and strictatime/nostrictatime
       mount options have no effect on NFS mounts.

       /proc/mounts may report that the relatime mount option is set on  NFS  mounts,  but  in  fact  the  atime
       semantics are always as described here, and are not like relatime semantics.

   Mettre en cache les entrées répertoires
       Le  client  NFS  Linux garde en cache les résultats d'une requête NFS LOOKUP. Si la requête pointe sur un
       répertoire existant sur le serveur, le résultat sera noté positif. Sinon, si le répertoire  n'existe  pas
       (c'est-à-dire si le serveur retourne ENOENT), le résultat sera noté négatif.

       Afin  de détecter l'ajout ou la suppression de répertoires sur le serveur, le client NFS Linux regarde la
       date de modification (« mtime ») du répertoire. Si le client détecte un changement dans  cette  date,  le
       client  supprime  tous  les  résultats  LOOKUP encore en cache concernant ce répertoire. Comme la date de
       modification est un attribut conservé en cache, il est possible qu'un peu de temps se passe avant que  le
       client remarque le changement. Référez-vous aux descriptions des options de montage acdirmin, acdirmax et
       noac pour plus d'informations quant à la manière dont le temps de modification est mis en cache.

       Mettre  en  cache les entrées des répertoires améliore les performances des applications qui ne partagent
       pas de fichiers avec des applications sur un autre client. L'utilisation d'informations en cache sur  des
       répertoires,  cependant, peut interférer avec des applications qui tournent simultanément sur de nombreux
       clients et qui doivent détecter rapidement la création ou la suppression de fichiers. L'option de montage
       lookupcache permet de personnaliser certains comportements de mise en cache de répertoires.

       Avant la version 2.6.28 du noyau, le client NFS Linux cherchait uniquement les  résultats  de  recherches
       positifs.  Cela  permettait  aux  applications de détecter rapidement de nouvelles entrées de répertoires
       créées par d'autres clients, tout en fournissant une partie des bénéfices dus à la mise en cache. Si  une
       application dépend de cet ancien comportement, vous pouvez utiliser l'option lookupcache=positive.

       Si  le  client ignore son cache et valide toutes les requêtes de recherche avec le serveur, il peut alors
       détecter immédiatement toute création ou suppression de répertoire  par  un  autre  client.  Vous  pouvez
       forcer  ce  comportement  avec  l'option  lookupcache=none.  L'absence  de  mise en cache des répertoires
       entraîne une augmentation du nombre de requêtes NFS, et donc  une  perte  de  performances.  Empêcher  la
       recherche  sur  le  cache  devrait  permettre une moindre perte au niveau des performances que d'utiliser
       noac, et n'a aucun effet sur la manière dont le client NFS met en cache les attributs d'un fichier.

   L'option de montage sync
       Le client NFS gère l'option de montage sync différemment que d'autres  systèmes  de  fichiers  (consultez
       mount(8)  pour  une  description  générique des options de montage sync et async). Si ni sync ni async ne
       sont indiquées (ou si l'option async est indiquée), le client NFS retarde l'envoi au serveur  des  ordres
       d'écriture des applications jusqu'à ce que l'un de ces événements survienne :

              La saturation en mémoire entraîne une demande de ressources mémoire au système.

              Une application met à jour (« flush ») les données d'un fichier de manière explicite avec sync(2),
              msync(2) ou fsync(3).

              Une application ferme un fichier avec close(2).

              Le fichier est verrouillé/déverrouillé grâce à fcntl(2).

       Autrement  dit,  dans  les  conditions  normales  d'utilisation,  des données écrites par une application
       peuvent ne pas apparaître instantanément sur le serveur qui héberge le fichier.

       Si l'option sync est précisée pour un point de montage, tout appel système qui écrit des données dans des
       fichiers de ce point de montage entraîne la purge des données sur le serveur avant de revenir  en  espace
       utilisateur  (« user  space »). Cela offre une meilleure cohérence du cache des données, mais a un impact
       certain sur les performances.

       Les applications peuvent utiliser le drapeau d'ouverture O_SYNC  afin  que  les  écritures  d'un  fichier
       précis soient immédiatement prises en compte par le serveur, et ce sans l'utilisation de l'option sync de
       mount.

   Utilisation des verrous de fichiers avec NFS
       Le Gestionnaire de Verrous Réseaux (NLM, Network Lock Manager) est un protocole auxiliaire séparé servant
       à  gérer  les  verrous  sur  les fichiers dans les versions 2 et 3 de NFS. Pour gérer la récupération des
       verrous après le redémarrage d'un client ou du serveur,  un  second  protocole  (connu  sous  le  nom  de
       protocole  Network Status Manager) est nécessaire. Dans la version 4 de NFS, le verrouillage des fichiers
       est directement implanté dans le protocole NFS, et les protocoles NLM et NSM ne sont plus utilisés.

       Dans la plupart des cas, les services NLM et NSM sont démarrés automatiquement  et  aucune  configuration
       additionnelle  n'est requise. La configuration en noms de domaine complètement définis (FQDN) de tous les
       clients NFS est nécessaire pour permettre aux serveurs NFS  de  retrouver  leurs  clients,  afin  de  les
       prévenir en cas de redémarrage.

       NLM  ne  gère  que  l'annonce  de  verrouillage  de  fichiers. Pour verrouiller les fichiers NFS, il faut
       utiliser fcntl(2) avec les commandes F_GETL et F_SETL. Le client NFS convertit les  verrous  de  fichiers
       obtenus grâce à flock(2) en annonces de verrouillage.

       Lors du montage de serveurs ne gérant pas le protocole NLM ou lorsqu'on monte un serveur NFS à travers un
       pare-feu  qui  bloque  le port du service NLM, il faut utiliser l'option nolock de mount. Le verrouillage
       NLM doit être désactivé grâce à l'option nolock lorsqu'on utilise NFS  pour  monter  /var,  puisque  /var
       contient les fichiers utilisés par NLM dans son implémentation sous Linux.

       L'utilisation de l'option nolock est parfois conseillée pour améliorer les performances d'une application
       propriétaire qui ne tourne que sur un seul client mais qui utilise intensément les verrous de fichiers.

   Les caractéristiques du cache de la version 4 de NFS.
       Le  comportement  du cache des données et des métadonnées des clients NFS version 4 est identique à celui
       des précédentes versions. Toutefois, la version 4 de NFS offre deux nouveaux dispositifs  pour  améliorer
       le comportement du cache : attributs de changement et délégation de fichier.

       L'attribut  de  changement  est  un  nouvel élément des métadonnées de fichiers et de répertoires NFS qui
       enregistre  les  modifications  des  données.  Il  se  substitue  à  l'utilisation  de  l'horodatage  des
       modifications  et  changements du fichier pour offrir aux clients la validation du contenu de leur cache.
       Cependant, ces attributs de changement ne sont pas liés à la gestion de l'horodatage ni sur le client  ni
       sur le serveur.

       La  délégation  de  fichier  est  un  contrat  qui  lie  un  client  NFS version 4 et le serveur, offrant
       temporairement au client le traitement d'un fichier comme s'il était le seul  à  y  accéder.  Le  serveur
       s'engage  à  prévenir le client (grâce à une requête de rappel, ou « callback ») si un autre client tente
       d'accéder à ce même fichier. Une fois qu'un fichier a été délégué à un client, ce client  peut  mémoriser
       (mettre  en cache) les données et les métadonnées de ce fichier de façon agressive sans avoir à contacter
       le serveur.

       Il y a deux types de délégations : lecture et écriture. Une délégation en lecture indique que le  serveur
       avertira le client si d'autres clients veulent écrire dans ce fichier. Une délégation en écriture indique
       que le client sera prévenu des tentatives de lecture ou d'écriture.

       Les  serveurs  offrent  les  délégations de fichier sitôt qu'un fichier est ouvert et peuvent annuler ces
       délégations n'importe quand dès lors qu'un autre client désire accéder à un  fichier  d'une  manière  qui
       entre en conflit avec les délégations déjà attribuées. Les délégations de répertoires ne sont pas gérées.

       Afin  de pouvoir gérer les alertes de délégations (« delegation callback »), le serveur vérifie le chemin
       retour vers le client au moment du contact initial de celui-ci. Si le retour vers le client ne  peut  pas
       être établi, le serveur n'attribue purement et simplement aucune délégation à ce client.

CONSIDÉRATIONS DE SÉCURITÉ.

       Les  serveurs  NFS  contrôlent  l'accès  aux  données  des  fichiers,  mais  leur  offre  de  gestion  de
       l'authentification des requêtes NFS dépend de leur implémentation des  RPC.  Les  contrôles  d'accès  NFS
       traditionnels  imitent  les  contrôles  d'accès  binaires  standards offerts par les systèmes de fichiers
       locaux. L'authentification RPC traditionnelle utilise  un  nombre  pour  représenter  chaque  utilisateur
       (normalement l'uid propre à cet utilisateur), un nombre pour représenter le groupe de cet utilisateur (le
       gid de l'utilisateur) et un ensemble d'au maximum 16 nombres de groupes additionnels pour représenter les
       groupes auxquels cet utilisateur peut appartenir.

       Traditionnellement,  les  données du fichier et l'ID de l'utilisateur ne sont pas chiffrées sur le réseau
       (en clair). Qui plus est, les versions 2 et 3 de NFS utilisent des protocoles auxiliaires séparés pour le
       montage, le verrouillage et le déverrouillage des fichiers,  et  pour  renvoyer  les  valeurs  de  retour
       système des clients et serveurs. Ces protocoles auxiliaires n'utilisent pas d'authentification.

       En  plus d'avoir intégré ces deux protocoles auxiliaires dans le protocole NFS principal, la version 4 de
       NFS offre des formes plus avancées de contrôle d'accès, d'authentification,  et  de  protection  lors  du
       transfert  des  données.  La  spécification  de  la  version 4  de  NFS  requiert  une prise en charge de
       l'authentification renforcée, et les divers types de sécurité permettant le contrôle  d'intégrité  et  le
       chiffrement  à l'aide de RPC. Puisque la version 4 de NFS ajoute les fonctionnalités de ces protocoles au
       cœur du protocole NFS, les nouvelles caractéristiques de sécurité s'appliquent à toutes les opérations de
       NFS  version 4,  incluant  donc  le  montage,  le  verrouillage  des  fichiers,  et   ainsi   de   suite.
       L'authentification  RPCGSS  peut aussi être utilisée avec les versions 2 et 3 de NFS, mais ne protège pas
       les protocoles associés.

       The sec mount option specifies the security flavor used for operations on behalf of  users  on  that  NFS
       mount  point.  Specifying sec=krb5 provides cryptographic proof of a user's identity in each RPC request.
       This provides strong verification of the identity of users  accessing  data  on  the  server.  Note  that
       additional  configuration  besides  adding  this  mount  option  is  required in order to enable Kerberos
       security. Refer to the rpc.gssd(8) man page for details.

       Deux dispositifs additionnels de la sécurité Kerberos sont pris en charge : krb5i et krb5p. Le dispositif
       de sécurité krb5i offre une garantie de chiffrement fort contre la falsification des données pour  chaque
       requête  RPC.  Le  dispositif  de  sécurité  krb5p  chiffre chaque requête RPC afin d'éviter qu'elle soit
       exposée pendant son transfert sur le réseau. Toutefois, le chiffrement ou la vérification de  l'intégrité
       entraînent  des  baisses de performance. D'autres formes de sécurité par chiffrement sont aussi prises en
       charge.

   NFS version 4 filesystem crossing
       Le protocole de la version 4 de NFS permet à un client de renégocier le type de sécurité lorsqu'un client
       entre sur un nouveau système de fichiers sur le serveur. Le type nouvellement négocié ne concerne que  le
       nouveau système de fichiers.

       Une  telle  négociation  se produit typiquement lorsqu'un client passe d'un pseudo-système de fichiers du
       serveur à un des systèmes de fichiers physiques exportés par le serveur, qui ont souvent  des  paramètres
       de sécurité plus restrictifs que les pseudo-systèmes de fichiers.

   NFS version 4 Leases
       In  NFS  version 4, a lease is a period of time during which a server irrevocably grants a file lock to a
       client. If the lease expires, the server is allowed to revoke that lock. Clients periodically renew their
       leases to prevent lock revocation.

       After an NFS version 4 server reboots, each client tells the server about all file open  and  lock  state
       under  its lease before operation can continue. If the client reboots, the server frees all open and lock
       state associated with that client's lease.

       As part of establishing a lease, therefore, a client must identify itself to a server. A fixed string  is
       used  to  distinguish  that  client  from  others, and a changeable verifier is used to indicate when the
       client has rebooted.

       A client uses a particular security flavor and principal when performing the operations  to  establish  a
       lease.  If  two  clients happen to present the same identity string, a server can use their principals to
       detect that they are different clients, and prevent one client from interfering with the other's lease.

       The Linux NFS client establishes one lease for each server. Lease management operations,  such  as  lease
       renewal,  are  not  done on behalf of a particular file, lock, user, or mount point, but on behalf of the
       whole client that owns that lease. These operations must use the same security flavor and principal  that
       was used when the lease was established, even across client reboots.

       When Kerberos is configured on a Linux NFS client (i.e., there is a /etc/krb5.keytab on that client), the
       client  attempts  to  use  a  Kerberos security flavor for its lease management operations. This provides
       strong authentication of the client to each server it contacts. By default, the client uses the host/  or
       nfs/ service principal in its /etc/krb5.keytab for this purpose.

       If  the  client has Kerberos configured, but the server does not, or if the client does not have a keytab
       or the requisite service principals, the client uses AUTH_SYS and UID 0 for lease management.

   Utiliser un port source non privilégié
       Le client NFS communique normalement avec le serveur par des tuyaux réseaux (network sockets).  À  chaque
       bout  du tuyau est associé un port qui est un simple nombre entre 1 et 65535, ce qui permet de distinguer
       des tuyaux pointant sur la même adresse IP. Un tuyau est identifié  de  manière  unique  par  un  n-uplet
       comprenant le protocole de passage (TCP ou UDP) et les ports et adresses IP de chaque bout.

       Le  client  NFS peut choisir n'importe quel port d'origine pour ses tuyaux, mais il choisit en général un
       port privilégié (c'est-à-dire avec une valeur inférieure à 1024). Seul un  processus  tournant  avec  des
       droits du superutilisateur peut créer un tuyau à partir d'un port privilégié.

       La  fourchette  des  ports  potentiellement  choisis  est configurée par une paire de sysctls pour éviter
       l'utilisation de ports bien connus, tel celui de SSH.  Cela  signifie  que  le  nombre  de  ports  source
       potentiels  pour  le  client  NFS,  et donc pour le nombre de connexions par tuyau disponible à un moment
       donné est en pratique de l'ordre d'une centaine.

       Comme décrit plus haut, le schéma d'authentification NFS traditionnel  (connu  sous  le  nom  d'AUTH_SYS)
       compte  sur  l'envoi  d'UID et de GID locaux pour identifier les utilisateurs à l'origine de requêtes. Un
       serveur NFS suppose que si une connexion provient d'un port non privilégié, les numéros UID et GID de  la
       requête  NFS  ont  déjà  été  vérifiés  par  le noyau du client ou tout autre programme système local. Ce
       système est facile  à  contourner,  mais  sur  un  réseau  sécurisé  d'ordinateurs  de  confiance,  c'est
       parfaitement adapté.

       En  gros, un tuyau est utilisé pour chaque point de montage NFS. Si un client peut aussi utiliser un port
       source non privilégié, le nombre de tuyaux autorisés (et donc le nombre maximal de points de  montage  en
       parallèles) sera beaucoup plus important.

       Utiliser  un  port  source  non  privilégié  peut  quelque  peu  compromettre la sécurité du serveur, car
       n'importe quel utilisateur d'un point de montage sur AUTH_SYS peut maintenant se  faire  passer  pour  un
       autre  comme  source  de  la  requête.  C'est  pourquoi les serveurs NFS ne le prennent pas en charge par
       défaut. En règle générale, ils l'autorisent explicitement à l'aide d'une option de partage.

       Pour garder un bon niveau de sécurité tout en ouvrant un maximum de points de montage, il est  préférable
       d'autoriser  les  connexions  clients  sur  un  port  non privilégié seulement si le serveur et le client
       utilisent tous deux une authentification forte, comme celle fournie par Kerberos.

   Montage à travers un pare-feu
       Un pare-feu peut se trouver entre un client NFS et le serveur, ou alors le client ou le  serveur  peuvent
       bloquer  certains  de  leurs propres ports grâce à des règles de filtrage IP. Il est toujours possible de
       monter un serveur NFS à travers un pare-feu, bien  que  les  mécanismes  de  découverte  automatique  des
       terminaisons  d'accès  (« endpoints ») de la commande mount(8) peuvent ne pas fonctionner. Il vous faudra
       alors fournir des détails spécifiques à ces terminaisons d'accès (« endpoints »)  grâce  aux  options  de
       mount.

       Les  serveurs  NFS  lancent  habituellement  un  service (daemon) portmapper ou rpcbind pour annoncer aux
       clients les terminaisons (endpoints)  des  services.  Les  clients  se  servent  du  démon  rpcbind  pour
       déterminer :

              Le port réseau utilisé par chaque service basé sur les RPC

              Le protocole de transport utilisé par chaque service basé sur les RPC

       Le  démon  rpcbind  utilise  un  port  bien connu (111) afin d'aider les clients à trouver la terminaison
       (endpoint) d'un service. Bien que NFS utilise souvent un numéro de port  standard  (2049),  des  services
       auxiliaires tels que NLM peuvent choisir au hasard des numéros de port inutilisés.

       Les  configurations  habituelles  des  pare-feu  bloquent  le port bien connu de rpcbind. En l'absence du
       service rpcbind, l'administrateur du serveur définit un numéro de port pour les services liés à NFS  afin
       que  le pare-feu puisse permettre l'accès aux ports des services spécifiques NFS. Les administrateurs des
       clients pourront alors indiquer le numéro du port du service mountd grâce  à  l'option  mountport  de  la
       commande  mount(8). Il peut être nécessaire d'imposer l'utilisation de TCP ou d'UDP si le pare-feu bloque
       l'un de ces transports.

   Désactiver le traitement des ACL (Access Control List).
       Solaris permet aux clients NFS version 3 l'accès direct aux Access Control Lists (ACL) POSIX stockés dans
       son système de fichiers local. Ce protocole auxiliaire propriétaire, connu sous le nom de  NFSACL,  offre
       un  contrôle  d'accès  plus  riche  que  le  mode  binaire.  Linux implémente ce protocole dans un but de
       compatibilité avec l'implémentation NFS de Solaris. Cependant, le protocole NFSACL  n'est  jamais  devenu
       une partie standard de la spécification NFS version 3.

       La  spécification  de  NFS  version 4  impose  une  nouvelle  version  des  Access Control Lists qui sont
       sémantiquement plus riches que les ACL POSIX. Les ACL de NFS version 4 ne sont pas totalement compatibles
       avec les ACL POSIX. De ce fait, des traductions entre les deux sont obligatoires  dans  un  environnement
       qui mélange à la fois les ACL POSIX et NFS version 4.

OPTION DE REMONTAGE

       Les  options  de  montage  générique  comme  rw  et sync peuvent être modifiées par les points de montage
       utilisant l'option remount. Voir mount(8) pour plus d'informations sur les options génériques de montage.

       Sauf quelques exceptions, les options spécifiques  à  NFS  ne  peuvent  pas  être  modifiées  pendant  un
       remontage.  Par  exemple,  le  transport sous-jacent ou la version NFS ne peuvent pas être changés par un
       remontage.

       Effectuer un remontage sur  un  système  de  fichiers  NFS  monté  avec  l'option  noac  peut  avoir  des
       conséquences  inattendues.  L'option  noac  est une combinaison de l'option générique sync et de l'option
       spécifique NFS actimeo=0.

   Démontage après remontage
       Pour les points de montage qui utilisent NFS versions 2 ou 3, la sous-commande de démontage NFS dépend de
       la connaissance de l'ensemble initial des options de montage utilisées pour  effectuer  l'opération  MNT.
       Ces options sont stockées sur le disque par la sous-commande de montage NFS, et peuvent être effacées par
       un remontage.

       Afin  de  s'assurer  que les options de montage enregistrées ne sont pas effacées lors d'un remontage, il
       faut spécifier  au  remontage  le  répertoire  de  montage  local,  ou  le  serveur  hôte  et  le  chemin
       d'exportation, mais pas les deux. Par exemple,

               mount -o remount,ro /mnt

       fusionne  l'option  de  montage  ro  avec  les options de montage déjà enregistrées sur le disque pour le
       serveur NFS monté dans /mnt.

FICHIERS

       /etc/fstab     Table des systèmes de fichiers

       /etc/nfsmount.conf
                      Fichier de configuration pour les montages NFS

BOGUES

       Le client NFS antérieur à 2.4.7 ne gérait pas NFS sur TCP.

       Le client NFS antérieur à 2.4.20 utilisait une heuristique pour savoir si  les  données  mémorisées  d'un
       fichier  (en cache) étaient toujours valides plutôt qu'utiliser la méthode standard de cohérence de cache
       close-to-open décrite ci-dessus.

       Depuis la version 2.4.22, le client NFS utilise une estimation RTT de type Van Jacobsen pour définir  les
       délais de dépassement de temps (timeout) lorsqu'il utilise NFS sur UDP.

       Le client NFS Linux antérieur à 2.6.0 ne gérait pas NFS version 4.

       Le client NFS antérieur à 2.6.8 n'utilisait les lectures et écritures synchrones que lorsque les réglages
       de rsize et wsize étaient inférieurs à la taille des pages du système.

       Le  client NFS Linux ne prend toujours pas en charge certaines caractéristiques optionnelles du protocole
       NFS version 4, telles que la négociation de sécurité,  les  soumissions  de  serveurs  et  les  attributs
       nommés.

VOIR AUSSI

       fstab(5),  mount(8),  umount(8), mount.nfs(5), umount.nfs(5), exports(5), nfsmount.conf(5), netconfig(5),
       ipv6(7), nfsd(8), sm-notify(8), rpc.statd(8), rpc.idmapd(8), rpc.gssd(8), rpc.svcgssd(8), kerberos(1)

       RFC 768 concernant la spécification UDP.
       RFC 793 concernant la spécification TCP.
       RFC 1094 concernant la spécification de NFS version 2.
       RFC 1813 concernant la spécification de NFS version 3.
       RFC 1832 concernant la spécification XDR.
       RFC 1833 concernant la spécification RPC bind.
       RFC 2203 concernant la spécification du protocole de l'API GSS RPCSEC.
       RFC 3530 concernant la spécification de NFS version 4.

TRADUCTION

       La   traduction   française   de   cette   page   de   manuel   a   été   créée   par    Valéry    Perrin
       <valery.perrin.debian@free.fr>,    Sylvain    Cherrier    <sylvain.cherrier@free.fr>,    Thomas   Huriaux
       <thomas.huriaux@gmail.com>,    Dominique    Simen    <dominiquesimen@hotmail.com>,    Nicolas     Sauzède
       <nsauzede@free.fr>,  Romain  Doumenc  <rd6137@gmail.com>, David Prévot <david@tilapin.org>, Denis Mugnier
       <myou72@orange.fr> et Cédric Boutillier <cedric.boutillier@gmail.com>

       Cette traduction est une documentation libre ; veuillez vous  reporter  à  la  GNU General Public License
       version 3 concernant les conditions de copie et de distribution. Il n'y a aucune RESPONSABILITÉ LÉGALE.

       Si  vous  découvrez  un  bogue  dans la traduction de cette page de manuel, veuillez envoyer un message à
       debian-l10n-french@lists.debian.org.

                                                 9 Octobre 2012                                           NFS(5)