Comment utiliser TensorFlow avec Container Station


Date de la dernière modification : 2019-09-24

À propos de TensorFlow

TensorFlow™ est une bibliothèque de logiciels open source pour le calcul numérique qui utilise des graphiques de flux de données. Les nœuds dans le graphique représentent des opérations mathématiques, alors que les bords du graphique représentent les plages de données multidimensionnelles (tenseurs) communiquées entre elles.

Installer TensorFlow dans Container Station

  1. Attribuer les GPU à Container Station.
    1. Allez dans Panneau de configuration > Système > Matériel > Carte graphique.
    2. Sous Utilisation des ressources, attribuez les GPU à Container Station.
    3. Cliquez sur Appliquer.
  2. Ouvrez Container Station.
  3. Utiliser la version correcte de l’image.
    1. Cliquez sur Images.
    2. Cliquez sur Pull pour installer l’image désirée.
      Remarque : Il est recommandé d'utiliser la version suivante de TensorFlow en fonction de la version de QTS et du pilote Nvidia installés :
      Versions de QTS et du pilote Nvidia Balise Commande Pull
      QTS 4.3.5 et pilote Nvidia v1.3.5 tensorflow/tensorflow:1.11.0-gpu docker pull tensorflow/tensorflow:1.11.0-gpu
      QTS 4.4.x et pilote Nvidia v2.0.0 tensorflow/tensorflow:1.11.0-gpu docker pull tensorflow/tensorflow:1.11.0-gpu
  4. Cliquez sur Créer.
  5. Recherchez le mot clé « TensorFlow ». Trouvez tensorflow/tensorflow puis cliquez sur Installer.
  6. Sélectionnez une version suivante de TensorFlow en fonction de la version de QTS et du pilote Nvidia installés.
    Versions de QTS et du pilote Nvidia Version recommandée
    QTS 4.3.5 et pilote Nvidia v1.3.5 1.11.0-gpu
    QTS 4.4.x et pilote Nvidia v2.0.0 1.11.0-gpu
  7. Cliquez sur Suivant.
  8. Cliquez sur Paramètres avancés.
  9. Attribuer les GPU au conteneur.
    1. Allez dans Appareil.
    2. Cliquez sur Ajouter.
    3. Choisissez les GPU à ajouter au conteneur.
  10. Facultatif : Partager un dossier NAS avec le conteneur.
    1. Allez dans Dossier partagé.
    2. Sur Volume depuis un hôte, cliquez sur Ajouter.
      Un nouveau volume de l’hôte est ajouté.
    3. Sélectionnez un chemin d'hôte.
    4. Indiquez un point de montage.
  11. Cliquez sur Créer.
    Un Résumé de votre nouveau conteneur sera affiché.
  12. Vérifiez les paramètres du conteneur.
  13. Cliquez sur OK.
    L’image du conteneur est installée.

Monter un GPU NVIDIA via SSH

  1. Connectez-vous à votre NAS via SSH.
  2. Montez les GPU sur le conteneur.
    1. Entrez l’une des commandes suivantes en fonction du GPU que vous souhaitez monter.
      GPU à monter Commande
      Premier
      –device /dev/nvidia0:/dev/nvidia0 \
      –device /dev/nvidiactl:/dev/nvidiactl \
      –device /dev/nvidia-uvm:/dev/nvidia-uvm \
      -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f
      /etc/config/qpkg.conf -d None`/usr/:/usr/local/nvidia
      Deuxième
      –device /dev/nvidia0:/dev/nvidia0 \
      –device /dev/nvidia1:/dev/nvidia1 \
      –device /dev/nvidiactl:/dev/nvidiactl \
      –device /dev/nvidia-uvm:/dev/nvidia-uvm \
      -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f
      /etc/config/qpkg.conf -d None`/usr/:/usr/local/nvidia
      Les deux
      –device /dev/nvidia1:/dev/nvidia1 \
      –device /dev/nvidiactl:/dev/nvidiactl \
      –device /dev/nvidia-uvm:/dev/nvidia-uvm \
      -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f
      /etc/config/qpkg.conf -d None`/usr/:/usr/local/nvidia
    Remarque : Des exemples de commandes en fonction de vos versions de QTS et du pilote Nvidia sont énumérées ci-dessous :
    Versions de QTS et du pilote Nvidia Commande
    QTS 4.3.5/4.3.6 et pilote Nvidia v1.3.5
    docker run -d –name tensorflow \
     –device /dev/nvidia0:/dev/nvidia0 \
     –device /dev/nvidiactl:/dev/nvidiactl \
     –device /dev/nvidia-uvm:/dev/nvidia-uvm \
     -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f /etc/config/qpkg.conf -d 
    None `/usr/:/usr/local/nvidia \
     -p 6006:6006 -p 8888:8888 \
     tensorflow/tensorflow:1.11.0-gpu
    QTS 4.4.x et pilote Nvidia v2.0.0
    docker run -d –name tensorflow \
     –device /dev/nvidia0:/dev/nvidia0 \
     –device /dev/nvidiactl:/dev/nvidiactl \
     –device /dev/nvidia-uvm:/dev/nvidia-uvm \-v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f 
    /etc/config/qpkg.conf -d
    None`/usr/:/usr/local/nvidia \
     -p 6006:6006 -p 8888:8888 \
     tensorflow/tensorflow:1.11.0-gpu

Accéder au conteneur

  1. Ouvrez Container Station.
  2. Cliquez sur Vue d'ensemble.
  3. Trouvez le conteneur que vous venez d’installer et ouvrez la page du conteneur.
  4. Copiez le Jeton de la Console.
  5. Cliquez sur l’URL.
  6. Collez le Jeton dans Mot de passe ou jeton.
  7. Cliquez sur Connexion.
Vous pouvez désormais utiliser Jupyter Notebook avec TensorFlow.

Est-ce que cet article a été utile ?

63% des utilisateurs pensent que ces informations sont utiles.
Merci pour votre commentaire.

Veuillez nous indiquer comment améliorer cet article :

Si vous souhaitez fournir un commentaire supplémentaire, veuillez l’inclure ci-dessous.

Choisissez une spécification

      En voir davantage Moins

      Ce site est disponible dans d'autres pays/régions :

      open menu
      back to top