Come usare TensorFlow con Container Station


Ultima data di modifica 2019-09-24

Informazioni su TensorFlow

TensorFlow™ è una libreria software open source per il calcolo numerico che utilizza grafici con flussi di dati. I nodi nel grafico rappresentano le operazioni matematiche, mentre i lati del grafico rappresentano le array dati multidimensionali (tensori) che comunicano tra di loro.

Installazione di TensorFlow in Container Station

  1. Assegnare le GPU a Container Station.
    1. Andare su Pannello di controllo > Sistema > Hardware > Scheda grafica.
    2. In Uso delle risorse, assegnare le GPU a Container Station.
    3. Fare clic su Applica.
  2. Aprire Container Station.
  3. Usare la versione corretta dell’immagine.
    1. Fare clic su Immagini.
    2. Fare clic su Pull per installare l’immagine desiderata.
      Nota: Si consiglia di usare la seguente versione di TensorFlow in base alla versione di QTS e Nvidia Driver installata:
      Versioni QTS e Nvidia Driver Tag Comando pull
      QTS 4.3.5 e Nvidia Driver v1.3.5 tensorflow/tensorflow:1.11.0-gpu docker pull tensorflow/tensorflow:1.11.0-gpu
      QTS 4.4.x e Nvidia Driver v2.0.0 tensorflow/tensorflow:1.11.0-gpu docker pull tensorflow/tensorflow:1.11.0-gpu
  4. Fare clic su Crea.
  5. Cercare la parola chiave "TensorFlow". Trovare tensorflow/tensorflow e fare clic su Installa.
  6. Selezionare la versione di TensorFlow in base alla versione di QTS e Nvidia Driver installata:
    Versioni QTS e Nvidia Driver Versione consigliata
    QTS 4.3.5 e Nvidia Driver v1.3.5 1.11.0-gpu
    QTS 4.4.x e Nvidia Driver v2.0.0 1.11.0-gpu
  7. Fare clic su Avanti.
  8. Fare clic su Impostazioni avanzate.
  9. Assegnare le GPU al container.
    1. Andare su Dispositivo.
    2. Fare clic su Aggiungi.
    3. Scegliere le GPU da aggiungere al container.
  10. Opzionale: Condividere una cartella NAS con il container.
    1. Andare su Cartella condivisa.
    2. Su Volume da host, fare clic su Aggiungi.
      Viene aggiunto un nuovo volume dall’host.
    3. Selezionare un percorso host.
    4. Specificare un punto di montaggio.
  11. Fare clic su Crea.
    Viene visualizzato un Riepilogo del nuovo container.
  12. Rivedere le impostazioni del container.
  13. Fare clic su OK.
    L’immagine del container è installata.

Montaggio di NVIDIA GPU tramite SSH

  1. Collegare il NAS mediante SSH.
  2. Montare le GPU sul container.
    1. Inserire uno dei seguenti comandi in base alla GPU da montare.
      GPU da montare Comando
      Primo
      –device /dev/nvidia0:/dev/nvidia0 \
      –device /dev/nvidiactl:/dev/nvidiactl \
      –device /dev/nvidia-uvm:/dev/nvidia-uvm \
      -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f
      /etc/config/qpkg.conf -d None`/usr/:/usr/local/nvidia
      Secondo
      –device /dev/nvidia0:/dev/nvidia0 \
      –device /dev/nvidia1:/dev/nvidia1 \
      –device /dev/nvidiactl:/dev/nvidiactl \
      –device /dev/nvidia-uvm:/dev/nvidia-uvm \
      -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f
      /etc/config/qpkg.conf -d None`/usr/:/usr/local/nvidia
      Entrambi
      –device /dev/nvidia1:/dev/nvidia1 \
      –device /dev/nvidiactl:/dev/nvidiactl \
      –device /dev/nvidia-uvm:/dev/nvidia-uvm \
      -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f
      /etc/config/qpkg.conf -d None`/usr/:/usr/local/nvidia
    Nota: di seguito esempi di comandi in base alle versioni di QTS e Nvidia Driver:
    Versioni QTS e Nvidia Driver Comando
    QTS 4.3.5/4.3.6 e Nvidia Driver v1.3.5
    docker run -d –name tensorflow \
     –device /dev/nvidia0:/dev/nvidia0 \
     –device /dev/nvidiactl:/dev/nvidiactl \
     –device /dev/nvidia-uvm:/dev/nvidia-uvm \
     -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f /etc/config/qpkg.conf -d 
    None `/usr/:/usr/local/nvidia \
     -p 6006:6006 -p 8888:8888 \
     tensorflow/tensorflow:1.11.0-gpu
    QTS 4.4.x e Nvidia Driver v2.0.0
    docker run -d –name tensorflow \
     –device /dev/nvidia0:/dev/nvidia0 \
     –device /dev/nvidiactl:/dev/nvidiactl \
     –device /dev/nvidia-uvm:/dev/nvidia-uvm \-v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f 
    /etc/config/qpkg.conf -d
    None`/usr/:/usr/local/nvidia \
     -p 6006:6006 -p 8888:8888 \
     tensorflow/tensorflow:1.11.0-gpu

Accesso al container

  1. Aprire Container Station.
  2. Fare clic su Panoramica.
  3. Trovare il container appena installato e aprire la pagina del container.
  4. Copiare il Token dalla Console.
  5. Fare clic su URL.
  6. Incollare il Token in Password o token.
  7. Fare clic su Accedi.
È ora possibile usare il notebook Jupyter con TensorFlow.

Questo articolo è stato utile?

63% delle persone lo ritengono utile.
Grazie per il feedback.

Informarci su come può essere migliorato l'articolo:

Per offrire un’ulteriore feedback, includerlo di seguito.

Scegliere le caratteristiche

      Mostra di più Meno

      Questo sito in altre nazioni/regioni

      open menu
      back to top