Nutzung von TensorFlow in Container Station


Zuletzt geändertes Datum 2019-09-24

Über TensorFlow

TensorFlow™ ist eine Open Source Softwarebibliothek zur numerischen Berechnung mit Datenflussgraphen. Knoten im Graphen stellen mathematische Operationen dar, während die Graphenkanten die zwischen ihnen kommunizierten multidimensionalen Datenarrays (Tensoren) darstellen.

TensorFlow in Container Station installieren

  1. GPUs zu Container Station zuweisen.
    1. Wechseln Sie zu Systemsteuerung > System > Hardware > Grafikkarte.
    2. Weisen Sie die GPUs unter Ressourcennutzung zu Container Station hinzu.
    3. Klicken Sie auf Übernehmen.
  2. Öffnen Sie Container Station.
  3. Verwenden Sie die korrekte Image Version.
    1. Klicken Sie auf Bilder.
    2. Klicken Sie auf Pull, um das gewünschte Image zu installieren.
      Hinweis: Es wird empfohlen, die folgende Version von TensorFlow zu verwenden, basierend darauf, welche Version von QTS und Nvidia Driver Sie installiert haben:
      QTS und Nvidia Driver Versionen Tag Pull Befehl
      QTS 4.3.5 und Nvidia Driver v1.3.5 tensorflow/tensorflow:1.11.0-gpu docker pull tensorflow/tensorflow:1.11.0-gpu
      QTS 4.4.x und Nvidia Driver v2.0.0 tensorflow/tensorflow:1.11.0-gpu docker pull tensorflow/tensorflow:1.11.0-gpu
  4. Klicken Sie auf Erstellen.
  5. Suchen Sie nach dem Stichwort "TensorFlow". Suchen Sie tensorflow/tensorflow und klicken Sie auf Installieren.
  6. Wählen Sie eine Version von TensorFlow basierend darauf, welche Version von QTS und Nvidia Driver Sie installiert haben.
    QTS und Nvidia Driver Versionen Empfohlene Version
    QTS 4.3.5 und Nvidia Driver v1.3.5 1.11.0-gpu
    QTS 4.4.x und Nvidia Driver v2.0.0 1.11.0-gpu
  7. Klicken Sie auf Weiter.
  8. Klicken Sie auf Erweiterte Einstellungen.
  9. Weisen Sie GPUs zum Container hinzu.
    1. Gehen Sie zu Gerät.
    2. Klicken Sie auf Hinzufügen.
    3. Wählen Sie die GPUs, die zum Container hinzugefügt werden sollen.
  10. Optional: Geben Sie einen NAS Ordner mit dem Container frei.
    1. Wechseln Sie zu Freigabeordner.
    2. Klicken Sie über Volume vom Host auf Hinzufügen.
      Ein neues Volume vom Host wird hinzugefügt.
    3. Wählen Sie einen Host Pfad.
    4. Geben Sie einen Einbindungspunkt an.
  11. Klicken Sie auf Erstellen.
    Eine Zusammenfassung Ihres neuen Containers wird angezeigt.
  12. Überprüfen Sie die Einstellungen des Containers.
  13. Klicken Sie auf OK.
    Das Container-Image wird installiert.

Einbinden eines NVIDIA Grafikprozessors über SSH

  1. Verbinden Sie sich per SSH mit Ihrem NAS.
  2. Binden Sie GPUs in den Container ein.
    1. Geben Sie basierend auf dem Grafikprozessor, den Sie einbinden möchten, einen der folgenden Befehle ein.
      Einzubindende GPU Befehl
      Erste
      –device /dev/nvidia0:/dev/nvidia0 \
      –device /dev/nvidiactl:/dev/nvidiactl \
      –device /dev/nvidia-uvm:/dev/nvidia-uvm \
      -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f
      /etc/config/qpkg.conf -d None`/usr/:/usr/local/nvidia
      Zweite
      –device /dev/nvidia0:/dev/nvidia0 \
      –device /dev/nvidia1:/dev/nvidia1 \
      –device /dev/nvidiactl:/dev/nvidiactl \
      –device /dev/nvidia-uvm:/dev/nvidia-uvm \
      -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f
      /etc/config/qpkg.conf -d None`/usr/:/usr/local/nvidia
      Beide
      –device /dev/nvidia1:/dev/nvidia1 \
      –device /dev/nvidiactl:/dev/nvidiactl \
      –device /dev/nvidia-uvm:/dev/nvidia-uvm \
      -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f
      /etc/config/qpkg.conf -d None`/usr/:/usr/local/nvidia
    Hinweis: Beispiele für Befehle, die auf Ihren QTS- und Nvidia Driver Versionen basieren, sind unten aufgeführt:
    QTS und Nvidia Driver Versionen Befehl
    QTS 4.3.5/4.3.6 und Nvidia Driver v1.3.5
    docker run -d –name tensorflow \
     –device /dev/nvidia0:/dev/nvidia0 \
     –device /dev/nvidiactl:/dev/nvidiactl \
     –device /dev/nvidia-uvm:/dev/nvidia-uvm \
     -v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f /etc/config/qpkg.conf -d 
    None `/usr/:/usr/local/nvidia \
     -p 6006:6006 -p 8888:8888 \
     tensorflow/tensorflow:1.11.0-gpu
    QTS 4.4.x und Nvidia Driver v2.0.0
    docker run -d –name tensorflow \
     –device /dev/nvidia0:/dev/nvidia0 \
     –device /dev/nvidiactl:/dev/nvidiactl \
     –device /dev/nvidia-uvm:/dev/nvidia-uvm \-v `/sbin/getcfg NVIDIA_GPU_DRV Install_Path -f 
    /etc/config/qpkg.conf -d
    None`/usr/:/usr/local/nvidia \
     -p 6006:6006 -p 8888:8888 \
     tensorflow/tensorflow:1.11.0-gpu

Zugriff auf den Container

  1. Öffnen Sie Container Station.
  2. Klicken Sie auf Übersicht.
  3. Suchen Sie den gerade installierten Container und öffnen Sie die Seite des Containers.
  4. Kopieren Sie den Token von der Konsole.
  5. Klicken Sie auf die URL.
  6. Fügen Sie den Token in Kennwort oder Token ein.
  7. Klicken Sie auf Anmelden.
Sie können nun das Jupyter Notebook mit TensorFlow verwenden.

War dieser Artikel hilfreich?

63% der Nutzer fanden es hilfreich.
Vielen Dank für Ihre Rückmeldung.

Bitte teilen Sie uns mit, wie dieser Artikel verbessert werden kann:

Wenn Sie zusätzliches Feedback geben möchten, fügen Sie es bitte unten ein.

Wählen Sie die Spezifikation

      Mehr anzeigen Weniger

      Diese Seite in anderen Ländern / Regionen:

      open menu
      back to top