OpenVINO™ Workflow Consolidation Tool Anleitung


Zuletzt geändertes Datum 2019-06-05

Über

Das OpenVINO™ Workflow Consolidation Tool (OWCT) ist ein Deep Learning Tool zur Umwandlung von trainierten Modellen in Inferenzmaschinen, das durch das Intel® Distribution of OpenVINO™ Toolkit beschleunigt wird. Inferenzmaschinen ermöglichen es Ihnen, die Inferenzergebnisse von trainierten Modellen zu überprüfen.

Das Intel® Distribution of OpenVINO™ Toolkit basiert auf Convolutional Neural Networks (CNN). Das Toolkit erweitert die Arbeitslasten auf Intel® Hardware Beschleuniger, um die Leistung zu maximieren.

Sie können das OWCT aus dem App Center in QTS herunterladen.
Hinweis:

Container Station muss installiert sein, um das OWCT nutzen zu können.


Kompatibilität

Plattform

Unterstützung

NAS-Modelle

  • TVS-x72XT

    Hinweis:

    Das TVS-x72XT unterstützt keine Field Programmable Gate Array (FPGA) Karten als Hardwarebeschleuniger.

  • TVS-x72XU

  • TS-2888X

Hinweis:

Nur Intel-basierte NAS-Modelle unterstützen das OpenVINO™ Workflow Consolidation Tool.

Betriebssystem

QTS 4.4

Intel® Distribution of OpenVINO™ Toolkit Version

2018R5

Weitere Informationen finden Sie unter https://software.intel.com/en-us/articles/OpenVINO-RelNotes.

Hardware Beschleuniger

Sie können Hardwarebeschleuniger verwenden, die in Ihrem NAS installiert sind, um die Leistung Ihrer Inferenzmaschinen zu verbessern.

Im NAS installierte Hardwarebeschleuniger werden auf dem Start Bildschirm angezeigt.

Hardwarebeschleuniger mit dem Status Bereit können bei der Erstellung von Inferenzmaschinen verwendet werden.

Wenn der angezeigte Status Einstellungen lautet, gehen Sie zu Systemsteuerung > System > Hardware > Grafikkarte, um den Hardwarebeschleuniger einzurichten.

Hinweis:
  • Um Field-Programmable Gate Array (FPGA) Karten auf einem QNAP NAS verwenden zu können, muss Passthrough für virtuelle Maschinen (VM) deaktiviert werden.

  • Jede FPGA Ressource kann eine Inferenzmaschine erstellen.

  • Jede Vision Processing Unit (VPU) Ressource kann eine Inferenzmaschine erstellen.

Erstellen von Inferenzmaschinen

Verwenden Sie das OWCT, um Inferenzmaschinen zu erstellen und Inferenzparameter zu konfigurieren.

  1. Öffnen Sie das OWCT.
  2. Klicken Sie auf + OpenVINO™ Engine.

    Das Neue OpenVINO™ Inferenzmaschine erstellen Fenster wird angezeigt.

  3. Wählen Sie ein Inferenzmodell.
  4. Klicken Sie auf Weiter.
  5. Konfigurieren Sie das Inferenzmodell.
    Tabelle 1. Vortrainiertes Intel Modell

    Feld

    Beschreibung

    Name

    Geben Sie einen Namen zwischen 2 und 50 Zeichen ein.

    Inferenzmodell

    Zeigt den Typ des Inferenzmodells an.

    Inferenztyp

    Wählen Sie den Typ der Inferenz für Ihr Modell aus.

    Vortrainierte Intel® Modelldatei

    Wählen Sie eine vortrainierte Modelldatei.

    Tipp:

    Klicken Sie auf Guide, um Informationen über das ausgewählte Modell anzuzeigen.

    Quelltyp

    Wählen Sie den Typ der Quelldatei aus, die in die Inferenzmaschine hochgeladen werden soll.

    Beschleuniger/Präzision

    Wählen Sie den Hardwarebeschleuniger und die Präzisionsrate, welche die Dauer und Genauigkeit der Inferenz beeinflussen.

    Tabelle 2. Benutzerdefiniertes Modell

    Feld

    Beschreibung

    Name

    Geben Sie einen Namen zwischen 2 und 50 Zeichen ein.

    Inferenzmodell

    Zeigt den Typ des Inferenzmodells an.

    Inferenztyp

    Wählen Sie den Typ der Inferenz für Ihr Modell aus.

    Quelltyp

    Wählen Sie den Typ der Quelldatei aus, die in die Inferenzmaschine hochgeladen werden soll.

    Beschleuniger

    Wählen Sie den Hardwarebeschleuniger, der die Verarbeitungsgeschwindigkeit bestimmt, wenn die Inferenzmaschine ein anderes Gerät verwendet.

    Präzision

    Wählen Sie die Präzisionsrate, welche die Dauer und Genauigkeit der Inferenz beeinflusst.

    Bitstream (nur FPGA)

    Wählen Sie eine Computerdatei für ein FPGA Gerät aus.

    Framework

    Wählen Sie das Framework für Ihr Inferenzmodell aus.

    Hinweis:

    Das OWCT unterstützt derzeit Tensorflow und Caffe.

    Modelldateien

    Wählen Sie die Modelldateien für Ihr Inferenzmodell aus.

    Je nach Framework sollten bestimmte Dateitypen hochgeladen werden:
    • Tensorflow: .pf, .config

    • Caffe: .caffemodel, .prototxt

    Label Datei (optional)

    Alle Objekte, die erkannt werden, erscheinen während der Inferenz.

    Argumente (optional)

    Fügen Sie Argumente zu Ihrer Inferenzmaschine hinzu.

  6. Klicken Sie auf Weiter.
  7. Überprüfen Sie die Zusammenfassung.
  8. Klicken Sie auf Erstellen.

Das OWCT erstellt die Inferenzmaschine und zeigt sie auf dem Bildschirm Inferenzereignisse an.

Verwendung von Computer Vision mit Inferenzmaschinen

  1. Öffnen Sie das OWCT.
  2. Gehen Sie zur Seite Inferenzereignisse.
  3. Stellen Sie sicher, dass der Status der Ziel-Inferenzmaschine Bereit ist.
  4. Klicken Sie auf den Link unter dem Namen der Inferenzmaschine.

    Das Fenster Objekterkennung wird in einer neuen Registerkarte geöffnet.

  5. Klicken Sie auf Hochladen.
    Das Datei auswählen Fenster wird angezeigt.
  6. Wählen Sie eine Datei aus.
  7. Klicken Sie auf Hochladen.

    Der Inferenzprozess der Objekterkennung wird gestartet.

  8. Klicken Sie nach Abschluss der Inferenz auf Download.
    Das Ordner auswählen Fenster wird angezeigt.
  9. Wählen Sie den Ordner aus, in dem Sie das Inferenzergebnis speichern möchten.
  10. Klicken Sie auf Speichern.

Inferenzmaschinen verwalten

Sie können Inferenzmaschinen auf dem Bild Inferenzereignisse anzeigen und verwalten.

Schaltfläche

Beschreibung

Startet den Inferenzprozess.

Stoppt den Inferenzprozess.

Zeigt Details und den Protokollstatus der Inferenzmaschine an.

Speichert die Inferenzmaschine als Intermediate Representation (IR) Datei für erweiterte Anwendungen.

Löscht die Inferenzmaschine.

War dieser Artikel hilfreich?

11% der Nutzer fanden es hilfreich.
Vielen Dank für Ihre Rückmeldung.

Bitte teilen Sie uns mit, wie dieser Artikel verbessert werden kann:

Wenn Sie zusätzliches Feedback geben möchten, fügen Sie es bitte unten ein.

Wählen Sie die Spezifikation

      Mehr anzeigen Weniger

      Diese Seite in anderen Ländern / Regionen:

      open menu
      back to top