OpenVINO™ Workflow Consolidation Tool Tutorial


Laatst gewijzigd op: 2019-06-05

Info

De OpenVINO™ Workflow Consolidation Tool is een deep learning tool voor het converteren van getrainde modellen naar inference engines, versneld door de Intel Distribution of OpenVINO™ toolkit. Met inference engines is het mogelijk om de logische conclusies van getrainde modellen te verifiëren.

De Intel Distribution of OpenVINO™ toolkit is gebaseerd op CNN (convolutional neural networks). De toolkit verspreidt de workloads over Intel hardware accelerators voor verbetering van prestaties.

U kunt OWCT installeren vanuit het App Center in QTS.
Opmerking:

Container Station moet geïnstalleerd zijn om OWCT te kunnen gebruiken.


Compatibiliteit

Platform

Ondersteuning

NAS-modellen

  • TVS-x72XT

    Opmerking:

    DE TVS-x72XT ondersteunt geen FPGA (field-programmable gate array)-kaarten als hardware accelerators.

  • TVS-x72XU

  • TS-2888X

Opmerking:

Alleen modellen van NAS op basis van Intel ondersteunen de OpenVINO™ Workflow Consolidation Tool.

OS

QTS 4.4

Versie van Intel Distribution of OpenVINO™ toolkit

2018R5

Ga voor meer informatie naar https://software.intel.com/en-us/articles/OpenVINO-RelNotes.

Hardware Accelerators

U kunt de in de NAS geïnstalleerde hardware accelerators gebruiken voor betere prestaties van de inference engines.

U kunt de in de NAS geïnstalleerde hardware accelerators zien in het Startscherm.

Hardware accelerators met de status Gereed kunnen worden gebruikt voor het maken van inference engines.

Met de status Instellingen, ga naar Configuratiescherm > Systeem > Hardware > Grafische kaart om de hardware accelerator in te stellen.

Opmerking:
  • Om FPGA (field-programmable gate array)-kaarten te kunnen gebruiken op QNAP NAS, moet virtual machine (VM) pass-through ingeschakeld zijn.

  • Elke FPGA-bron kan één inference engine maken.

  • Elke VPU (vision processing unit)-bron kan één inference engine maken.

Het maken van Inference Engines

Gebruik de OWCT om inference engines te maken en parameters te configureren.

  1. Open de OWCT.
  2. Klik op + OpenVINO™ Engine.

    Het venster Maak nieuwe OpenVINO™ Inference Engine wordt geopend.

  3. Kies een model inference.
  4. Klik op Volgende.
  5. Configureer het model inference.
    Tabel 1. Intel Pretrained Model

    Veld

    Beschrijving

    Naam

    Voer een naam in van 2 tot 50 tekens.

    Inference Model

    Toont het type inference model.

    Type Inference

    Kies het type inference voor uw model.

    Intel® pretrained model-bestand

    Kies een pretrained model-bestand.

    Tip:

    Klik op Handleiding voor informatie over het gekozen model.

    Type bron

    Selecteer het type bronbestand om naar de inference engine te uploaden.

    Accelerator/Nauwkeurigheid

    Selecteer de hardware accelerator en mate van nauwkeurigheid die de duur en nauwkeurigheid van de inference bepalen.

    Tabel 2. Aangepast model

    Veld

    Beschrijving

    Naam

    Voer een naam in van 2 tot 50 tekens.

    Inference Model

    Toont het type inference model.

    Type Inference

    Kies het type inference voor uw model.

    Type bron

    Selecteer het type bronbestand om naar de inference engine te uploaden.

    Accelerator

    Selecteer de hardware accelerator die de snelheid van verwerking bepaalt als de inference engine een ander apparaat gebruikt.

    Nauwkeurigheid

    Selecteer de mate van nauwkeurigheid die de duur en nauwkeurigheid van de inference bepalen.

    Bitstream (alleen FPGA)

    Selecteer een verwerkingsbestand voor een FPGA-apparaat.

    Framework

    Selecteer het framework voor uw model inference.

    Opmerking:

    De OWCT ondersteunt momenteel Tensorflow en Caffe.

    Modelbestanden

    Selecteer de modelbestanden voor uw model inference.

    Bepaalde bestandstypes moeten geüpload worden, afhankelijk van het framework:
    • Tensorflow: .pf, .config

    • Caffe: .caffemodel, .prototxt

    Labelbestand (optioneel)

    Gedetecteerde objecten worden tijdens de inference getoond.

    Argumenten (optioneel)

    Voeg argumenten toe aan uw inference engine.

  6. Klik op Volgende.
  7. Bekijk de samenvatting.
  8. Klik op Maken.

De OWCT maakt de inference engine en toont deze in het scherm Inference Gebeurtenissen.

Het gebruik van Computer Vision met Inference Engines

  1. Open de OWCT.
  2. Ga naar het scherm Inference Gebeurtenissen.
  3. Zorg ervoor dat de status van de doel inference engine is Gereed.
  4. Klik op onderstaande koppeling met naam van inference engine.

    Het venster Object Detectie wordt in een nieuwe tab geopend.

  5. Klik op Uploaden.
    Het venster Selecteer bestand verschijnt.
  6. Selecteer een bestand.
  7. Klik op Uploaden.

    Het proces van detectie wordt gestart.

  8. Klik als de inference klaar is op Downloaden.
    Het venster Selecteer map verschijnt.
  9. Kies de map waar u de resultaten wilt bewaren.
  10. Klik op Bewaren.

Het beheer van Inference Engines

In het scherm Inference Gebeurtenissen kunt u inference engines zien en beheren.

Knop

Beschrijving

Start het proces van inference.

Stopt het proces van inference.

Toont details en logstatus van de inference engine.

Bewaar de inference engine als een IR (Intermediate Representation)-bestand voor geavanceerde toepassingen.

Verwijdert de inference engine.

Was dit artikel nuttig?

11% van de mensen vond dit nuttig
Bedankt voor uw feedback.

Vertel ons a.u.b. hoe we dit artikel kunnen verbeteren.

Hieronder kunt u eventuele aanvullende feedback toevoegen.

Kies specificatie

      Toon meer Minder

      Deze website in andere landen/regio's:

      open menu
      back to top