Självstudier till OpenVINO™ Workflow Consolidation Tool


Senaste ändringsdatum: 2019-06-05

Om

OpenVINO™ Workflow Consolidation Tool (OWCT) är ett djupinlärningspaket för konvertera inlärda modeller till inferensmotorer accelererade av Intel Distribution of OpenVINO™ Toolkit. Inferensmotorer gör det möjligt att verifiera inlärda modellers inferensresultat.

Intel Distribution of OpenVINO™ Toolkit grundas på CNN (Convolutional Neural Networks). Verktyget utökar arbetsbelastningar på Intel maskinvaruacceleratorer för att maximera prestanda.

Det går att installera OWCT från App Center i QTS.
Obs!

Du måste installera Container Station för att använda OWCT.


Kompatibilitet

Plattform

Stöds

NAS-modeller

  • TVS-x72XT

    Obs!

    TVS-x72XT stöder inte FPGA-kort (Field-Programmable Gate Array) som maskinvaruacceleratorer.

  • TVS-x72XU

  • TS-2888X

Obs!

Endast Intel-baserade NAS-modeller stöder OpenVINO™ Workflow Consolidation Tool.

Operativsystem

QTS 4.4

Intel Distribution of OpenVINO™ Toolkit-version

2018R5

Mer information finns på https://software.intel.com/en-us/articles/OpenVINO-RelNotes.

Maskinvaruacceleratorer

Det går att använda maskinvaruacceleratorer installerade på NAS-enheten för att förbättra inferensmotorernas prestanda.

Maskinvaruacceleratorer installerade på NAS-enheten visas på startsidan.

Maskinvaruacceleratorer med status Klar går att använda till att skapa inferensmotorer.

Om visad status är Inställningar, öppna Kontrollpanelen > System > Hårdvara > Grafikkort för att konfigurera maskinvaruacceleratorn.

Obs!
  • För att använda FPGA-kort (Field-Programmable Gate Array) på en QNAP NAS måste du inaktivera genomströmning för virtuell dator (VM).

  • Varje FPGA-resurs kan skapa en inferensmotor.

  • Varje VPU-resurs (Vision Processing Unit) kan skapa en inferensmotor.

Skapa inferensmotorer

Använd OWCT till att skapa inferensmotorer och konfigurera inferensparametrar.

  1. Öppna OWCT.
  2. Klicka på + OpenVINO™ Engine.

    Fönstret Skapa ny OpenVINO™ inferensmotor öppnas.

  3. Välj en inferensmodell.
  4. Klicka på Nästa.
  5. Konfigurera inferensmodellen.
    Tabell 1. Intel förinlärd modell

    Fält

    Beskrivning

    Namn

    Ange ett namn mellan 2 och 50 tecken.

    Inferensmodell

    Visar inferensmodellens typ.

    Inferenstyp

    Välj inferenstyp till modellen.

    Intel® förinlärd modellfil

    Välj förinlärd modellfil.

    Tips:

    Klicka på Guide för att visa information om den valda modellen.

    Källtyp

    Välj källfiltyp att ladda upp till inferensmotorn.

    Accelerator/precision

    Välj maskinvaruacceleratorn och precisionen som påverkar inferensens varaktighet och noggrannhet.

    Tabell 2. Anpassad modell

    Fält

    Beskrivning

    Namn

    Ange ett namn mellan 2 och 50 tecken.

    Inferensmodell

    Visar inferensmodellens typ.

    Inferenstyp

    Välj inferenstyp till modellen.

    Källtyp

    Välj källfiltyp att ladda upp till inferensmotorn.

    Accelerator

    Välj maskinvaruacceleratorn som bestämmer bearbetningshastigheten när inferensmotorn använder en annan enhet.

    Precision

    Välj precisionen som påverkar inferensens varaktighet och noggrannhet.

    Bitstream (endast FPGA)

    Välj en bearbetningsfil till en FPGA-enhet.

    Ramverk

    Välj inferensmodellens ramverk.

    Obs!

    OWCT stöder för närvarande Tensorflow och Caffe.

    Modellfiler

    Välj inferensmodellens modellfiler.

    Vissa filtyper måste laddas upp beroende på ramverk:
    • Tensorflow: .pf, .config

    • Caffe: .caffemodel, .prototxt

    Etikettfil (valfritt)

    Objekt som identifieras visas under inferensen.

    Argument (valfritt)

    Lägg till argument till inferensmotorn.

  6. Klicka på Nästa.
  7. Granska sammanfattningen.
  8. Klicka på Skapa.

OWCT skapar en inferensmotor och visar den på skärmen Inferenshändelser.

Använda datorseende med inferensmotorer

  1. Öppna OWCT.
  2. Öppna skärmen Inferenshändelser.
  3. Säkerställ att status för målinferensmotorn är Klar.
  4. Klicka på länken under inferensmotorns namn.

    Fönstret Objektdetektering öppnas på en ny flik.

  5. Klicka på Ladda upp.
    Fönstret Välj fil öppnas.
  6. Välj en fil.
  7. Klicka på Ladda upp.

    Inferensprocessen objektdetektering startar.

  8. Klicka på Ladda ned när inferensen slutförs.
    Fönstret Välj mapp öppnas.
  9. Välj mappen där du vill spara resultatfilen.
  10. Klicka på Spara.

Hantera inferensmotorer

Det går att visa och hantera inferensmotorer på skärmen Inferenshändelser.

Knapp

Beskrivning

Startar inferensprocessen.

Stoppar inferensprocessen.

Visar information och inferensmotorns loggstatus.

Spara inferensmotorn som en IR-fil (Intermediate Representation) för avancerade tillämpningar.

Tar bort inferensmotorn.

Var den här artikeln till hjälp?

Användare som tyckte detta var användbart 11% procent.
Tack för din feedback.

Berätta för oss hur vi kan förbättra artikeln:

Ge oss fler synpunkter genom att skriva dem nedan.

Välj specifikation

      Visa fler Färre

      Denna webbplats i andra länder/regioner:

      open menu
      back to top