Tutorial per lo Strumento di consolidamento del flusso di lavoro OpenVINO™


Ultima data di modifica 2019-06-05

Informazioni su

Lo Strumento consolidamento del flusso di lavoro OpenVINO™ è uno strumento di apprendimento profondo per la conversione di modelli formati in motori di inferenza accelerati dal kit di strumenti Intel® Distribution of OpenVINO™ Toolkit. I motori di inferenza consentono di verificare i risultati dell’inferenza dei modelli formati.

Il kit di strumenti Intel® Distribution of OpenVINO™ si basa sulle reti neurali convoluzionali (CNN). Il kit di strumenti estende i flussi di lavoro sugli acceleratori hardware Intel® e massimizza le prestazioni.

È possibile installare OWCT da App Center in QTS.
Nota:

Per utilizzare OWCT è necessario installare Container Station.


Compatibilità

Piattaforma

Supporto

Modelli NAS

  • TVS-x72XT

    Nota:

    TVS-x72XT non supporta le schede FPGA (field-programmable gate array) come acceleratori hardware.

  • TVS-x72XU

  • TS-2888X

Nota:

solo i modelli di NAS basati su Intel supportano lo Strumento di consolidamento del flusso di lavoro OpenVINO™.

OS

QTS 4.4

Versione kit di strumenti Intel® Distribution of OpenVINO™

2018R5

Per i dettagli andare su https://software.intel.com/en-us/articles/OpenVINO-RelNotes.

Acceleratori hardware

È possibile usare gli acceleratori hardware installati nel NAS per migliorare le prestazioni dei motori di inferenza.

Gli acceleratori hardware installati nel NAS sono visualizzati nella schermata Home.

Acceleratori hardware con stato Pronto possono essere usati durante la creazione di motori di inferenza.

Se lo stato visualizzato è Impostazioni, andare su Pannello di controllo > Sistema > Hardware > Scheda grafica per configurare l'acceleratore hardware.

Nota:
  • Per usare le schede FPGA (field-programmable gate array) su un QNAP NAS, è necessario disabilitare il passthough della macchina virtuale (VM).

  • Ciascuna risorsa FPGA può creare un motore di inferenza.

  • Ciascuna risorsa unità di elaborazione della visione (VPU) può creare un motore di inferenza.

Creazione di motori di inferenza

Usare OWCT per creare i motori di inferenza e configurare i parametri di inferenza.

  1. Aprire OWCT.
  2. Fare clic su + Motore OpenVINO™.

    Viene visualizzata la finestra Crea nuovo motore di inferenza OpenVINO™.

  3. Selezionare un modello di inferenza.
  4. Fare clic su Avanti.
  5. Configurare il modello di inferenza.
    Tabella 1. Modello pre-addestrato Intel

    Campo

    Descrizione

    Nome

    Inserire un nome compreso tra 2 e 50 caratteri.

    Modello di inferenza

    Visualizza il tipo di modello di inferenza.

    Tipo di inferenza

    Selezionare il tipo di inferenza per il modello.

    File modello pre-addestrato Intel®

    Selezionare un file modello pre-addestrato.

    Suggerimento:

    Fare clic su Guida per visualizzare le informazioni sul modello selezionato.

    Tipo di origine

    Selezionare il tipo di file di origine da caricare nel motore di inferenza.

    Acceleratore/Precisione

    Selezionare l'acceleratore hardware e il livello di precisione che influenzerà la durata e la precisione dell’inferenza.

    Tabella 2. Modello personalizzato

    Campo

    Descrizione

    Nome

    Inserire un nome compreso tra 2 e 50 caratteri.

    Modello di inferenza

    Visualizza il tipo di modello di inferenza.

    Tipo di inferenza

    Selezionare il tipo di inferenza per il modello.

    Tipo di origine

    Selezionare il tipo di file di origine da caricare nel motore di inferenza.

    Acceleratore

    Selezionare l'acceleratore hardware che determinerà la velocità di elaborazione quando il motore di inferenza utilizza un dispositivo diverso.

    Precisione

    Selezionare il livello di precisione che determinerà la durata e la precisione dell’inferenza.

    Bitstream (Solo FPGA)

    Selezionare il file di calcolo per un dispositivo FPGA.

    Framework

    Selezionare il framework per il modello di inferenza.

    Nota:

    OWCT al momento supporta Tensorflow e Caffe.

    File modello

    Selezionare i file modello per il modello di inferenza.

    Alcuni tipi di file devono essere caricati in base al framework:
    • Tensorflow: .pf, .config

    • Caffe: .caffemodel, .prototxt

    File etichetta (opzionale)

    Qualsiasi oggetto rilevato sarà visualizzato durante l’inferenza.

    Argomenti (opzionale)

    Aggiungere gli argomenti al motore di inferenza.

  6. Fare clic su Avanti.
  7. Rivedere il riepilogo.
  8. Fare clic su Crea.

OWCT crea il motore di inferenza e lo visualizza nella schermata Eventi inferenza.

Uso della visione computer con i motori di inferenza

  1. Aprire OWCT.
  2. Passare alla schermata Eventi inferenza.
  3. Assicurarsi che lo stato del motore di inferenza target sia Pronto.
  4. Fare clic sul link sotto il nome del motore di inferenza.

    In una nuova scheda viene visualizzata la finestra Rilevamento oggetto.

  5. Fare clic su Carica.
    Viene visualizzata la finestra Seleziona file.
  6. Selezionare un file.
  7. Fare clic su Carica.

    Viene avviato il processo di inferenza per il rilevamento dell’oggetto.

  8. Al termine dell’inferenza, fare clic su Scarica.
    Viene visualizzata la finestra Seleziona cartella.
  9. Selezionare la cartella dove salvare il risultato dell’inferenza.
  10. Fare clic su Salva.

Gestione dei motori di inferenza

È possibile visualizzare e gestire i motori di inferenza nella schermata Eventi inferenza.

Pulsante

Descrizione

Avvia il processo di inferenza.

Arresta il processo di inferenza.

Visualizza i dettagli e lo stato del log del motore di inferenza.

Salvare il motore di inferenza come file IR (Rappresentazione intermedia) per le applicazioni avanzate.

Elimina il motore di inferenza.

Questo articolo è stato utile?

11% delle persone lo ritengono utile.
Grazie per il feedback.

Informarci su come può essere migliorato l'articolo:

Per offrire un’ulteriore feedback, includerlo di seguito.

Scegliere le caratteristiche

      Mostra di più Meno

      Questo sito in altre nazioni/regioni

      open menu
      back to top