Strumento di consolidamento del flusso di lavoro OpenVINO™

Accelerare, semplificare e verificare l'inferenza dell’apprendimento profondo

Lo Strumento di consolidamento del flusso di lavoro OpenVINO™ (OWCT) (disponibile da QTS App Center) è uno strumento di apprendimento specifico per la conversione dei modelli impiegati nel servizio di inferenza accelerato da Intel® Distribution of OpenVINO™ Toolkit (Open Visual Inference e Neural Network Optimization) che aiuta a distribuire in modo economico le soluzioni di visione che sfruttano l’AI.

QNAP offre lo Strumento di consolidamento del flusso di lavoro OpenVINO™ per rendere il QNAP NAS un Server di inferenza.

Formazione e inferenza

“Formazione” è quando il sistema impara dai dati esistenti. “Inferenza” è quando il modello adottato è utilizzato per ricevere predizioni utili con i dati del mondo reale.

Intel® Distribution of OpenVINO™ Toolkit

Il kit di strumenti OpenVINO™ aiuta a sviluppare la tracciatura rapida della visione computer e dell’apprendimento profondo a prestazioni elevate nelle applicazioni di visione. Consente l’apprendimento specifico negli acceleratori hardware e l’esecuzione eterogenea semplificata tra piattaforme Intel®, tra cui CPU, GPU, FPGA e VPU. I principali componenti includono:

  • Intel® Deep Learning Deployment Toolkit (Model Optimizer e Inference Engine)
  • Funzioni ottimizzate per OpenCV* e OpenVX*
  • Offre oltre 15 codici campione e modelli pre addestrati per rendere più semplice l’implementazione

Origine: Intel

Inferenze AI per la visione computer, ora più veloci!

Vantaggi chiave per l’uso dello Strumento di consolidamento del flusso di lavoro OpenVINO™ (OWCT):

  • Accelerazione
  • Ottimizzazione
  • Interfaccia utente
  • Accelerazione

    Il kit di strumenti OpenVINO™ contiene una libreria open-source che aiuta a ridurre i tempi di sviluppo, e rendere più semplice l’inferenza dell’apprendimento profondo e l’implementazione delle soluzioni orientate alla visione.

  • Ottimizzazione

    Model Optimizer converte i modelli specifici in una rappresentazione intermedia (IR) ed esegue le ottimizzazioni di base per un’inferenza efficiente.

  • Interfaccia utente

    OWCT utilizza un’Interfaccia utente che consente agli utenti di utilizzare in modo semplice le funzionalità OpenVINO™, display visivi, e scaricare i risultati dell’inferenza.

Inferenza assistita con OWCT

OWCT consolida tutte le funzioni necessarie di OpenVINO™ che aiutano a creare l’Inference Engine e rivedere i risultati di inferenza del modello. Seguire la semplice applicazione guidata per eseguire l’impostazione in pochi passi!

Usare i modelli pre-implementati per rendere lo sviluppo più rapido

Oltre alla ricerca e alla formazione di propri modelli, il kit di strumenti OpenVINO™ offre modelli pre-addestrati Intel® nelle applicazioni utente, che prendono il nome di Inference Engine.

  • Usare i modelli pre-implementati
  • Usare i propri modelli pre-addestrati
  • Il kit di strumenti OpenVINO™ include due set di modelli ottimizzati. È possibile aggiungere questi modelli direttamente all’ambiente e accelerare lo sviluppo.

    Modelli pre-implementati:

    • Riconoscimento di età e sesso
    • Incroci
    • Posizione della testa
    • Barriere di sicurezza
    • Riconoscimento delle caratteristiche del veicolo
    • ... e altro
  • Importare i propri modelli pre-addestrati per sfruttare l’ottimizzazione da Model Optimizer e Inference Engine in modo da poter eseguire l’inferenza della visione computer e le funzioni delle architetture Intel® per soddisfare le richiede AI. Il kit di strumenti OpenVINO™ funziona con i modelli pre-addestrati che utilizzano i formati Caffe o TensorFlow.

QNAP NAS come Server di inferenza

Il kit di strumenti OpenVINO™ estende i flussi di lavoro sull’hardware Intel® (incusi gli acceleratori) e massimizza le prestazioni. Quando utilizzato con lo Strumento di consolidamento del flusso di lavoro di OpenVINO™, il QNAP NAS basato su Intel® presenta un Server di inferenza ideale che aiuta le organizzazioni a creare rapidamente un sistema di inferenza. Offrendo un ottimizzatore di modelli e un motore di interferenze, il kit di strumenti OpenVINO™ è facile da usare e offre la flessibilità per prestazioni elevate, visione computer a bassa latenza che migliora le interferenze di apprendimento profondo. Gli sviluppatori AI possono implementare i modelli addestrati su un QNAP NAS per eseguire l’inferenza e installare gli acceleratori hardware basati sulle piattaforme Intel® per ottenere prestazioni ottimali per l’esecuzione dell’inferenza.

Inference Engine facile da gestire

  • Caricare un file video

  • Scaricare i risultati dell’inferenza

Prestazioni migliorate con le schede acceleratore

Il kit di strumenti OpenVINO™ supporta l’esecuzione eterogenea sugli acceleratori visione computer (CPU, GPU, FPGA, e VPU) utilizzando API comuni per l’ottimizzazione specifica del dispositivo.

  • AcceleratoreFPGA

    Mustang-F100-A10

    • Intel® Arria® 10 GX 1150 FPGA
    • PCIe 3.0 x8
    • Basso profilo, dimensione ridotta, due slot
  • AcceleratoreVPU

    Mustang-V100-MX8

    • Soluzione Intel® Movidius™
    • 8 Myriad™ X VPU
    • PCIe 2.0 x4
    • Basso profilo, dimensione ridotta, singolo slot

OpenVINO e il logo OpenVINO sono marchi registrati di Intel Corporation o sue sussidiarie negli Stati Uniti e/o altri paesi.

Scegliere le caratteristiche

      Mostra di più Meno

      Questo sito in altre nazioni/regioni

      open menu
      back to top