Mustang-V100 (VPU)
Design accelertore di visione Intel® con Intel® Movidius™ VPU

mustang-v100

Con l'evoluzione del QNAP NAS per supportare una vasta gamma di applicazioni (tra cui sorveglianza, virtualizzazione e AI), non solo è necessario più spazio di archiviazione sul NAS, ma il NAS deve anche disporre di una maggiore potenza per ottimizzare i carichi di lavoro specifici. Il Mustang-V100 è una scheda acceleratore basata su PCIe che utilizza un Intel® Movidius™ VPU per venire incontro all’elevata richiesta di carichi di lavoro da parte della visione computer moderna e delle applicazioni AI. Può essere installato su un PC o QNAP NAS compatibile per migliorare le prestazioni, ideale per i carichi di lavoro con inferenza ad apprendimento profondo AI. >> Differenze tra Mustang-F100 e Mustang-V100.

  • Altezza ridotta, lunghezza ridotta, doppio slot, dimensioni compatte.
  • Consumo energetico ridotto, circa 2,5W per ciascuna Intel® Movidius™ Myriad™ X VPU.
  • Kit di strumenti OpenVINO™ supportato, dispositivo pronto per l’edge computing AI.
  • Otto Intel® Movidius™ Myriad™ X VPU possono eseguire contemporaneamente otto topologie.

Logo_Intel-Movidius

Kit di strumenti OpenVINO™

Il kit di strumenti OpenVINO™ si basa sulle reti neurali convoluzionali (CNN) ed estende i flussi di lavoro sull’hardware Intel® e massimizza le prestazioni.

È in grado di ottimizzare i modelli di apprendimento profondo pre-addestrati come Caffe, MXNET, Tensorflow in file binari IR ed eseguire il motore di inferenza su hardware Intel® in modo eterogeneo come CPU, GPU, Intel® Movidius™ Neural Compute Stick, e FPGA.

Accelerare l’apprendimento profondo su server/PC basati su Intel

È possibile inserire il Mustang-V100 in un PC/workstation con Linux® (Ubuntu®) in esecuzione per acquisire l’accelerazione computazionale per prestazioni ottimali delle applicazioni come l’inferenza ad apprendimento profondo, streaming video, e centri dati. In quanto soluzione ideale per l’accelerazione di inferenze AI in tempo reale, il Mustang-V100 funziona anche con il kit di strumenti Intel® OpenVINO™ per ottimizzare i carichi di lavoro di inferenza per la classificazione delle immagini e la visione computer.

  • Sistemi operativi
    Ubuntu 16.04.3 LTS a 64-bit, CentOS 7.4 a 64-bit, Windows 10 (altri sistemi operativi in arrivo)
  • Kit di strumenti OpenVINO™
    • Intel® Deep Learning Deployment Toolkit
      • - Model Optimizer
      • - Inference Engine
    • Librerie visione computer ottimizzate
    • Intel® Media SDK
      *Driver grafici OpenCL™ e runtime.
    • Tecnologie attualmente supportate: AlexNet, GoogleNet V1, Yolo Tiny V1 & V2, Yolo V2, SSD300, ResNet-18, Faster-RCNN. (altre varianti in arrivo)
  • Mustang-V100-MX8 è sviluppato sulla struttura del kit di strumenti OpenVINO™ ad alta flessibilità che consente l’esecuzione dei dati di addestramento come Caffe, TensorFlow, e MXNet, dopo la conversione in IR ottimizzati.

*OpenCL™ è un marchio di Apple Inc. utilizzato in concessione da Khronos

QNAP NAS come Server di inferenza

Il kit di strumenti OpenVINO™ estende i flussi di lavoro sull’hardware Intel® (incusi gli acceleratori) e massimizza le prestazioni. Quando utilizzato con lo Strumento di consolidamento del flusso di lavoro di OpenVINO™ di QNAP, il QNAP NAS basato su Intel® presenta un Inference Server ideale che aiuta le organizzazioni a creare rapidamente un sistema di inferenza. Offrendo un ottimizzatore di modelli e un motore di interferenze, il kit di strumenti OpenVINO™ è facile da usare e offre la flessibilità per prestazioni elevate, visione computer a bassa latenza che migliora le interferenze di apprendimento profondo. Gli sviluppatori AI possono implementare i modelli addestrati su un QNAP NAS per eseguire l’inferenza e installare Mustang-V100 per ottenere prestazioni ottimali per l’esecuzione dell’inferenza.

Nota:
1. Per il QNAP NAS sono richiesti QTS 4.4.0~4.4.3 e OWCT v1.1.0.
2. Per modelli supportati controllare l’Elenco compatibilità.
3. È richiesta l’installazione del “Driver utente della scheda Mustang” per Mustang-V100-R10 in QTS App Center. Mustang-V100-R11 (o successivo) non è supportato.

Motore inferenza facile da gestire con QNAP OWCT

  • Caricare un file video

  • Scaricare i risultati dell’inferenza

Applicazioni

  • Visione macchina

  • Punto vendita intelligente

  • Sorveglianza

  • Diagnostica medica

Dimensioni

(Unità: mm)

Nota:
Possono essere supportate fino a 16 schede con sistemi operativi diversi da QTS; QNAP TS-2888X NAS supporta fino a 8 schede. Assegnare il numero ID scheda (da 0 a 15) al Mustang-V100 utilizzando manualmente la ghiera rotante. Il numero ID scheda assegnato qui sarà mostrato sullo schermo LED della scheda dopo l’accensione.

Hai bisogno di aiuto?

Contattaci subito per scoprire prodotti e soluzioni su misura, pensati per soddisfare al meglio le tue esigenze e richieste!

Scegliere le caratteristiche

      Mostra di più Meno

      Questo sito in altre nazioni/regioni

      open menu
      back to top