Mustang-V100 (VPU) Design accelertore di visione Intel® con Intel® Movidius™ VPU

Con l'evoluzione del QNAP NAS per supportare una vasta gamma di applicazioni (tra cui sorveglianza, virtualizzazione e AI), non solo è necessario più spazio di archiviazione sul NAS, ma il NAS deve anche disporre di una maggiore potenza per ottimizzare i carichi di lavoro specifici. Il Mustang-V100 è una scheda acceleratore basata su PCIe che utilizza un Intel® Movidius™ VPU per venire incontro all’elevata richiesta di carichi di lavoro da parte della visione computer moderna e delle applicazioni AI. Può essere installato su un PC o QNAP NAS compatibile per migliorare le prestazioni, ideale per i carichi di lavoro con inferenza ad apprendimento profondo AI. >> Differenze tra Mustang-F100 e Mustang-V100.
- Altezza ridotta, lunghezza ridotta, doppio slot, dimensioni compatte.
- Consumo energetico ridotto, circa 2,5W per ciascuna Intel® Movidius™ Myriad™ X VPU.
- Kit di strumenti OpenVINO™ supportato, dispositivo pronto per l’edge computing AI.
- Otto Intel® Movidius™ Myriad™ X VPU possono eseguire contemporaneamente otto topologie.

Kit di strumenti OpenVINO™
Il kit di strumenti OpenVINO™ si basa sulle reti neurali convoluzionali (CNN) ed estende i flussi di lavoro sull’hardware Intel® e massimizza le prestazioni.
È in grado di ottimizzare i modelli di apprendimento profondo pre-addestrati come Caffe, MXNET, Tensorflow in file binari IR ed eseguire il motore di inferenza su hardware Intel® in modo eterogeneo come CPU, GPU, Intel® Movidius™ Neural Compute Stick, e FPGA.
Accelerare l’apprendimento profondo su server/PC basati su Intel
È possibile inserire il Mustang-V100 in un PC/workstation con Linux® (Ubuntu®) in esecuzione per acquisire l’accelerazione computazionale per prestazioni ottimali delle applicazioni come l’inferenza ad apprendimento profondo, streaming video, e centri dati. In quanto soluzione ideale per l’accelerazione di inferenze AI in tempo reale, il Mustang-V100 funziona anche con il kit di strumenti Intel® OpenVINO™ per ottimizzare i carichi di lavoro di inferenza per la classificazione delle immagini e la visione computer.
- Sistemi operativi
Ubuntu 16.04.3 LTS a 64-bit, CentOS 7.4 a 64-bit, Windows 10 (altri sistemi operativi in arrivo) - Kit di strumenti OpenVINO™
- Intel® Deep Learning Deployment Toolkit
- - Model Optimizer
- - Inference Engine
- Librerie visione computer ottimizzate
- Intel® Media SDK
*Driver grafici OpenCL™ e runtime. - Tecnologie attualmente supportate: AlexNet, GoogleNet V1, Yolo Tiny V1 & V2, Yolo V2, SSD300, ResNet-18, Faster-RCNN. (altre varianti in arrivo)
- Intel® Deep Learning Deployment Toolkit
- Mustang-V100-MX8 è sviluppato sulla struttura del kit di strumenti OpenVINO™ ad alta flessibilità che consente l’esecuzione dei dati di addestramento come Caffe, TensorFlow, e MXNet, dopo la conversione in IR ottimizzati.
*OpenCL™ è un marchio di Apple Inc. utilizzato in concessione da Khronos
QNAP NAS come Server di inferenza
Il kit di strumenti OpenVINO™ estende i flussi di lavoro sull’hardware Intel® (incusi gli acceleratori) e massimizza le prestazioni. Quando utilizzato con lo Strumento di consolidamento del flusso di lavoro di OpenVINO™ di QNAP, il QNAP NAS basato su Intel® presenta un Inference Server ideale che aiuta le organizzazioni a creare rapidamente un sistema di inferenza. Offrendo un ottimizzatore di modelli e un motore di interferenze, il kit di strumenti OpenVINO™ è facile da usare e offre la flessibilità per prestazioni elevate, visione computer a bassa latenza che migliora le interferenze di apprendimento profondo. Gli sviluppatori AI possono implementare i modelli addestrati su un QNAP NAS per eseguire l’inferenza e installare Mustang-V100 per ottenere prestazioni ottimali per l’esecuzione dell’inferenza.
Per saperne di più: Strumento di consolidamento del flusso di lavoro OpenVINO™
Nota:
1. Per il QNAP NAS sono richiesti QTS 4.4.0~4.4.3 e OWCT v1.1.0.
2. Per modelli supportati controllare l’Elenco compatibilità.
3. È richiesta l’installazione del “Driver utente della scheda Mustang” per Mustang-V100-R10 in QTS App Center. Mustang-V100-R11 (o successivo) non è supportato.
Motore inferenza facile da gestire con QNAP OWCT
Applicazioni
Dimensioni

Nota:
Possono essere supportate fino a 16 schede con sistemi operativi diversi da QTS; QNAP TS-2888X NAS supporta fino a 8 schede. Assegnare il numero ID scheda (da 0 a 15) al Mustang-V100 utilizzando manualmente la ghiera rotante. Il numero ID scheda assegnato qui sarà mostrato sullo schermo LED della scheda dopo l’accensione.
Hai bisogno di aiuto?
Contattaci subito per scoprire prodotti e soluzioni su misura, pensati per soddisfare al meglio le tue esigenze e richieste!