Mustang-F100 (FPGA) Design accelertore di visione Intel® con Intel® Arria® 10 FPGA

Con l'evoluzione del QNAP NAS per supportare una vasta gamma di applicazioni (tra cui sorveglianza, virtualizzazione e AI), non solo è necessario più spazio di archiviazione sul NAS, ma il NAS deve anche disporre di una maggiore potenza per ottimizzare i carichi di lavoro specifici. Il Mustang-F100 è una scheda acceleratore basata su PCIe che utilizza un Intel® Arria® 10 FPGA programmabile per offrire le prestazioni e la versatilità dell’accelerazione FPGA. Può essere installato su un PC o QNAP NAS compatibile per migliorare le prestazioni, ideale per i carichi di lavoro con inferenza ad apprendimento profondo AI. >> Differenze tra Mustang-F100 e Mustang-V100.
- Altezza ridotta, lunghezza ridotta, doppio slot.
- Efficienza energetica, latenza ridotta.
- Kit di strumenti OpenVINO™ supportato, dispositivo pronto per l’edge computing AI.
- FPGA può essere ottimizzato per diverse attività di apprendimento profondo.
- Intel® FPGA supporta più carichi di lavoro a punto mobile e inferenza.

Kit di strumenti OpenVINO™
Il kit di strumenti OpenVINO™ si basa sulle reti neurali convoluzionali (CNN) ed estende i flussi di lavoro sull’hardware Intel® e massimizza le prestazioni.
È in grado di ottimizzare i modelli di apprendimento pre-configurati come Caffe, MXNET, Tensorflow in file binari IR ed eseguire il motore di inferenza su hardware Intel® in modo eterogeneo come CPU, GPU, Intel® Movidius™ Neural Compute Stick, e FPGA.
Accelerare l’apprendimento profondo su server/PC basati su Intel
È possibile inserire il Mustang-F100 in un PC/workstation con Linux® (Ubuntu®) in esecuzione per acquisire l’accelerazione computazionale per prestazioni ottimali delle applicazioni come l’inferenza ad apprendimento profondo, streaming video, e centri dati. In quanto soluzione ideale per l’accelerazione di inferenze AI in tempo reale, il Mustang-F100 funziona anche con il kit di strumenti Intel® OpenVINO™ per ottimizzare i carichi di lavoro di inferenza per la classificazione delle immagini e la visione computer.
- Sistemi operativi
Ubuntu 16.04.3 LTS a 64-bit, CentOS 7.4 a 64-bit, Windows 10 (altri sistemi operativi in arrivo) - Kit di strumenti OpenVINO™
- Intel® Deep Learning Deployment Toolkit
- - Model Optimizer
- - Inference Engine
- Librerie visione computer ottimizzate
- Intel® Media SDK
*Driver grafici OpenCL™ e runtime. - Tecnologie attualmente supportate: AlexNet, GoogleNet, Tiny Yolo, LeNet, SqueezeNet, VGG16, ResNet (altre varianti in arrivo)
- Intel® FPGA Deep Learning Acceleration Suite
- Intel® Deep Learning Deployment Toolkit
- Mustang-F100-A10 è sviluppato sulla struttura del kit di strumenti OpenVINO™ ad alta flessibilità che consente l’esecuzione dei dati di addestramento come Caffe, TensorFlow, e MXNet, dopo la conversione in IR ottimizzati.
*OpenCL™ è un marchio di Apple Inc. utilizzato in concessione da Khronos
QNAP NAS come Server di inferenza
Il kit di strumenti OpenVINO™ estende i flussi di lavoro sull’hardware Intel® (incusi gli acceleratori) e massimizza le prestazioni. Quando utilizzato con lo Strumento di consolidamento del flusso di lavoro di OpenVINO™ di QNAP, il QNAP NAS basato su Intel® presenta un Inference Server ideale che aiuta le organizzazioni a creare rapidamente un sistema di inferenza. Offrendo un ottimizzatore di modelli e un motore di interferenze, il kit di strumenti OpenVINO™ è facile da usare e offre la flessibilità per prestazioni elevate, visione computer a bassa latenza che migliora le interferenze di apprendimento profondo. Gli sviluppatori AI possono implementare i modelli addestrati su un QNAP NAS per eseguire l’inferenza e installare Mustang-F100 per ottenere prestazioni ottimali per l’esecuzione dell’inferenza.
Per saperne di più: Strumento di consolidamento del flusso di lavoro OpenVINO™
Nota:
1. Per il QNAP NAS sono richiesti QTS 4.4.0~4.4.3 e OWCT v1.1.0.
2. Per usare la potenza di calcolo della scheda FPGA sul QNAP NAS, sarà disabilitata la funzione pass-through VM. Per evitare la perdita potenziale di dati, verificare che tutte le attività NAS in corso siano completate prima del riavvio.
3. Installare il Mustang-F100 in uno slot PCIe Gen3 x8 del NAS. Per altri modelli supportati controllare l’Elenco compatibilità.
4. È richiesta l’installazione del “Driver utente della scheda Mustang” in QTS App Center.
Motore inferenza facile da gestire con QNAP OWCT
Applicazioni
Dimensioni

Nota:
Possono essere supportate fino a 8 schede con sistemi operativi diversi da QTS; QNAP TS-2888X NAS supporta fino a 4 schede. Assegnare il numero ID scheda (da 0 a 7) al Mustang-F100 utilizzando manualmente la ghiera rotante. Il numero ID scheda assegnato qui sarà mostrato sullo schermo LED della scheda dopo l’accensione.
FAQ
Hai bisogno di aiuto?
Contattaci subito per scoprire prodotti e soluzioni su misura, pensati per soddisfare al meglio le tue esigenze e richieste!