Mustang-F100 (FPGA)
Design accelertore di visione Intel® con Intel® Arria® 10 FPGA

mustang-f100

Con l'evoluzione del QNAP NAS per supportare una vasta gamma di applicazioni (tra cui sorveglianza, virtualizzazione e AI), non solo è necessario più spazio di archiviazione sul NAS, ma il NAS deve anche disporre di una maggiore potenza per ottimizzare i carichi di lavoro specifici. Il Mustang-F100 è una scheda acceleratore basata su PCIe che utilizza un Intel® Arria® 10 FPGA programmabile per offrire le prestazioni e la versatilità dell’accelerazione FPGA. Può essere installato su un PC o QNAP NAS compatibile per migliorare le prestazioni, ideale per i carichi di lavoro con inferenza ad apprendimento profondo AI. >> Differenze tra Mustang-F100 e Mustang-V100.

  • Altezza ridotta, lunghezza ridotta, doppio slot.
  • Efficienza energetica, latenza ridotta.
  • Kit di strumenti OpenVINO™ supportato, dispositivo pronto per l’edge computing AI.
  • FPGA può essere ottimizzato per diverse attività di apprendimento profondo.
  • Intel® FPGA supporta più carichi di lavoro a punto mobile e inferenza.

Logo_Intel-Arria-10

Kit di strumenti OpenVINO™

Il kit di strumenti OpenVINO™ si basa sulle reti neurali convoluzionali (CNN) ed estende i flussi di lavoro sull’hardware Intel® e massimizza le prestazioni.

È in grado di ottimizzare i modelli di apprendimento pre-configurati come Caffe, MXNET, Tensorflow in file binari IR ed eseguire il motore di inferenza su hardware Intel® in modo eterogeneo come CPU, GPU, Intel® Movidius™ Neural Compute Stick, e FPGA.

Accelerare l’apprendimento profondo su server/PC basati su Intel

È possibile inserire il Mustang-F100 in un PC/workstation con Linux® (Ubuntu®) in esecuzione per acquisire l’accelerazione computazionale per prestazioni ottimali delle applicazioni come l’inferenza ad apprendimento profondo, streaming video, e centri dati. In quanto soluzione ideale per l’accelerazione di inferenze AI in tempo reale, il Mustang-F100 funziona anche con il kit di strumenti Intel® OpenVINO™ per ottimizzare i carichi di lavoro di inferenza per la classificazione delle immagini e la visione computer.

  • Sistemi operativi
    Ubuntu 16.04.3 LTS a 64-bit, CentOS 7.4 a 64-bit, Windows 10 (altri sistemi operativi in arrivo)
  • Kit di strumenti OpenVINO™
    • Intel® Deep Learning Deployment Toolkit
      • - Model Optimizer
      • - Inference Engine
    • Librerie visione computer ottimizzate
    • Intel® Media SDK
      *Driver grafici OpenCL™ e runtime.
    • Tecnologie attualmente supportate: AlexNet, GoogleNet, Tiny Yolo, LeNet, SqueezeNet, VGG16, ResNet (altre varianti in arrivo)
    • Intel® FPGA Deep Learning Acceleration Suite
  • Mustang-F100-A10 è sviluppato sulla struttura del kit di strumenti OpenVINO™ ad alta flessibilità che consente l’esecuzione dei dati di addestramento come Caffe, TensorFlow, e MXNet, dopo la conversione in IR ottimizzati.

*OpenCL™ è un marchio di Apple Inc. utilizzato in concessione da Khronos

QNAP NAS come Server di inferenza

Il kit di strumenti OpenVINO™ estende i flussi di lavoro sull’hardware Intel® (incusi gli acceleratori) e massimizza le prestazioni. Quando utilizzato con lo Strumento di consolidamento del flusso di lavoro di OpenVINO™ di QNAP, il QNAP NAS basato su Intel® presenta un Inference Server ideale che aiuta le organizzazioni a creare rapidamente un sistema di inferenza. Offrendo un ottimizzatore di modelli e un motore di interferenze, il kit di strumenti OpenVINO™ è facile da usare e offre la flessibilità per prestazioni elevate, visione computer a bassa latenza che migliora le interferenze di apprendimento profondo. Gli sviluppatori AI possono implementare i modelli addestrati su un QNAP NAS per eseguire l’inferenza e installare Mustang-F100 per ottenere prestazioni ottimali per l’esecuzione dell’inferenza.

Nota:
1. Per il QNAP NAS sono richiesti QTS 4.4.0~4.4.3 e OWCT v1.1.0.
2. Per usare la potenza di calcolo della scheda FPGA sul QNAP NAS, sarà disabilitata la funzione pass-through VM. Per evitare la perdita potenziale di dati, verificare che tutte le attività NAS in corso siano completate prima del riavvio.
3. Installare il Mustang-F100 in uno slot PCIe Gen3 x8 del NAS. Per altri modelli supportati controllare l’Elenco compatibilità.
4. È richiesta l’installazione del “Driver utente della scheda Mustang” in QTS App Center.

Motore inferenza facile da gestire con QNAP OWCT

  • Caricare un file video

  • Scaricare i risultati dell’inferenza

Applicazioni

  • Visione macchina

  • Punto vendita intelligente

  • Sorveglianza

  • Diagnostica medica

Dimensioni

(Unità: mm)

Nota:
Possono essere supportate fino a 8 schede con sistemi operativi diversi da QTS; QNAP TS-2888X NAS supporta fino a 4 schede. Assegnare il numero ID scheda (da 0 a 7) al Mustang-F100 utilizzando manualmente la ghiera rotante. Il numero ID scheda assegnato qui sarà mostrato sullo schermo LED della scheda dopo l’accensione.

FAQ

Problema Soluzione File
1 Bitstream della versione OpenVINO non corrispondente Procurarsi un cavo utile al download FPGA* quindi seguire i passaggi per aggiornare il bitstream FPGA Mustang-F100-A10_Download_cable_User_guide
2 Impossibile riconoscere l’hardware mediante il comando "lspci" Scaricare la patch per correggere il problema relativo a Mustang che non viene riconosciuto in alcune schede madre Mustang-F100_patch

*Cavo download FPGA 7Z000-00FPGA00 obbligatorio.

Hai bisogno di aiuto?

Contattaci subito per scoprire prodotti e soluzioni su misura, pensati per soddisfare al meglio le tue esigenze e richieste!

Scegliere le caratteristiche

      Mostra di più Meno

      Questo sito in altre nazioni/regioni

      open menu
      back to top