Mustang-F100 (FPGA) Intel® Vision versneller-ontwerp met Intel® Arria® 10 FPGA
Naarmate QNAP NAS zich ontwikkelt om een grotere reeks toepassingen te ondersteunen (waaronder bewaking, virtualisatie en AI) hebt u niet alleen meer opslagruimte nodig op de NAS, maar heeft de NAS ook meer vermogen nodig om de gewenste werklasten te optimaliseren. De Mustang-F100 is een PCIe gebaseerde versnellerkaart die gebruik maakt van de programmeerbare Intel® Arria® 10 FPGA welke de prestaties en veelzijdigheid levert van FPGA-versnelling. Deze kan worden geïnstalleerd in een pc of een compatibele QNAP NAS om de prestaties te versnellen als perfecte keuze voor AI deep learning inferentie-werklasten. >> verschil tussen de Mustang-F100 en de Mustang-V100.
- Halve hoogte, halve lengte, dubbele sleuf.
- Energie-efficiënt, lage latentie.
- Ondersteunt OpenVINO™ toolkit, voorbereid voor AI edge computing.
- FPGA’s kunnen worden geoptimaliseerd voor verschillende deep learning-taken.
- Intel®-FPGA’s ondersteunen meervoudige floating point en inferentie-werklasten.
OpenVINO™ toolkit
De OpenVINO™ toolkit is gebaseerd op convolutionele neurale netwerken (CNN), de toolkit breidt de werklasten uit over de Intel®-hardware en maximaliseert de prestaties.
Het kan een pre-trained deep learning model zoals Caffe, MXNET, Tensorflow optimaliseren naar een binair IR-bestand en vervolgens de inferentie-engine heterogeen uitvoeren over Intel®-hardware zoals CPU, GPU, Intel® Movidius™ Neural Compute Stick en FPGA.
Zorg voor versnelling van deep learning op Intel-gebaseerde server/PC
U kunt de Mustang-F100 in een PC/werkstation steken dat onder Linux® (Ubuntu®) draait om de rekenkracht te versnellen voor optimale prestaties van toepassingen zoals deep learning inferentie, video streaming en datacenter. Als ideale oplossing voor versnelling van real-time AI inferentie kan de Mustang-F100 ook samenwerken met de Intel® OpenVINO™ toolkit om inferentie-werklasten te optimaliseren voor beeldclassificatie en computervisie.
- Besturingssystemen
Ubuntu 16.04.3 LTS 64-bit, CentOS 7.4 64-bit, Windows 10 (binnenkort meer besturingssystemen leverbaar) - OpenVINO™ toolkit
- Intel® Deep Learning Deployment Toolkit
- - Model optimalisator
- - Inferentie-engine
- Geoptimaliseerde bibliotheken voor computervisie
- Intel® Media SDK
*OpenCL™ grafische stuurprogramma’s en runtimes. - Op dit moment ondersteunde topologiën: AlexNet, GoogleNet, Tiny Yolo, LeNet, SqueezeNet, VGG16, ResNet (meer varianten zijn binnenkort beschikbaar)
- Intel® FPGA Deep Learning Acceleration Suite
- Intel® Deep Learning Deployment Toolkit
- Zeer flexibele, Mustang-F100-A10 ontwikkeling op een OpenVINO™ toolkit- structuur waardoor getrainde gegevens zoals Caffe, TensorFlow en MXNet daarop kunnen worden uitgevoerd nadat ze zijn geconverteerd naar geoptimaliseerde IR.
*OpenCL™ is het handelsmerk van Apple Inc. gebruikt met toestemming door Khronos
QNAP NAS als een inferentie-server
De OpenVINO™ toolkit breidt workloads uit over Intel®-hardware (inclusief versnellers) en maximaliseert de prestaties. Bij gebruik in combinatie met het OpenVINO™ MB/s Workflow Consolidation Tool vormt de op Intel® gebaseerde QNAP NAS een ideale Inference Server die organisaties helpt bij het snel opzetten van een inferentiesysteem. Door een model-optimalisator en inferentie-engine te bieden, is de Intel OpenVINO™ toolkit gemakkelijk in het gebruik en flexibel voor hoog-presterende computervisie met een lage latentie die diep-leren inferenties verbetert. AI-ontwikkelaars kunnen getrainde modellen inzetten op een QNAP NAS voor inferentie, en de Mustang-F100 installeren om optimale prestaties te bereiken bij het uitvoeren van inferentie.
Meer informatie: OpenVINO™ Workflow Consolidation Tool
Opmerking:
1. QTS 4.4.0~4.4.3 en OWTC v1.1.0 zijn vereist voor de QNAP NAS.
2. Om berekeningen met de FPGA-kaart op de QNAP NAS te kunnen gebruiken, wordt de VM pass-through functie uitgeschakeld. Om mogelijk gegevensverlies te vermijden, moet u controleren of alle actieve NAS-taken zijn voltooid voordat u herstart.
3. Installeer de Mustang-F100 in de PCIe Gen3 x8-sleuf van de NAS. Raadpleeg de compatibiliteitslijst voor meer ondersteunde modellen.
4. Installatie van “Mustang Card User Driver” in het QTS App Center is vereist.
Eenvoudig te beheren inferentie-engine met QNAP OWCT
Toepassingen
Afmetingen

Opmerking:
Tot 8 kaarten kunnen worden ondersteund met andere besturingssystemen dan QTS; QNAP TS-2888X NAS ondersteunt tot 4 kaarten. Wijs een kaart-ID nummer toe (van 0 tot 7) aan de Mustang-F100 door de draaiknop met de hand te wijzigen. Het hier toegewezen kaart-ID nummer verschijnt na het opstarten op het LED-scherm van de kaart.
FAQ
Hulp nodig?
Neem contact met ons op voor meer aanbevolen producten of oplossingen die zijn afgestemd op de behoeften en vereisten van uw organisatie!