Mustang-F100 (FPGA) Intel® Vision acceleratordesign med Intel® Arria® 10 FPGA
När QNAP NAS utvecklas med mer stöd för olika tillämpningar (inklusive övervakning, virtualisering och AI) behöver du inte bara mer utrymme på NAS-enheten, utan kräver även att den har större processorkraft för att optimera målinriktade arbetsbelastningar. Mustang-F100 är ett PCIe-baserat acceleratorkort med det programmerbara Intel® Arria® 10 FPGA som tillhandahåller prestandan och mångsidigheten i FGPA-acceleration. Det går att installera i en dator eller kompatibel QNAP NAS för att öka prestanda som ett perfekt val för arbetsbelastningar med djup inlärningsinferens för AI. >> Skillnaden mellan Mustang-F100 och Mustang-V100.
- Halv höjd, halv längd, dubbla fack.
- Energieffektiv, kort svarstid.
- Stöder OpenVINO™ Toolkit, klar för AI edge computing.
- FPGA går att optimera för olika djupa inlärningsuppgifter.
- Intel® FPGA stöder arbetsbelastningar med flera flyttal och inferens.
OpenVINO™ Toolkit
OpenVINO™ bygger på CNN (Convolutional Neural Networks) och det förlägger arbetsbelastningar på Intel® maskinvara och maximerar prestanda.
Det kan optimera förinlärda djupa inlärningsmodeller såsom Caffe, MXNET, Tensorflow till IR binär fil, sedan köra inferensmotorn på Intel®-maskinvara heterogent, såsom CPU, GPU, Intel® Movidius™ Neural Compute Stick och FPGA.
Accelerera djup inlärning på Intel-baserad server/dator
Det går att sätta in Mustang-F100 i en dator/arbetsstation med Linux® (Ubuntu®) för datoracceleration för optimal tillämpningsprestanda till djup inlärningsinferens, videoströmning och datacenter. Som en perfekt acceleratorlösning för AI-inferens i realtid, fungerar Mustang-F100 även med Intel® OpenVINO™ för att optimera inferensbelastningar för bildklassificering och datorseende.
- Operativsystem
Ubuntu 16.04.3 LTS 64-bitar, CentOS 7.4 64-bitar, Windows 10 (fler operativsystem kommer snart) - OpenVINO™ Toolkit
- Intel® Deep Learning Deployment Toolkit
- - Modelloptimerare
- - Inferensmotor
- Optimerade datorseendebibliotek
- Intel® Media SDK
*OpenCL™ grafikdrivrutiner och körmiljöer. - Topologier som för närvarande stöds: AlexNet, GoogleNet, Tiny Yolo, LeNet, SqueezeNet, VGG16, ResNet (fler varianter på väg)
- Intel® FPGA Deep Learning Acceleration Suite
- Intel® Deep Learning Deployment Toolkit
- Hög flexibilitet, Mustang-F100-A10 utvecklar på OpenVINO™-struktur som tillåter inlärd data såsom Caffe, TensorFlow och MXNet att köra det på efter konvertering till optimerad IR.
*OpenCL™ är ett varumärke ägt av Apple Inc. och används med tillstånd från Khronos
QNAP NAS som inferensserver
OpenVINO™ förlägger arbetsbelastningen på Intel®-maskinvara (inklusive acceleratorer) och maximerar prestanda. Med QNAP:s OpenVINO™ Workflow Consolidation Tool blir en Intel®-baserad QNAP NAS en perfekt inferensserver som hjälper organisationer att snabbt bygga ett inferenssystem. Tillsammans med en modelloptimerare och inferensmotor blir OpenVINO™ enkelt och flexibelt att använda för snabbt och högpresterande datorseende som förbättrar djup inlärningsinferens. AI-utvecklare kan distribuera inlärda modeller på en QNAP NAS för inferens och installera Mustang-F100 för att uppnå optimal prestanda för löpande inferens.
Läs mer: OpenVINO™ Workflow Consolidation Tool
Obs!
1. QTS 4.4.0- 4.4.3 och OWCT v1.1.0 krävs för QNAP NAS-enheten.
2. Funktionen för genomströmning i virtuell dator inaktiveras för att använda FPGA-kortet på QNAP NAS. Undvik dataförlust genom att säkerställa att alla pågående NAS-uppgifter avslutas före omstart.
3. Installera Mustang-F100 i NAS-enhetens PCIe Gen3 x8-fack. Se kompatibilitetslistan för fler modeller som stöds.
4. Installation av Mustang Card User Driver i QTS App Center krävs.
Lätthanterad inferensmotor med QNAP OWCT
Program
Dimensioner

Obs!
Det finns stöd för upp till åtta kort med andra operativsystem än QTS. QNAP TS-2888X NAS stöder upp till fyra kort. Tilldela ett kort-ID-nummer (från 0 till 7) till Mustang-F100 manuellt med den roterande omkopplaren. ID-numret som tilldelas här visas på kortets LED-display efter att strömmen slås på.
Vanliga frågor och svar
Behöver du hjälp?
Kontakta oss för fler rekommenderade nätverksprodukter eller nätverkslösningar som uppfyller dina behov och krav.