QNAP newsroom
Blijf op de hoogte van het laatste QNAP-nieuws en de nieuwste awards en neem contact op met ons team
QNAP introduceert Mustang Series rekenversnellerkaarten met Intel VPU/FPGA Vision versneller-oplossing om Deep Learning Inference te versterken
Taipei, Taiwan, 14 juni 2019 – QNAP® Systems, Inc. (QNAP), een vooraanstaand innovator op het gebied van computers, netwerken en opslagoplossingen, heeft vandaag twee rekenversnellerkaarten geïntroduceerd die ontworpen zijn voor AI deep learning inference, waaronder de Mustang-V100 (VPU gebaseerd) en de Mustang-F100 (FPGA gebaseerd). Gebruikers kunnen deze PCIe gebaseerde versnellerkaarten installeren in Intel® gebaseerde servers/pc's of QNAP NAS om de veeleisende belastingen aan te pakken van moderne computervisie- en AI-toepassingen bij fabricage, gezondheidszorg, slimme handel enzovoort.
"De rekensnelheid vormt een belangrijk aspect van de efficiëntie bij de inzet van AI-toepassingen,” zei Dan Lin, productmanager bij QNAP, waarna hij vervolgde: "Hoewel de QNAP Mustang-V100 en Mustang-F100 versnellerkaarten zijn geoptimaliseerd voor de Open VINO™-architectuur en werklasten over Intel-hardware kunnen uitbreiden met gemaximaliseerde prestaties, kunnen ze ook worden gebruikt in combinatie met QNAP’s OpenVINO Workflow Consolidation Tool om in de kortst mogelijke tijd voor rekenversnelling te zorgen voor deep learning inference.”
Zowel de Mustang-V100 als de Mustang-F100 bieden economische versnellingsoplossingen voor AI inference, en ze kunnen tevens samenwerken met de OpenVINO toolkit om inference-werklasten voor beeldclassificatie en computervisie te optimaliseren. De OpenVINO-toolkit, ontwikkeld door Intel, helpt bij het snel ontwikkelen van hoogpresterende computervisie en deep learning in visie-toepassingen. Deze bevat de Model Optimizer and Inference Engine, en kan pre-trained deep learning-modellen optimaliseren (zoals Caffe en TensorFlow) naar een tussenliggende representatie (IR), en de inference engine vervolgens uitvoeren op heterogene Intel-hardware (zoals CPU, GPU, FPGA en VPU).
Naarmate QNAP NAS evolueert om een bredere reeks aan toepassingen te ondersteunen (zoals bewaking, virtualisatie en AI) heeft de combinatie van grote opslag en PCIe-uitbreidbaarheid voordelen voor de gebruiksmogelijkheden in AI. QNAP heeft de OpenVINO Workflow Consolidation Tool (OWCT) ontwikkeld dat gebruik maakt van de Intel OpenVINO toolkit-technologie. Bij gebruik in combinatie met de OWCT vormt de Intel gebaseerde QNAP NAS een ideale Inference Server-oplossing die organisaties helpt bij het snel opzetten van een inferentiesysteem. AI-ontwikkelaars kunnen getrainde modellen inzetten op een QNAP NAS voor inferentie, en de Mustang-V100 of Mustang-F100 versnellerkaarten installeren om optimale prestaties te bereiken bij het uitvoeren van inferentie.
QNAP NAS ondersteunt nu Mustang-V100 en Mustang-F100 met de nieuwste versie van het besturingssysteem QTS 4.4.0. Ga naar www.qnap.com voor een overzicht van de QNAP NAS-modellen die QTS 4.4.0 ondersteunen. Ga naar het App Center om de OWCT-app voor QNAP NAS te downloaden en installeren.
Hoofdkenmerken
Mustang-V100-MX8-R10
Halve hoogte, acht Intel® Movidius™ Myriad™ X MA2485 VPU, PCI Express Gen2 x4 interface, opgenomen vermogen minder dan 30 W.Mustang-F100-A10-R10
Halve hoogte, Intel® Arria® 10 GX1150 FPGA, PCI Express Gen3 x8 interface, opgenomen vermogen minder dan 60 W.
Over QNAP
QNAP (Quality Network Appliance Provider) wijdt zich aan het leveren van uitgebreide oplossingen van software-ontwikkeling, hardware-ontwerp tot interne fabricage. QNAP richt zich op opslag, netwerken en slimme video-innovaties en introduceert nu een revolutionaire Cloud NAS-oplossing die aansluit bij onze geavanceerde op abonnementen gebaseerde software en een gediversifieerd ecosysteem van servicekanalen. QNAP ziet een NAS als meer dan zo maar opslag en het heeft een op de cloud gebaseerde netwerk-infrastructuur gemaakt waarmee gebruikers kunstmatige intelligentie-analyses, edge computing en gegevensintegratie op hun QNAP-oplossingen kunnen hosten en ontwikkelen.