Mustang-F100 (FPGA)
Intel® Vision versneller-ontwerp met Intel® Arria® 10 FPGA

mustang-f100

Naarmate QNAP NAS zich ontwikkelt om een grotere reeks toepassingen te ondersteunen (waaronder bewaking, virtualisatie en AI) hebt u niet alleen meer opslagruimte nodig op de NAS, maar heeft de NAS ook meer vermogen nodig om de gewenste werklasten te optimaliseren. De Mustang-F100 is een PCIe gebaseerde versnellerkaart die gebruik maakt van de programmeerbare Intel® Arria® 10 FPGA welke de prestaties en veelzijdigheid levert van FPGA-versnelling. Deze kan worden geïnstalleerd in een pc of een compatibele QNAP NAS om de prestaties te versnellen als perfecte keuze voor AI deep learning inferentie-werklasten. >> verschil tussen de Mustang-F100 en de Mustang-V100.

  • Halve hoogte, halve lengte, dubbele sleuf.
  • Energie-efficiënt, lage latentie.
  • Ondersteunt OpenVINO™ toolkit, voorbereid voor AI edge computing.
  • FPGA’s kunnen worden geoptimaliseerd voor verschillende deep learning-taken.
  • Intel®-FPGA’s ondersteunen meervoudige floating point en inferentie-werklasten.

Logo_Intel-Arria-10

OpenVINO™ toolkit

De OpenVINO™ toolkit is gebaseerd op convolutionele neurale netwerken (CNN), de toolkit breidt de werklasten uit over de Intel®-hardware en maximaliseert de prestaties.

Het kan een pre-trained deep learning model zoals Caffe, MXNET, Tensorflow optimaliseren naar een binair IR-bestand en vervolgens de inferentie-engine heterogeen uitvoeren over Intel®-hardware zoals CPU, GPU, Intel® Movidius™ Neural Compute Stick en FPGA.

Zorg voor versnelling van deep learning op Intel-gebaseerde server/PC

U kunt de Mustang-F100 in een PC/werkstation steken dat onder Linux® (Ubuntu®) draait om de rekenkracht te versnellen voor optimale prestaties van toepassingen zoals deep learning inferentie, video streaming en datacenter. Als ideale oplossing voor versnelling van real-time AI inferentie kan de Mustang-F100 ook samenwerken met de Intel® OpenVINO™ toolkit om inferentie-werklasten te optimaliseren voor beeldclassificatie en computervisie.

  • Besturingssystemen
    Ubuntu 16.04.3 LTS 64-bit, CentOS 7.4 64-bit, Windows 10 (binnenkort meer besturingssystemen leverbaar)
  • OpenVINO™ toolkit
    • Intel® Deep Learning Deployment Toolkit
      • - Model optimalisator
      • - Inferentie-engine
    • Geoptimaliseerde bibliotheken voor computervisie
    • Intel® Media SDK
      *OpenCL™ grafische stuurprogramma’s en runtimes.
    • Op dit moment ondersteunde topologiën: AlexNet, GoogleNet, Tiny Yolo, LeNet, SqueezeNet, VGG16, ResNet (meer varianten zijn binnenkort beschikbaar)
    • Intel® FPGA Deep Learning Acceleration Suite
  • Zeer flexibele, Mustang-F100-A10 ontwikkeling op een OpenVINO™ toolkit- structuur waardoor getrainde gegevens zoals Caffe, TensorFlow en MXNet daarop kunnen worden uitgevoerd nadat ze zijn geconverteerd naar geoptimaliseerde IR.

*OpenCL™ is het handelsmerk van Apple Inc. gebruikt met toestemming door Khronos

QNAP NAS als een inferentie-server

De OpenVINO™ toolkit breidt workloads uit over Intel®-hardware (inclusief versnellers) en maximaliseert de prestaties. Bij gebruik in combinatie met het OpenVINO™ MB/s Workflow Consolidation Tool vormt de op Intel® gebaseerde QNAP NAS een ideale Inference Server die organisaties helpt bij het snel opzetten van een inferentiesysteem. Door een model-optimalisator en inferentie-engine te bieden, is de Intel OpenVINO™ toolkit gemakkelijk in het gebruik en flexibel voor hoog-presterende computervisie met een lage latentie die diep-leren inferenties verbetert. AI-ontwikkelaars kunnen getrainde modellen inzetten op een QNAP NAS voor inferentie, en de Mustang-F100 installeren om optimale prestaties te bereiken bij het uitvoeren van inferentie.

Opmerking:
1. QTS 4.4.0~4.4.3 en OWTC v1.1.0 zijn vereist voor de QNAP NAS.
2. Om berekeningen met de FPGA-kaart op de QNAP NAS te kunnen gebruiken, wordt de VM pass-through functie uitgeschakeld. Om mogelijk gegevensverlies te vermijden, moet u controleren of alle actieve NAS-taken zijn voltooid voordat u herstart.
3. Installeer de Mustang-F100 in de PCIe Gen3 x8-sleuf van de NAS. Raadpleeg de compatibiliteitslijst voor meer ondersteunde modellen.
4. Installatie van “Mustang Card User Driver” in het QTS App Center is vereist.

Eenvoudig te beheren inferentie-engine met QNAP OWCT

  • Upload een videobestand

  • Download het inferentie-resultaat

Toepassingen

  • Machinevisie

  • Slimme handel

  • Bewaking

  • Medische diagnostiek

Afmetingen

(eenheid: mm)

Opmerking:
Tot 8 kaarten kunnen worden ondersteund met andere besturingssystemen dan QTS; QNAP TS-2888X NAS ondersteunt tot 4 kaarten. Wijs een kaart-ID nummer toe (van 0 tot 7) aan de Mustang-F100 door de draaiknop met de hand te wijzigen. Het hier toegewezen kaart-ID nummer verschijnt na het opstarten op het LED-scherm van de kaart.

FAQ

Issue Solution Files
1 Bitstream komt niet overeen met de OpenVINO versie Gebruik een FPGA downloadkabel* en volg de stap voor het opwaarderen van de FPGA-bitstream Mustang-F100-A10_Download_cable_User_guide
2 Kan geen hardware herkennen via de opdracht "lspci" Download patch om het probleem te herstellen waardoor de Mustang in sommige moederborden niet wordt herkend. Mustang-F100_patch

*FPGA downloadkabel 7Z000-00FPGA00 is vereist.

Hulp nodig?

Neem contact met ons op voor meer aanbevolen producten of oplossingen die zijn afgestemd op de behoeften en vereisten van uw organisatie!

Kies specificatie

      Toon meer Minder

      Deze website in andere landen/regio's:

      open menu
      back to top