QNAP:s nyheter

Läs de senaste nyheterna om QNAP, utmärkelser och kontakta vårt team

QNAP presenterar Mustang-seriens datoracceleratorkort med Intel VPU/FPGA Vision Accelerator Solution för att öka djupinlärningsinferens

QNAP presenterar Mustang-seriens datoracceleratorkort med Intel VPU/FPGA Vision Accelerator Solution för att öka djupinlärningsinferens

Taipei, Taiwan, 14 juni 2019 – QNAP® Systems, Inc. (QNAP), en ledande innovatör av lösningar inom databehandling, nätverk och lagring, presenterade idag två datoracceleratorkort utformade för djupinlärningsinferens med AI, inklusive Mustang-V100 (VPU-baserad) och Mustang-F100 (FPGA-baserad). Det går att installera dessa PCIe-baserade acceleratorkort i Intel®-baserade servrar/datorer eller QNAP NAS för att hantera den krävande arbetsbelastningen med modernt datorseende och AI-tillämpningar inom tillverkning, hälsovård, smart detaljhandel, videoövervakning, med mera.

”Bearbetningshastigheten är en viktig aspekt i effektiv distribution av AI-tillämpningar,” sade Dan Lin, produktchef på QNAP, och fortsatte ”medan acceleratorkorten QNAP Mustang-V100 och Mustang-F100 är optimerade för OpenVINO™-arkitekturen och kan utöka arbetsbelastningar på Intels maskinvara, går de även att använda med QNAP:s OpenVINO Workflow Consolidation Tool för att utföra datoracceleration för djupinlärningsinferens på kortast möjliga tid.”

Både Mustang-V100 och Mustang-F100 är ekonomiska acceleratorlösningar för AI-inferens och de fungerar med verktyget OpenVINO för att optimera inferensbelastningar för bildklassificering och datorseende. Verktyget OpenVINO, utvecklat av Intel, påskyndar utveckling av högpresterande datorseende och djupinlärning till program för seende. Det innehåller Model Optimizer och Inference Engine och kan optimera förinlärda djupinlärningsmodeller (såsom Caffe och TensorFlow) till en IR (Intermediate Representation och kör sedan inferensmotorn på olika maskinvara från Intel (såsom CPU, GPU, FPGA och VPU).

Eftersom QNAP NAS utvecklar stöd för en större mängd tillämpningar (inklusive övervakning, virtualisering och AI), är kombinationen stort lagringsutrymme och PCIe-expansion gynnsamt för användningspotentialen inom AI. QNAP har utvecklat OpenVINO Workflow Consolidation Tool (OWCT) som drar nytta av tekniken i verktyget Intel OpenVINO. Använd med QWCT blir en Intel-baserad QNAP NAS en perfekt inferensserverlösning som hjälper organisationer att snabbt bygga inferenssystem. AI-utvecklare kan distribuera inlärda modeller på en QNAP NAS för inferens och installera Mustang-V100 eller Mustang-F100 för att uppnå optimal prestanda för löpande inferens.

QNAP NAS stöder nu Mustang-V100 och Mustang-F100 i den senaste versionen av operativsystemet QTS 4.4.0. Visa vilka QNAP NAS-modeller stöder QTS 4.4.0 på www.qnap.com. Ladda ned och installera appen OWCT för QNAP NAS på App Center.

Nyckelspecifikationer

  • Mustang-V100-MX8-R10
    halv höjd, åtta Intel® Movidius™ Myriad™ X MA2485 VPU, PCI Express Gen2 x4-gränssnitt, effektförbrukning under 30 W

  • Mustang-F100-A10-R10
    halv höjd, Intel® Arria® 10 GX1150 FPGA, PCI Express Gen3 x8-gränssnitt, effektförbrukning under 60 W

Om QNAP

QNAP (Quality Network Appliance Provider) lägger ned mycket resurser på att tillhandahålla omfattande lösningar inom programvaruutveckling, maskinvarudesign och egen tillverkning. QNAP fokuserar på lagring, nätverk och smarta videoinnovationer och presenterar nu en revolutionerande moln-NAS-lösning som är en del av vår avancerade prenumerationsbaserade programvara och vårt diversifierade ekosystem med tjänstekanaler. QNAP ser NAS som något mer än bara enkel lagring och har skapat en molnbaserad nätverksinfrastruktur för användare att stå värd för och utveckla analys med artificiell intelligens, edge computing och dataintegrering i sina QNAP-lösningar.

Mediefrågor

marketing@qnap.com

Välj specifikation

      Visa fler Färre

      Denna webbplats i andra länder/regioner:

      open menu
      back to top