Mustang-V100 (VPU)
Intel® Vision Accelerator Design avec la VPU Intel® Movidius™

mustang-v100

Avec l’évolution du NAS QNAP pour prendre en charge un plus large éventail d’applications (dont la surveillance, la virtualisation et l’IA), non seulement vous avez besoin de plus d’espace de stockage sur votre NAS, mais vous exigez aussi que votre NAS ait une puissance supérieure pour optimiser les charges de travail ciblées. La Mustang-V100 est une carte accélératrice sous PCIe utilisant une VPU Intel® Movidius™ qui gère les charges de travail exigeantes en ressources de la vison par ordinateur moderne et des applications IA. Elle peut être installée dans un PC ou dans un NAS QNAP compatible afin de booster les performances comme choix parfait pour les charges de travail d’inférence de l’apprentissage profond IA. >> Différence entre la Mustang-F100 et la Mustang-V100.

  • Mi-hauteur, mi-longueur, emplacement unique et taille compacte.
  • Faible consommation d'énergie, environ 2,5 W pour chaque Intel® Movidius™ Myriad™ X VPU.
  • Kit d’outils OpenVINO™ pris en charge, appareil compatible edge computing IA.
  • Huit VPU Intel® Movidius™ Myriad™ X peuvent exécuter huit topologies simultanément.

Logo_Intel-Movidius

Kit d’outils OpenVINO™

Le kit d’outils OpenVINO™ est basé sur les réseaux de neurones convulotifs (CNN), le kit d’outil étend les charges de travail sur le matériel Intel® et maximise les performances.

Il peut optimiser le modèle d’apprentissage profond préformé tel que Caffe, MXNET, Tensorflow en fichier binaire IR puis exécuter le moteur d’inférence de manière hétérogène sur le matériel Intel® tel que le processeur, la carte graphique, Intel® Movidius™ Neural Compute Stick, et FPGA.

Obtenez une accélération de l’apprentissage profond sur un serveur/PC basé sur Intel

Vous pouvez insérer la Mustang-V100 dans un(e) PC/station de travail qui exécute Linux® (Ubuntu®) afin d’obtenir une accélération des calculs pour des performances d'applications optimales telles que l’inférence de l’apprentissage profond et le centre de données. En tant que solution idéale pour l’inférence IA en temps réel, la Mustang-V100 peut également travailler avec le kit d’outils Intel® OpenVINO™ afin d’optimiser les charges de travail d’inférence pour la classification des images et la vision par ordinateur.

  • Systèmes d’exploitation
    Ubuntu 16.04.3 LTS 64 bits, CentOS 7.4 64 bits, Windows 10 (Plus d’OS bientôt pris en charge)
  • Kit d’outils OpenVINO™
    • Intel® Kit d’outils de déploiement de l’apprentissage profond
      • - Optimisateur de modèle
      • - Moteur d’inférence
    • Bibliothèque de vision par ordinateur optimisée
    • Intel® Media SDK
      *Pilotes graphiques et runtimes OpenCL™.
    • Topologies actuellement prises en charge : AlexNet, GoogleNet V1, Yolo Tiny V1, V2, Yolo V2, SSD300, ResNet-18, Faster-RCNN. (plus de variantes bientôt prises en charge)
  • Haute flexibilité, Mustang-V100-MX8 développée sur la structure du kit d’outils OpenVINO™ qui permet à des données formées telles que Caffe, TensorFlow, et MXNet de fonctionner dessus après les avoir converties en IR optimisées.

*OpenCL™ est une marque commerciale d’Apple Inc. utilisée avec autorisation par Khronos

NAS QNAP comme serveur d’inférence

Le kit d’outils OpenVINO™ augmente les charges de travail sur le matériel Intel® (dont les accélérateurs) et maximise les performances. S’il est utilisé avec l’Outil de consolidation du flux de travail OpenVINO™ de QNAP, le NAS QNAP sous Intel® représente un Serveur d’inférence idéal qui aide les organisations à établir rapidement un système d’inférence. En fournissant un optimisateur de modèle et un moteur d’inférence, le kit d’outils OpenVINO™ est simple d'utilisation et flexible pour la vision par ordinateur à haute performance et à faible latence qui améliore l’inférence de l’apprentissage profond. Les développeurs IA peuvent déployer des modèles formés sur un NAS QNAP pour l’inférence, et installer la Mustang-V100 afin d’atteindre des performances optimales pour exécuter l’inférence.

Remarque :
1. QTS 4.4.0 - 4.4.3 et OWCT v1.1.0 sont requis pour les NAS QNAP.
2. Consultez la liste de compatibilité pour les modèles pris en charge.
3. L’installation du « Pilote utilisateur de la carte Mustang » pour la Mustang-V100-R10 dans le QTS App Center est requise. La Mustang-V100-R11 (ou ultérieure) n’est pas prise en charge.

Moteur d’inférence facile à gérer avec QNAP OWCT

  • Transférez un fichier vidéo

  • Téléchargez le résultat de l’inférence

Applications

  • Vision industrielle

  • Vente au détail intelligente

  • Surveillance

  • Diagnostics médicaux

Dimensions

(Unité : mm)

Remarque :
Un maximum de 16 cartes sont prises en charge avec les systèmes d’exploitation autres que QTS ; le NAS QNAP TS-2888X prend en charge jusqu'à 8 cartes. Veuillez attribuer un numéro d’ID de carte (de 0 à 15) à la Mustang-V100 en utilisant manuellement le commutateur rotatif. Le numéro d’ID de carte attribué ici sera affiché avec le témoin lumineux de la carte après la mise sous tension.

Besoin d’aide ?

Contactez-nous dès maintenant pour découvrir plus de produits recommandés ou des solutions adaptées à vos besoins et à vos exigences !

Choisissez une spécification

      En voir davantage Moins

      Ce site est disponible dans d'autres pays/régions :

      open menu
      back to top