Mustang-F100 (FPGA)
Intel® Vision Accelerator Design avec Intel® Arria® 10 FPGA

mustang-f100
Logo_Intel-Arria-10

Avec l’évolution du NAS QNAP pour prendre en charge un plus large éventail d’applications (dont la surveillance, la virtualisation et l’IA), non seulement vous avez besoin de plus d’espace de stockage sur votre NAS, mais vous exigez aussi que votre NAS ait une puissance supérieure pour optimiser les charges de travail ciblées. La Mustang-F100 est une carte accélératrice PCIe utilisant Intel® Arria® 10 FPGA programmable qui offre les performances et la polyvalence de l’accélération FPGA. Elle peut être installée dans un PC ou dans un NAS QNAP compatible afin de booster les performances comme choix parfait pour les charges de travail d’inférence de l’apprentissage profond IA. >> Différence entre la Mustang-F100 et la Mustang-V100.

  • Mi-hauteur, mi-longueur, deux emplacements.
  • Économe en énergie, faible latence.
  • Kit d’outils OpenVINO™ pris en charge, appareil compatible edge computing IA.
  • Les FPGA peuvent être optimisés pour différentes tâches d’apprentissage profond.
  • Les FPGA Intel® prennent en charge plusieurs virgules flottantes et les charges de travail d’inférence.

Kit d’outils OpenVINO™

Le kit d’outils OpenVINO™ est basé sur les réseaux de neurones convulotifs (CNN), le kit d’outil étend les charges de travail sur le matériel Intel® et maximise les performances.

Il peut optimiser le modèle d’apprentissage profond préformé tel que Caffe, MXNET, Tensorflow en fichier binaire IR puis exécuter le moteur d’inférence de manière hétérogène sur le matériel Intel® tel que le processeur, la carte graphique, Intel® Movidius™ Neural Compute Stick, et FPGA.

Obtenez une accélération de l’apprentissage profond sur un serveur/PC basé sur Intel

Vous pouvez insérer la Mustang-F100 dans un(e) PC/station de travail qui exécute Linux® (Ubuntu®) afin d’obtenir une accélération des calculs pour des performances d'applications optimales telles que l’inférence de l’apprentissage profond et le centre de données. En tant que solution idéale pour l’inférence IA en temps réel, la Mustang-F100 peut également travailler avec le kit d’outils Intel® OpenVINO™ afin d’optimiser les charges de travail d’inférence pour la classification des images et la vision par ordinateur.

  • Systèmes d’exploitation
    Ubuntu 16.04.3 LTS 64 bits, CentOS 7.4 64 bits, Windows 10 (Plus d’OS bientôt pris en charge)
  • Kit d’outils OpenVINO™
    • Intel® Kit d’outils de déploiement de l’apprentissage profond
      • - Optimisateur de modèle
      • - Moteur d’inférence
    • Bibliothèque de vision par ordinateur optimisée
    • Intel® Media SDK
      *Pilotes graphiques et runtimes OpenCL™.
    • Topologies actuellement prises en charge : AlexNet, GoogleNet, Tiny Yolo, LeNet, SqueezeNet, VGG16, ResNet (plus de variantes bientôt prises en charge)
    • Intel® FPGA Deep Learning Acceleration Suite
  • Haute flexibilité, Mustang-F100-A10 développée sur la structure du kit d’outils OpenVINO™ qui permet à des données formées telles que Caffe, TensorFlow, et MXNet de fonctionner dessus après les avoir converties en IR optimisées.

*OpenCL™ est une marque commerciale d’Apple Inc. utilisée avec autorisation par Khronos

NAS QNAP comme serveur d’inférence

Le kit d’outils OpenVINO™ augmente les charges de travail sur le matériel Intel® (dont les accélérateurs) et maximise les performances. S’il est utilisé avec l’Outil de consolidation du flux de travail OpenVINO™ de QNAP, le NAS QNAP sous Intel® représente un Serveur d’inférence idéal qui aide les organisations à établir rapidement un système d’inférence. En fournissant un optimisateur de modèle et un moteur d’inférence, le kit d’outils OpenVINO™ est simple d'utilisation et flexible pour la vision par ordinateur à haute performance et à faible latence qui améliore l’inférence de l’apprentissage profond. Les développeurs IA peuvent déployer des modèles formés sur un NAS QNAP pour l’inférence, et installer la Mustang-F100 afin d’atteindre des performances optimales pour exécuter l’inférence.

Remarque :
1. QTS 4.4.0 - 4.4.3 et OWCT v1.1.0 sont requis pour les NAS QNAP.
2. Pour utiliser le calcul de la carte FPGA sur le NAS QNAP, la fonction de passthrough VM sera désactivée. Afin d’éviter une éventuelle perte de données, assurez-vous que toutes les tâches en cours sur le NAS sont terminées avant de redémarrer.
3. Installez la Mustang-F100 dans l’emplacement PCIe Gen3 x8 du NAS. Consultez la Liste de compatibilité pour plus de modèles pris en charge.
4. L’installation du « Pilote utilisateur de la carte Mustang » dans le QTS App Center est requise.

Moteur d’inférence facile à gérer avec QNAP OWCT

  • Transférez un fichier vidéo

  • Téléchargez le résultat de l’inférence

Applications

  • Vision industrielle

  • Vente au détail intelligente

  • Surveillance

  • Diagnostics médicaux

Dimensions

(Unité : mm)

Remarque :
Un maximum de 8 cartes sont prises en charge avec les systèmes d’exploitation autres que QTS ; le NAS QNAP TS-2888X prend en charge jusqu'à 4 cartes. Veuillez attribuer un numéro d’ID de carte (de 0 à 7) à la Mustang-F100 en utilisant manuellement le commutateur rotatif. Le numéro d’ID de carte attribué ici sera affiché avec le témoin lumineux de la carte après la mise sous tension.

FAQ

Problème Solution Fichiers
1 Incohérence du bitstream de la version d’OpenVINO Obtenez le câble de téléchargement FPGA*, puis suivez les étapes pour mettre à jour le bitstream FPGA Mustang-F100-A10_Download_cable_User_guide
2 Impossible de reconnaître le matériel via la commande « Ispci » Téléchargez le patch pour résoudre le problème où la Mustang ne peut pas être reconnue par certaines cartes mères Mustang-F100_patch

*Le câble de téléchargement FPGA 7Z000-00FPGA00 est requis.

Besoin d’aide ?

Contactez-nous dès maintenant pour découvrir plus de produits recommandés ou des solutions adaptées à vos besoins et à vos exigences !

Choisissez une spécification

      En voir davantage Moins

      Ce site est disponible dans d'autres pays/régions :

      open menu
      back to top