Mustang-F100 (FPGA) Intel® Vision Accelerator Design avec Intel® Arria® 10 FPGA
Avec l’évolution du NAS QNAP pour prendre en charge un plus large éventail d’applications (dont la surveillance, la virtualisation et l’IA), non seulement vous avez besoin de plus d’espace de stockage sur votre NAS, mais vous exigez aussi que votre NAS ait une puissance supérieure pour optimiser les charges de travail ciblées. La Mustang-F100 est une carte accélératrice PCIe utilisant Intel® Arria® 10 FPGA programmable qui offre les performances et la polyvalence de l’accélération FPGA. Elle peut être installée dans un PC ou dans un NAS QNAP compatible afin de booster les performances comme choix parfait pour les charges de travail d’inférence de l’apprentissage profond IA. >> Différence entre la Mustang-F100 et la Mustang-V100.
- Mi-hauteur, mi-longueur, deux emplacements.
- Économe en énergie, faible latence.
- Kit d’outils OpenVINO™ pris en charge, appareil compatible edge computing IA.
- Les FPGA peuvent être optimisés pour différentes tâches d’apprentissage profond.
- Les FPGA Intel® prennent en charge plusieurs virgules flottantes et les charges de travail d’inférence.
Kit d’outils OpenVINO™
Le kit d’outils OpenVINO™ est basé sur les réseaux de neurones convulotifs (CNN), le kit d’outil étend les charges de travail sur le matériel Intel® et maximise les performances.
Il peut optimiser le modèle d’apprentissage profond préformé tel que Caffe, MXNET, Tensorflow en fichier binaire IR puis exécuter le moteur d’inférence de manière hétérogène sur le matériel Intel® tel que le processeur, la carte graphique, Intel® Movidius™ Neural Compute Stick, et FPGA.
Obtenez une accélération de l’apprentissage profond sur un serveur/PC basé sur Intel
Vous pouvez insérer la Mustang-F100 dans un(e) PC/station de travail qui exécute Linux® (Ubuntu®) afin d’obtenir une accélération des calculs pour des performances d'applications optimales telles que l’inférence de l’apprentissage profond et le centre de données. En tant que solution idéale pour l’inférence IA en temps réel, la Mustang-F100 peut également travailler avec le kit d’outils Intel® OpenVINO™ afin d’optimiser les charges de travail d’inférence pour la classification des images et la vision par ordinateur.
- Systèmes d’exploitation
Ubuntu 16.04.3 LTS 64 bits, CentOS 7.4 64 bits, Windows 10 (Plus d’OS bientôt pris en charge) - Kit d’outils OpenVINO™
- Intel® Kit d’outils de déploiement de l’apprentissage profond
- - Optimisateur de modèle
- - Moteur d’inférence
- Bibliothèque de vision par ordinateur optimisée
- Intel® Media SDK
*Pilotes graphiques et runtimes OpenCL™. - Topologies actuellement prises en charge : AlexNet, GoogleNet, Tiny Yolo, LeNet, SqueezeNet, VGG16, ResNet (plus de variantes bientôt prises en charge)
- Intel® FPGA Deep Learning Acceleration Suite
- Intel® Kit d’outils de déploiement de l’apprentissage profond
- Haute flexibilité, Mustang-F100-A10 développée sur la structure du kit d’outils OpenVINO™ qui permet à des données formées telles que Caffe, TensorFlow, et MXNet de fonctionner dessus après les avoir converties en IR optimisées.
*OpenCL™ est une marque commerciale d’Apple Inc. utilisée avec autorisation par Khronos
NAS QNAP comme serveur d’inférence
Le kit d’outils OpenVINO™ augmente les charges de travail sur le matériel Intel® (dont les accélérateurs) et maximise les performances. S’il est utilisé avec l’Outil de consolidation du flux de travail OpenVINO™ de QNAP, le NAS QNAP sous Intel® représente un Serveur d’inférence idéal qui aide les organisations à établir rapidement un système d’inférence. En fournissant un optimisateur de modèle et un moteur d’inférence, le kit d’outils OpenVINO™ est simple d'utilisation et flexible pour la vision par ordinateur à haute performance et à faible latence qui améliore l’inférence de l’apprentissage profond. Les développeurs IA peuvent déployer des modèles formés sur un NAS QNAP pour l’inférence, et installer la Mustang-F100 afin d’atteindre des performances optimales pour exécuter l’inférence.
Informations complémentaires: Outil de consolidation du flux de travail OpenVINO™
Remarque :
1. QTS 4.4.0 - 4.4.3 et OWCT v1.1.0 sont requis pour les NAS QNAP.
2. Pour utiliser le calcul de la carte FPGA sur le NAS QNAP, la fonction de passthrough VM sera désactivée. Afin d’éviter une éventuelle perte de données, assurez-vous que toutes les tâches en cours sur le NAS sont terminées avant de redémarrer.
3. Installez la Mustang-F100 dans l’emplacement PCIe Gen3 x8 du NAS. Consultez la Liste de compatibilité pour plus de modèles pris en charge.
4. L’installation du « Pilote utilisateur de la carte Mustang » dans le QTS App Center est requise.
Moteur d’inférence facile à gérer avec QNAP OWCT
Applications
Dimensions

Remarque :
Un maximum de 8 cartes sont prises en charge avec les systèmes d’exploitation autres que QTS ; le NAS QNAP TS-2888X prend en charge jusqu'à 4 cartes. Veuillez attribuer un numéro d’ID de carte (de 0 à 7) à la Mustang-F100 en utilisant manuellement le commutateur rotatif. Le numéro d’ID de carte attribué ici sera affiché avec le témoin lumineux de la carte après la mise sous tension.
FAQ
Besoin d’aide ?
Contactez-nous dès maintenant pour découvrir plus de produits recommandés ou des solutions adaptées à vos besoins et à vos exigences !