Mustang-F100 (FPGA)
Diseño de acelerador de visión Intel® con FPGA Intel® Arria® 10

mustang-f100

Dado que el NAS de QNAP evoluciona para admitir una mayor variedad de aplicaciones (incluyendo vigilancia, virtualización e IA), no solo necesita más espacio de almacenamiento en su NAS, sino que también necesita que el NAS tenga una mayor potencia para optimizar cargas de trabajo específicas. El Mustang-F100 es un acelerador basado en PCIe que utiliza la FPGA Intel® Arria® 10 que ofrece el rendimiento y la versatilidad de la aceleración FPGA. Se puede instalar en un PC o en un NAS de QNAP compatible para mejorar el rendimiento como opción perfecta para las cargas de trabajo de inferencia de aprendizaje profundo de IA. >> Diferencia entre Mustang-F100 y Mustang-V100.

  • Media altura, media longitud, doble ranura.
  • Eficiencia energética, baja latencia.
  • Kit de herramientas OpenVINO™ compatible, dispositivo compatible con informática de última generación con IA.
  • Las FPGA se pueden optimizar para diferentes tareas de aprendizaje profundo.
  • Las Intel® FPGA admiten múltiples cargas de trabajo de inferencia y puntos flotantes.

Logo_Intel-Arria-10

Kit de herramientas OpenVINO™

El kit de herramientas OpenVINO™ se basa en redes neurolales convolucionales (CNN, convolutional neural networks), extiende las cargas de trabajo a todo el hardware Intel® y maximiza el rendimiento.

Puede optimizar el modelo de aprendizaje profundo pre-formado como Caffe, MXNET, Tensorflow en un archivo binario IR que ejecute el motor de inferencia en el hardware heterogéneo de Intel®, como CPU, GPU, Intel® Movidius™ Neural Compute Stick y FPGA.

Consiga una aceleración de aprendizaje profundo en un servidor/PC basado en Intel

Puede insertar el Mustang-F100 en un PC/estación de trabajo con Linux® (Ubuntu®) para lograr una aceleración de cálculos que garantice un rendimiento óptimo de aplicaciones, como inferencia de aprendizaje profundo, transmisión de vídeo y centro de datos. Como una solución de aceleración ideal para la inferencia de IA en tiempo real, el Mustang-F100 también funciona con el kit de herramientas OpenVINO™ de Intel® para optimizar las cargas de trabajo de inferencia para la clasificación de imágenes y visión informática.

  • Sistemas operativos
    Ubuntu 16.04.3 LTS de 64 bits, CentOS 7.4 de 64 bits, Windows 10 (más sistemas operativos próximamente)
  • Kit de herramientas OpenVINO™
    • Intel® conjunto de herramientas de implementación de aprendizaje estructurado
      • - Optimizador de modelos
      • - Motor de inferencia
    • Bibliotecas de visión informática optimizada
    • Intel® Media SDK
      *Tiempos de ejecución y controladores gráficos OpenCL™.
    • Tecnologías compatibles actualmente: AlexNet, GoogleNet, Tiny Yolo, LeNet, SqueezeNet, VGG16, ResNet (más variantes próximamente)
    • Intel® Serie de aceleración de aprendizaje profundo FPGA
  • Las unidades Mustang--F100-A10 de alta flexibilidad desarrollan una estructura de kit de herramientas OpenVINO™ que permite que datos formados como Caffe, TensorFlow y MXNet se ejecuten tras la conversión a IR optimizado.

*OpenCL™ es la marca comercial de Apple Inc. Utilizada con el permiso de Khronos

NAS de QNAP como un servidor de inferencia

El conjunto de herramientas OpenVINO™ amplía las cargas de trabajo a través del hardware Intel® (incluidos los aceleradores) y maximiza el rendimiento. Cuando se usa con la Herramienta de consolidación de flujo de trabajo OpenVINO™ de QNAP, el NAS de QNAP basado en Intel® ofrece un servidor de inferencia ideal que ayuda a las organizaciones en la rápida creación de un sistema de inferencia. Con un modelo optimizador y un motor de inferencia, el conjunto de herramientas OpenVINO™, es flexible y fácil de usar para obtener un alto rendimiento, una visión por ordenador de baja latencia lo que mejora la inferencia de aprendizaje estructurado. Los desarrolladores de IA pueden implementar modelos formados en un NAS de QNAP para inferencia e instalar el Mustang-F100 para conseguir un rendimiento óptimo para la ejecución de inferencia.

Nota:
1. Se necesita QTS 4.4.0~4.4.3 y OWCT v1.1.0 para el NAS de QNAP.
2. Para usar la tarjeta FPGA en el NAS de QNAP, se deshabilitará la función de salida directa de VM. Para evitar una posible pérdida de datos, asegúrese de que todas las tareas en curso del NAS hayan finalizado antes de reiniciar.
3. Instale el Mustang-F100 en la ranura PCIe Gen3 x8 del NAS. Consulte la Lista de compatibilidad para ver más modelos compatibles.
4. Es necesario instalar el “Mustang Card User Driver” en el App Center de QTS.

Motor de inferencia fácil de usar con QNAP OWCT

  • Subir un archivo de vídeo

  • Descargar el resultado de la inferencia

Aplicaciones

  • Visión de máquina

  • Tienda inteligente

  • Vigilancia

  • Diagnóstico médico

Dimensiones

(Unidad: mm)

Nota:
Se admiten hasta 8 tarjetas con sistemas operativos distintos de QTS; el NAS TS-2888X de QNAP admite hasta 4 tarjetas. Asigne un número de ID de tarjeta (del 0 al 7) al Mustang-F100 utilizando manualmente el control giratorio. El número de ID de tarjeta asignado aquí se mostrará en la indicador LED de la tarjeta tras el encendido.

Preguntas frecuentes

Problema Solución Archivos
1 No hay correspondencia en el flujo de bits de la versión de OpenVINO Obtenga el cable de descarga FPGA* y, a continuación, continue al siguiente paso para actualizar el flujo de bits FPGA Mustang-F100-A10_Download_cable_User_guide
2 No se puede reconocer el hardware a través del comando "lspci" Descargue el parche para solucionar el problema por el que el Mustang no se puede reconocer en algunas placas base Mustang-F100_patch

Es necesario un cable de descarga *FPGA 7Z000-00FPGA00.

¿Necesita ayuda?

Póngase en contacto con nosotros ahora para conseguir más soluciones o productos recomendados que respondan a sus requisitos y necesidades.

Elija especificación

      Mostrar más Mostrar menos

      Este portal en otros países / regiones:

      open menu
      back to top