Mustang-V100 (VPU)
Diseño de acelerador de visión Intel® con VPU Intel® Movidius™

mustang-v100

Dado que el NAS de QNAP evoluciona para admitir una mayor variedad de aplicaciones (incluyendo vigilancia, virtualización e IA), no solo necesita más espacio de almacenamiento en su NAS, sino que también necesita que el NAS tenga una mayor potencia para optimizar cargas de trabajo específicas. El Mustang-V100 es una tarjeta aceleradora basada en PCIe que utiliza una VPU Intel® Movidius™ que impulsa las exigentes cargas de trabajo de la visión informática moderna y aplicaciones de IA. Se puede instalar en un PC o en un NAS de QNAP compatible para mejorar el rendimiento como opción perfecta para las cargas de trabajo de inferencia de aprendizaje profundo de IA. >> Diferencia entre Mustang-F100 y Mustang-V100.

  • Tamaño compacto de media altura, media longitud y una única ranura.
  • Bajo consumo energético, aproximadamente 2,5 W para cada VPU Intel® Movidius™ Myriad™ X.
  • Kit de herramientas OpenVINO™ compatible, dispositivo compatible con informática de última generación con IA.
  • Las ocho VPU Intel® Movidius™ Myriad™ X VPU pueden ejecutar ocho topologías al mismo tiempo.

Logo_Intel-Movidius

Kit de herramientas OpenVINO™

El kit de herramientas OpenVINO™ se basa en redes neurolales convolucionales (CNN, convolutional neural networks), extiende las cargas de trabajo a todo el hardware Intel® y maximiza el rendimiento.

Puede optimizar el modelo de aprendizaje profundo pre-formado como Caffe, MXNET, Tensorflow en un archivo binario IR que ejecute el motor de inferencia en el hardware heterogéneo de Intel®, como CPU, GPU, Intel® Movidius™ Neural Compute Stick y FPGA.

Consiga una aceleración de aprendizaje profundo en un servidor/PC basado en Intel

Puede insertar el Mustang-V100 en un PC/estación de trabajo con Linux® (Ubuntu®) para lograr una aceleración de cálculos que garantice un rendimiento óptimo de aplicaciones, como inferencia de aprendizaje profundo, transmisión de vídeo y centro de datos. Como una solución de aceleración ideal para la inferencia de IA en tiempo real, el Mustang-V100 también funciona con el kit de herramientas OpenVINO™ de Intel® para optimizar las cargas de trabajo de inferencia para la clasificación de imágenes y visión informática.

  • Sistemas operativos
    Ubuntu 16.04.3 LTS de 64 bits, CentOS 7.4 de 64 bits, Windows 10 (más sistemas operativos próximamente)
  • Kit de herramientas OpenVINO™
    • Intel® conjunto de herramientas de implementación de aprendizaje estructurado
      • - Optimizador de modelos
      • - Motor de inferencia
    • Bibliotecas de visión informática optimizada
    • Intel® Media SDK
      *Tiempos de ejecución y controladores gráficos OpenCL™.
    • Tecnologías compatibles actualmente: AlexNet, GoogleNet V1, Yolo Tiny V1 y V2, Yolo V2, SSD300, ResNet-18, Faster-RCNN. (más variantes próximamente)
  • Las unidades Mustang--V100-MX8 de alta flexibilidad desarrollan una estructura de kit de herramientas OpenVINO™ que permite que datos formados como Caffe, TensorFlow y MXNet se ejecuten tras la conversión a IR optimizado.

*OpenCL™ es la marca comercial de Apple Inc. Utilizada con el permiso de Khronos

NAS de QNAP como un servidor de inferencia

El conjunto de herramientas OpenVINO™ amplía las cargas de trabajo a través del hardware Intel® (incluidos los aceleradores) y maximiza el rendimiento. Cuando se usa con la Herramienta de consolidación de flujo de trabajo OpenVINO™ de QNAP, el NAS de QNAP basado en Intel® ofrece un servidor de inferencia ideal que ayuda a las organizaciones en la rápida creación de un sistema de inferencia. Con un modelo optimizador y un motor de inferencia, el conjunto de herramientas OpenVINO™, es flexible y fácil de usar para obtener un alto rendimiento, una visión por ordenador de baja latencia lo que mejora la inferencia de aprendizaje estructurado. Los desarrolladores de IA pueden implementar modelos formados en un NAS de QNAP para inferencia e instalar el Mustang-V100 para conseguir un rendimiento óptimo para la ejecución de inferencia.

Nota:
1. Se necesita QTS 4.4.0~4.4.3 y OWCT v1.1.0 para el NAS de QNAP.
2. Consulte la Lista de compatibilidad para ver los modelos compatibles.
3. Es necesario instalar el controlador “Mustang Card User Driver” para Mustang-V100-R10 en el App Center de QTS. Mustang-V100-R11 (o posterior) no es compatible.

Motor de inferencia fácil de usar con QNAP OWCT

  • Subir un archivo de vídeo

  • Descargar el resultado de la inferencia

Aplicaciones

  • Visión de máquina

  • Tienda inteligente

  • Vigilancia

  • Diagnóstico médico

Dimensiones

(Unidad: mm)

Nota:
Se admiten hasta 16 tarjetas con sistemas operativos distintos de QTS; el NAS TS-2888X de QNAP admite hasta 8 tarjetas. Asigne un número de ID de tarjeta (del 0 al 15) al Mustang-V100 utilizando manualmente el control giratorio. El número de ID de tarjeta asignado aquí se mostrará en la indicador LED de la tarjeta tras el encendido.

¿Necesita ayuda?

Póngase en contacto con nosotros ahora para conseguir más soluciones o productos recomendados que respondan a sus requisitos y necesidades.

Elija especificación

      Mostrar más Mostrar menos

      Este portal en otros países / regiones:

      open menu
      back to top