Mustang-V100 (VPU) Projeto Intel® Vision Accelerator com VPU Intel® Movidius™

À medida que o QNAP NAS evolui para possibilitar uma ampla faixa de casos de uso (incluindo vigilância, virtualização e IA), você precisa não apenas de mais espaço de armazenamento no seu NAS, mas também espera que o NAS tenha uma maior capacidade de otimizar as cargas de trabalho de destino. A Mustang-V100 é uma placa aceleradora PCIe que usa uma VPU Intel® Movidius™ que processa as cargas de trabalho pesadas de aplicações modernas de visão computacional e IA. Ela pode ser instalada em um PC ou um QNAP NAS compatível para melhorar o desempenho, sendo uma opção ideal para cargas de trabalho de inferência de aprendizagem profunda de IA. >> Diferença entre a Mustang-F100 e a Mustang-V100.
- Metade da altura, metade do comprimento, tamanho compacto de slot único.
- Baixo consumo de energia, aproximadamente 2,5 W para cada VPU Intel® Movidius™ Myriad™ X.
- Dispositivo compatível com kit de ferramentas OpenVINO™ e com computação de borda de IA.
- Oito VPUs Intel® Movidius™ Myriad™ X podem executar oito topologias simultaneamente.

Kit de ferramentas OpenVINO™
O kit de ferramentas OpenVINO™ é baseado em redes neurais convolucionais (CNN). O kit de ferramentas amplia as cargas de trabalho no hardware Intel® e maximiza o desempenho.
Ele pode otimizar um modelo de aprendizagem profunda pré-treinado, como Caffe, MXNET e Tensorflow, em um arquivo binário IR e, em seguida, executar o mecanismo de inferência no hardware Intel® de forma heterogênea, como em CPU, GPU, Intel® Movidius ™ Neural Compute Stick e FPGA.
Obtenha aceleração de aprendizagem profunda em um PC/servidor Intel
Você pode inserir a Mustang-V100 em um PC ou uma estação de trabalho executando o Linux® (Ubuntu®) para obter aceleração computacional a fim de otimizar o desempenho das aplicações, como inferência de profunda aprendizagem, streaming de vídeo e data center. Como uma solução de aceleração ideal para inferência de IA em tempo real, a Mustang-V100 também pode funcionar com o kit de ferramentas Intel® OpenVINO™ para otimizar cargas de trabalho de inferência para classificação de imagens e visão computacional.
- Sistemas operacionais
Ubuntu 16.04.3 LTS de 64 bits, CentOS 7.4 de 64 bits, Windows 10 (mais SOs estarão disponíveis em breve) - Kit de ferramentas OpenVINO™
- Kit de Ferramentas de Desenvolvimento de Aprendizagem Profunda da Intel®
- - Otimizador de Modelo
- - Mecanismo de inferência
- Bibliotecas de visão computacional otimizadas
- Intel® Media SDK
*Tempos de execução e drivers de gráficos OpenCL™. - Topologias compatíveis atuais: AlexNet, GoogleNet V1, Yolo Tiny V1 & V2, Yolo V2, SSD300, ResNet-18, Faster-RCNN. (mais variantes estarão disponíveis em breve)
- Kit de Ferramentas de Desenvolvimento de Aprendizagem Profunda da Intel®
- Com alta flexibilidade, a Mustang-V100-MX8 oferece desenvolvimento na estrutura do kit de ferramentas OpenVINO™, que permite que dados treinados, como Caffe, TensorFlow e MXNet, sejam executados nele após a conversão para IR otimizado.
*OpenCL™ é uma marca comercial da Apple Inc. usada com permissão pela Khronos
QNAP NAS como servidor de inferência
O kit de ferramentas OpenVINO™ amplia as cargas de trabalho entre os componentes de hardware da Intel® (incluindo aceleradores) e maximiza o desempenho. Quando usado com a Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™ da QNAP, os sistemas QNAP NAS com processadores Intel apresentam um Servidor de Inferência ideal que ajuda as organizações a criar um sistema de inferência com rapidez. Oferecendo um otimizador de modelos e um mecanismo de inferência, o kit de ferramentas OpenVINO™ é fácil de usar e flexível para visão computacional de alto desempenho e baixa latência que otimiza a inferência de aprendizado profundo. Desenvolvedores de IA podem implantar modelos treinados em um QNAP NAS para inferência e instalar a Mustang-V100 a fim de maximizar o desempenho da realização de inferência.
Saiba mais: Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™
Nota:
1. É necessário ter o QTS 4.4.0~4.4.3 e OWCT v1.1.0 no NAS QNAP.
2. Verifique a lista de compatibilidade para saber quais os modelos suportados.
3. É necessário instalar o “Mustang Card User Driver” para a Mustang-V100-R10 no QTS App Center. A Mustang-V100-R11 (ou posterior) não é suportada.
Mecanismo de inferência fácil de gerenciar com o QNAP OWCT
Aplicativos
Dimensões

Nota:
É possível suporte para até 16 placas com outros sistemas operacionais que não sejam o QTS. O QNAP NAS TS-2888X suporta até 8 cartões. Atribua um número de ID de placa (de 0 a 15) à Mustang-V100 usando o botão giratório manualmente. O número de ID de placa atribuído aqui será mostrado no visor LED da placa após a inicialização.
Precisa de ajuda?
Contacte-nos agora para obter mais recomendações de produtos ou soluções adaptadas às suas necessidades e exigências!