Mustang-V100 (VPU)
Projeto Intel® Vision Accelerator com VPU Intel® Movidius™

mustang-v100

À medida que o QNAP NAS evolui para possibilitar uma ampla faixa de casos de uso (incluindo vigilância, virtualização e IA), você precisa não apenas de mais espaço de armazenamento no seu NAS, mas também espera que o NAS tenha uma maior capacidade de otimizar as cargas de trabalho de destino. A Mustang-V100 é uma placa aceleradora PCIe que usa uma VPU Intel® Movidius™ que processa as cargas de trabalho pesadas de aplicações modernas de visão computacional e IA. Ela pode ser instalada em um PC ou um QNAP NAS compatível para melhorar o desempenho, sendo uma opção ideal para cargas de trabalho de inferência de aprendizagem profunda de IA. >> Diferença entre a Mustang-F100 e a Mustang-V100.

  • Metade da altura, metade do comprimento, tamanho compacto de slot único.
  • Baixo consumo de energia, aproximadamente 2,5 W para cada VPU Intel® Movidius™ Myriad™ X.
  • Dispositivo compatível com kit de ferramentas OpenVINO™ e com computação de borda de IA.
  • Oito VPUs Intel® Movidius™ Myriad™ X podem executar oito topologias simultaneamente.

Logo_Intel-Movidius

Kit de ferramentas OpenVINO™

O kit de ferramentas OpenVINO™ é baseado em redes neurais convolucionais (CNN). O kit de ferramentas amplia as cargas de trabalho no hardware Intel® e maximiza o desempenho.

Ele pode otimizar um modelo de aprendizagem profunda pré-treinado, como Caffe, MXNET e Tensorflow, em um arquivo binário IR e, em seguida, executar o mecanismo de inferência no hardware Intel® de forma heterogênea, como em CPU, GPU, Intel® Movidius ™ Neural Compute Stick e FPGA.

Obtenha aceleração de aprendizagem profunda em um PC/servidor Intel

Você pode inserir a Mustang-V100 em um PC ou uma estação de trabalho executando o Linux® (Ubuntu®) para obter aceleração computacional a fim de otimizar o desempenho das aplicações, como inferência de profunda aprendizagem, streaming de vídeo e data center. Como uma solução de aceleração ideal para inferência de IA em tempo real, a Mustang-V100 também pode funcionar com o kit de ferramentas Intel® OpenVINO™ para otimizar cargas de trabalho de inferência para classificação de imagens e visão computacional.

  • Sistemas operacionais
    Ubuntu 16.04.3 LTS de 64 bits, CentOS 7.4 de 64 bits, Windows 10 (mais SOs estarão disponíveis em breve)
  • Kit de ferramentas OpenVINO™
    • Kit de Ferramentas de Desenvolvimento de Aprendizagem Profunda da Intel®
      • - Otimizador de Modelo
      • - Mecanismo de inferência
    • Bibliotecas de visão computacional otimizadas
    • Intel® Media SDK
      *Tempos de execução e drivers de gráficos OpenCL™.
    • Topologias compatíveis atuais: AlexNet, GoogleNet V1, Yolo Tiny V1 & V2, Yolo V2, SSD300, ResNet-18, Faster-RCNN. (mais variantes estarão disponíveis em breve)
  • Com alta flexibilidade, a Mustang-V100-MX8 oferece desenvolvimento na estrutura do kit de ferramentas OpenVINO™, que permite que dados treinados, como Caffe, TensorFlow e MXNet, sejam executados nele após a conversão para IR otimizado.

*OpenCL™ é uma marca comercial da Apple Inc. usada com permissão pela Khronos

QNAP NAS como servidor de inferência

O kit de ferramentas OpenVINO™ amplia as cargas de trabalho entre os componentes de hardware da Intel® (incluindo aceleradores) e maximiza o desempenho. Quando usado com a Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™ da QNAP, os sistemas QNAP NAS com processadores Intel apresentam um Servidor de Inferência ideal que ajuda as organizações a criar um sistema de inferência com rapidez. Oferecendo um otimizador de modelos e um mecanismo de inferência, o kit de ferramentas OpenVINO™ é fácil de usar e flexível para visão computacional de alto desempenho e baixa latência que otimiza a inferência de aprendizado profundo. Desenvolvedores de IA podem implantar modelos treinados em um QNAP NAS para inferência e instalar a Mustang-V100 a fim de maximizar o desempenho da realização de inferência.

Nota:
1. É necessário ter o QTS 4.4.0~4.4.3 e OWCT v1.1.0 no NAS QNAP.
2. Verifique a lista de compatibilidade para saber quais os modelos suportados.
3. É necessário instalar o “Mustang Card User Driver” para a Mustang-V100-R10 no QTS App Center. A Mustang-V100-R11 (ou posterior) não é suportada.

Mecanismo de inferência fácil de gerenciar com o QNAP OWCT

  • Carregue um arquivo de vídeo

  • Baixe o resultado da inferência

Aplicativos

  • Visão de máquina

  • Varejo inteligente

  • Vigilância

  • Diagnóstico médico

Dimensões

(Unidade: mm)

Nota:
É possível suporte para até 16 placas com outros sistemas operacionais que não sejam o QTS. O QNAP NAS TS-2888X suporta até 8 cartões. Atribua um número de ID de placa (de 0 a 15) à Mustang-V100 usando o botão giratório manualmente. O número de ID de placa atribuído aqui será mostrado no visor LED da placa após a inicialização.

Precisa de ajuda?

Contacte-nos agora para obter mais recomendações de produtos ou soluções adaptadas às suas necessidades e exigências!

Escolher especificação

      Mostrar mais Menos

      Este site noutros países/regiões:

      open menu
      back to top