Mustang-F100 (FPGA)
Projeto Intel® Vision Accelerator com FPGA Intel® Arria® 10

mustang-f100

À medida que o QNAP NAS evolui para possibilitar uma ampla faixa de casos de uso (incluindo vigilância, virtualização e IA), você precisa não apenas de mais espaço de armazenamento no seu NAS, mas também espera que o NAS tenha uma maior capacidade de otimizar as cargas de trabalho de destino. A Mustang-F100 é uma placa aceleradora PCIe que usa o FPGA Intel® Arria® 10 programável que oferece o desempenho e a versatilidade da aceleração de FPGA. Ela pode ser instalada em um PC ou um QNAP NAS compatível para melhorar o desempenho, sendo uma opção ideal para cargas de trabalho de inferência de aprendizagem profunda de IA. >> Diferença entre a Mustang-F100 e a Mustang-V100.

  • Metade da altura, metade do comprimento, slot duplo.
  • Eficiência energética e baixa latência.
  • Dispositivo compatível com kit de ferramentas OpenVINO™ e com computação de borda de IA.
  • Os FPGAs podem ser otimizados para diversas tarefas de aprendizagem profundas.
  • Os FPGAs Intel® suportam múltiplos pontos flutuantes e cargas de trabalho de inferência.

Logo_Intel-Arria-10

Kit de ferramentas OpenVINO™

O kit de ferramentas OpenVINO™ é baseado em redes neurais convolucionais (CNN). O kit de ferramentas amplia as cargas de trabalho no hardware Intel® e maximiza o desempenho.

Ele pode otimizar um modelo de aprendizagem profunda pré-treinado, como Caffe, MXNET e Tensorflow, em um arquivo binário IR e, em seguida, executar o mecanismo de inferência no hardware Intel® de forma heterogênea, como em CPU, GPU, Intel® Movidius ™ Neural Compute Stick e FPGA.

Obtenha aceleração de aprendizagem profunda em um PC/servidor Intel

Você pode inserir a Mustang-F100 em um PC ou uma estação de trabalho executando o Linux® (Ubuntu®) para obter aceleração computacional a fim de otimizar o desempenho das aplicações, como inferência de profunda aprendizagem, streaming de vídeo e data center. Como uma solução de aceleração ideal para inferência de IA em tempo real, a Mustang-F100 também pode funcionar com o kit de ferramentas Intel® OpenVINO™ para otimizar cargas de trabalho de inferência para classificação de imagens e visão computacional.

  • Sistemas operacionais
    Ubuntu 16.04.3 LTS de 64 bits, CentOS 7.4 de 64 bits, Windows 10 (mais SOs estarão disponíveis em breve)
  • Kit de ferramentas OpenVINO™
    • Kit de Ferramentas de Desenvolvimento de Aprendizagem Profunda da Intel®
      • - Otimizador de Modelo
      • - Mecanismo de inferência
    • Bibliotecas de visão computacional otimizadas
    • Intel® Media SDK
      *Tempos de execução e drivers de gráficos OpenCL™.
    • Topologias atualmente compatíveis: AlexNet, GoogleNet, Tiny Yolo, LeNet, SqueezeNet, VGG16, ResNet (mais variantes estarão disponíveis em breve)
    • Intel® FPGA Deep Learning Acceleration Suite
  • Com alta flexibilidade, a Mustang-F100-A10 oferece desenvolvimento na estrutura do kit de ferramentas OpenVINO™, que permite que dados treinados, como Caffe, TensorFlow e MXNet, sejam executados nele após a conversão para IR otimizado.

*OpenCL™ é uma marca comercial da Apple Inc. usada com permissão pela Khronos

QNAP NAS como servidor de inferência

O kit de ferramentas OpenVINO™ amplia as cargas de trabalho entre os componentes de hardware da Intel® (incluindo aceleradores) e maximiza o desempenho. Quando usado com a Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™ da QNAP, os sistemas QNAP NAS com processadores Intel apresentam um Servidor de Inferência ideal que ajuda as organizações a criar um sistema de inferência com rapidez. Oferecendo um otimizador de modelos e um mecanismo de inferência, o kit de ferramentas OpenVINO™ é fácil de usar e flexível para visão computacional de alto desempenho e baixa latência que otimiza a inferência de aprendizado profundo. Desenvolvedores de IA podem implantar modelos treinados em um QNAP NAS para inferência e instalar a Mustang-F100 a fim de maximizar o desempenho da realização de inferência.

Nota:
1. É necessário ter o QTS 4.4.0~4.4.3 e OWCT v1.1.0 no NAS QNAP.
2. Para utilizar a computação de placas FPGA no NAS QNAP, a função VM pass-through será desativada. Para evitar potenciais perdas de dados, certifique-se de que todas as tarefas em curso no NAS são concluídas antes de reiniciar.
3. Instale a Mustang-F100 na ranhura PCIe Gen3 x8 do NAS. Verifique a lista de compatibilidade para obter informações sobre mais modelos suportados.
4. É necessário instalar o “Mustang Card User Driver” no QTS App Center.

Mecanismo de inferência fácil de gerenciar com o QNAP OWCT

  • Carregue um arquivo de vídeo

  • Baixe o resultado da inferência

Aplicativos

  • Visão de máquina

  • Varejo inteligente

  • Vigilância

  • Diagnóstico médico

Dimensões

(Unidade: mm)

Nota:
É possível suporte para até 8 placas com outros sistemas operacionais que não sejam o QTS. O QNAP NAS TS-2888X suporta até 4 cartões. Atribua um número de ID de placa (de 0 a 7) à Mustang-F100 usando o botão giratório manualmente. O número de ID de placa atribuído aqui será mostrado no visor LED da placa após a inicialização.

Perguntas frequentes

Problema Solução Arquivos
1 Incompatibilidade de fluxo de bits de versão do OpenVINO Obtenha o cabo de download do FPGA* e siga a etapa para atualizar o fluxo de bits do FPGA Mustang-F100-A10_Download_cable_User_guide
2 Não é possível reconhecer o hardware através do comando "lspci" Baixe o patch para corrigir o problema de que a Mustang não pode ser reconhecida em algumas placas-mãe Mustang-F100_patch

*O cabo de download de FPGA 7Z000-00FPGA00 é necessário.

Precisa de ajuda?

Contacte-nos agora para obter mais recomendações de produtos ou soluções adaptadas às suas necessidades e exigências!

Escolher especificação

      Mostrar mais Menos

      Este site noutros países/regiões:

      open menu
      back to top