Mustang-F100 (FPGA) Projeto Intel® Vision Accelerator com FPGA Intel® Arria® 10

À medida que o QNAP NAS evolui para possibilitar uma ampla faixa de casos de uso (incluindo vigilância, virtualização e IA), você precisa não apenas de mais espaço de armazenamento no seu NAS, mas também espera que o NAS tenha uma maior capacidade de otimizar as cargas de trabalho de destino. A Mustang-F100 é uma placa aceleradora PCIe que usa o FPGA Intel® Arria® 10 programável que oferece o desempenho e a versatilidade da aceleração de FPGA. Ela pode ser instalada em um PC ou um QNAP NAS compatível para melhorar o desempenho, sendo uma opção ideal para cargas de trabalho de inferência de aprendizagem profunda de IA. >> Diferença entre a Mustang-F100 e a Mustang-V100.
- Metade da altura, metade do comprimento, slot duplo.
- Eficiência energética e baixa latência.
- Dispositivo compatível com kit de ferramentas OpenVINO™ e com computação de borda de IA.
- Os FPGAs podem ser otimizados para diversas tarefas de aprendizagem profundas.
- Os FPGAs Intel® suportam múltiplos pontos flutuantes e cargas de trabalho de inferência.

Kit de ferramentas OpenVINO™
O kit de ferramentas OpenVINO™ é baseado em redes neurais convolucionais (CNN). O kit de ferramentas amplia as cargas de trabalho no hardware Intel® e maximiza o desempenho.
Ele pode otimizar um modelo de aprendizagem profunda pré-treinado, como Caffe, MXNET e Tensorflow, em um arquivo binário IR e, em seguida, executar o mecanismo de inferência no hardware Intel® de forma heterogênea, como em CPU, GPU, Intel® Movidius ™ Neural Compute Stick e FPGA.
Obtenha aceleração de aprendizagem profunda em um PC/servidor Intel
Você pode inserir a Mustang-F100 em um PC ou uma estação de trabalho executando o Linux® (Ubuntu®) para obter aceleração computacional a fim de otimizar o desempenho das aplicações, como inferência de profunda aprendizagem, streaming de vídeo e data center. Como uma solução de aceleração ideal para inferência de IA em tempo real, a Mustang-F100 também pode funcionar com o kit de ferramentas Intel® OpenVINO™ para otimizar cargas de trabalho de inferência para classificação de imagens e visão computacional.
- Sistemas operacionais
Ubuntu 16.04.3 LTS de 64 bits, CentOS 7.4 de 64 bits, Windows 10 (mais SOs estarão disponíveis em breve) - Kit de ferramentas OpenVINO™
- Kit de Ferramentas de Desenvolvimento de Aprendizagem Profunda da Intel®
- - Otimizador de Modelo
- - Mecanismo de inferência
- Bibliotecas de visão computacional otimizadas
- Intel® Media SDK
*Tempos de execução e drivers de gráficos OpenCL™. - Topologias atualmente compatíveis: AlexNet, GoogleNet, Tiny Yolo, LeNet, SqueezeNet, VGG16, ResNet (mais variantes estarão disponíveis em breve)
- Intel® FPGA Deep Learning Acceleration Suite
- Kit de Ferramentas de Desenvolvimento de Aprendizagem Profunda da Intel®
- Com alta flexibilidade, a Mustang-F100-A10 oferece desenvolvimento na estrutura do kit de ferramentas OpenVINO™, que permite que dados treinados, como Caffe, TensorFlow e MXNet, sejam executados nele após a conversão para IR otimizado.
*OpenCL™ é uma marca comercial da Apple Inc. usada com permissão pela Khronos
QNAP NAS como servidor de inferência
O kit de ferramentas OpenVINO™ amplia as cargas de trabalho entre os componentes de hardware da Intel® (incluindo aceleradores) e maximiza o desempenho. Quando usado com a Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™ da QNAP, os sistemas QNAP NAS com processadores Intel apresentam um Servidor de Inferência ideal que ajuda as organizações a criar um sistema de inferência com rapidez. Oferecendo um otimizador de modelos e um mecanismo de inferência, o kit de ferramentas OpenVINO™ é fácil de usar e flexível para visão computacional de alto desempenho e baixa latência que otimiza a inferência de aprendizado profundo. Desenvolvedores de IA podem implantar modelos treinados em um QNAP NAS para inferência e instalar a Mustang-F100 a fim de maximizar o desempenho da realização de inferência.
Saiba mais: Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™
Nota:
1. É necessário ter o QTS 4.4.0~4.4.3 e OWCT v1.1.0 no NAS QNAP.
2. Para utilizar a computação de placas FPGA no NAS QNAP, a função VM pass-through será desativada. Para evitar potenciais perdas de dados, certifique-se de que todas as tarefas em curso no NAS são concluídas antes de reiniciar.
3. Instale a Mustang-F100 na ranhura PCIe Gen3 x8 do NAS. Verifique a lista de compatibilidade para obter informações sobre mais modelos suportados.
4. É necessário instalar o “Mustang Card User Driver” no QTS App Center.
Mecanismo de inferência fácil de gerenciar com o QNAP OWCT
Aplicativos
Dimensões

Nota:
É possível suporte para até 8 placas com outros sistemas operacionais que não sejam o QTS. O QNAP NAS TS-2888X suporta até 4 cartões. Atribua um número de ID de placa (de 0 a 7) à Mustang-F100 usando o botão giratório manualmente. O número de ID de placa atribuído aqui será mostrado no visor LED da placa após a inicialização.
Perguntas frequentes
Precisa de ajuda?
Contacte-nos agora para obter mais recomendações de produtos ou soluções adaptadas às suas necessidades e exigências!