Tutorial da Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™


Data da última modificação: 2019-06-05

Sobre

A Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™ (OWCT) é uma ferramenta de aprendizagem profunda para converter modelos treinados em mecanismos de inferência acelerados pela Distribuição da Intel® do Kit de Ferramentas OpenVINO™. Os mecanismos de inferência permitem verificar os resultados de inferência de modelos treinados.

A Distribuição da Intel® do Kit de Ferramentas OpenVINO ™ baseia-se em redes neurais convolucionais (CNN). O kit de ferramentas amplia as cargas de trabalho entre aceleradores de hardware da Intel® para maximizar o desempenho.

Você pode instalar o OWCT pelo App Center no QTS.
Nota:

O Container Station deve estar instalado para que seja possível usar o OWCT.


Compatibilidade

Plataforma

Suporte

Modelos NAS

  • TVS-x72XT

    Nota:

    O TVS-x72XT não é compatível com placas FPGA (matriz de portas programáveis de campo), como aceleradores de hardware.

  • TVS-x72XU

  • TS-2888X

Nota:

Somente os modelos de NAS com processadores Intel são compatíveis com a Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™.

OS

QTS 4.4

Versão da Distribuição da Intel® do Kit de Ferramentas OpenVINO™

2018R5

Para obter detalhes, acesse https://software.intel.com/en-us/articles/OpenVINO-RelNotes.

Aceleradores de hardware

Você pode usar os aceleradores de hardware instalados em seu NAS para melhorar o desempenho de seus mecanismos de inferência.

Os aceleradores de hardware instalados no NAS são exibidos na Tela Inicial.

Aceleradores de hardware com o status Pronto podem ser usados na criação de mecanismos de inferência.

Se o status exibido for Configurações, vá para Painel de controle > Sistema > Hardware > Placa gráfica para configurar o acelerador de hardware.

Nota:
  • Para usar placas FPGA (matriz de portas programáveis de campo) em um QNAP NAS, a passagem de máquina virtual (VM) deve ser desativada.

  • Cada recurso FPGA pode criar um mecanismo de inferência.

  • Cada recurso de unidade de processamento de visão (VPU) pode criar um mecanismo de inferência.

Criar mecanismos de inferência

Use o OWCT para criar mecanismos de inferência e configurar parâmetros de inferência.

  1. Abra o OWCT.
  2. Clique em + Mecanismo do OpenVINO™.

    A janela Criar novo mecanismo de inferência do OpenVINO™ será exibida.

  3. Selecione um modelo de inferência.
  4. Clique em Avançar.
  5. Configure o modelo de inferência.
    Tabela 1. Modelo pré-treinado da Intel

    Campo

    Descrição

    Nome

    Insira um nome entre 2 e 50 caracteres.

    Modelo de inferência

    Exibe o tipo de modelo de inferência.a

    Tipo de inferência

    Selecione o tipo de inferência para seu modelo.

    Arquivo de modelo pré-treinado da Intel®

    Selecione um arquivo de modelo pré-treinado.

    Dica:

    Clique em Guia para exibir informações sobre o modelo selecionado.

    Tipo de origem

    Selecione o tipo de arquivo de origem para fazer upload no motor de inferência.

    Acelerador/precisão

    Selecione o acelerador de hardware e a taxa de precisão que influenciará a duração e a precisão da inferência.

    Tabela 2. Modelo personalizado

    Campo

    Descrição

    Nome

    Insira um nome entre 2 e 50 caracteres.

    Modelo de inferência

    Exibe o tipo de modelo de inferência.a

    Tipo de inferência

    Selecione o tipo de inferência para seu modelo.

    Tipo de origem

    Selecione o tipo de arquivo de origem para fazer upload no motor de inferência.

    Acelerador

    Selecione o acelerador de hardware que determinará a velocidade de processamento quando o mecaniasmo de inferência estiver usando um dispositivo diferente.

    Precisão

    Selecione a taxa de precisão que determinará a duração e a precisão da inferência.

    Fluxo de bits (somente FPGA)

    Selecione um arquivo de processamento para um dispositivo FPGA.

    Framework

    Selecione a estrutura para seu modelo de inferência.

    Nota:

    O OWCT atualmente é compatível com Tensorflow e Caffe.

    Arquivos de modelo

    Selecione os arquivos de modelo para seu modelo de inferência.

    Tipos de arquivo específicos devem ser enviados de acordo com a estrutura:
    • Tensorflow: .pf, .config

    • Caffe: .caffemodel, .prototxt

    Arquivo de rótulo (opcional)

    Qualquer objeto detectado será exibido durante a inferência.

    Argumentos (opcional)

    Adicione argumentos ao seu mecanismo de inferência.a

  6. Clique em Avançar.
  7. Analise o resumo.
  8. Clique em Criar.

O OWCT criará e exibirá o mecanismo de inferência na tela Eventos de inferência.

Usar a visão computacional com mecanismos de inferência

  1. Abra o OWCT.
  2. Vá para a tela Eventos de inferência.
  3. Certifique-se de que o status do mecanismo de inferência de destino seja Pronto.
  4. Clique no link abaixo do nome do mecanismo de inferência.

    A janela Detecção de objetos será exibida em uma nova guia.

  5. Clique em Carregar.
    A janela Selecionar arquivo será exibida.
  6. Selecionar um arquivo.
  7. Clique em Carregar.

    O processo de inferência de detecção de objetos será iniciado.

  8. Quando a inferência for concluída, clique em Download.
    A janela Selecionar pasta será exibida.
  9. Selecione a pasta onde você deseja salvar o resultado da inferência.
  10. Clique em Salvar.

Gerenciar mecanismos de inferência

Você pode visualizar e gerenciar mecanismos de inferência na tela Eventos de inferência.

Botão

Descrição

Inicia o processo de inferência.

Interrompe o processo de inferência.

Exibe detalhes e o status de registro do mecanismo de inferência.

Salva o mecanismo de inferência como um arquivo IR (representação imediataa) para aplicações avançadas.

Exclui o mecanismo de inferência.

Este artigo foi útil?

11% das pessoas acham que foi útil.
Obrigado por seu retorno.

Conte-nos como podemos melhorar este artigo:

Se quiser enviar outros comentários, escreva-os abaixo.

Escolher especificação

      Mostrar mais Menos

      Este site noutros países/regiões:

      open menu
      back to top