Tutorial de la Herramienta de consolidación del flujo de trabajo OpenVINO™


Última fecha de modificación: 2019-06-05

Información

La Herramienta de consolidación del flujo de trabajo OpenVINO™ (OWCT) es una herramienta de aprendizaje profundo para convertir los modelos configurados en motores de inferencia acelerados mediante la Distribución Intel® del conjunto de herramientas OpenVINO™. Los motores de inferencia le permiten verificar los resultados de inferencia de los modelos configurados.

La Distribución Intel® del conjunto de herramientas OpenVINO™ se basa en redes neurológicas convolucionales (CNN, convolutional neural networks). El conjunto de herramientas amplía las cargas de trabajo en todos los aceleradores de hardware Intel® y maximiza el rendimiento.

Puede instalar OWCT desde el App Center en QTS.
Nota:

Container Station debe estar instalado para usar el OWCT.


Compatibilidad

Plataforma

Compatibilidad

Modelos de NAS

  • TVS-x72XT

    Nota:

    El TVS-x72XT no admite tarjetas de matriz de puertas programable en campo (FPGA) como aceleradores de hardware.

  • TVS-x72XU

  • TS-2888X

Nota:

Solo los modelos de NAS basados en Intel admiten la herramienta de consolidación del flujo de trabajo OpenVINO™.

SO

QTS 4.4

Distribución Intel® del Conjunto de herramientas OpenVINO™ versión

2018R5

Para obtener más información, vaya a https://software.intel.com/en-us/articles/OpenVINO-RelNotes.

Aceleradores de hardware

Puede usar los aceleradores de hardware instalados en su NAS para mejorar el rendimiento de sus motores de inferencia.

Los aceleradores de hardware instalados en el NAS se muestran en la pantalla Inicio.

Los aceleradores de hardware con el estado Listo se pueden usar al crear motores de inferencia.

Si el estado que se muestra es Configuración, vaya a Panel de control > Sistema > Hardware > Tarjeta gráfica para configurar el acelerador de hardware.

Nota:
  • Para usar tarjetas de matriz de puertas programables en campo (FPGA) en un NAS de QNAP, se debe deshabilitar la salida directa de la máquina virtual (VM).

  • Cada recurso FPGA puede crear un motor de inferencia.

  • Cada unidad de procesamiento de visión (VPU) puede crear un motor de inferencia.

Creación de motores de inferencia

Utilice el OWCT para crear motores de inferencia y configurar parámetros de inferencia.

  1. Abra el OWCT.
  2. Haga clic en + Motor OpenVINO™.

    Aparecerá la ventana Crear nuevo motor de inferencia OpenVINO™.

  3. Seleccione un modelo de inferencia.
  4. Haga clic en Siguiente.
  5. Configure el modelo de inferencia.
    Tabla 1. Modelo de Intel preconfigurado

    Campo

    Descripción

    Nombre

    Introduzca un nombre que contenga entre 2 y 50 caracteres.

    Modelo de inferencia

    Muestra el tipo del modelo de inferencia.

    Tipo de inferencia

    Seleccione el tipo de inferencia de su modelo.

    Archivo de modelo de Intel® preconfigurado

    Seleccione un archivo de modelo preconfigurado.

    Sugerencia:

    Haga clic en Guía para ver información sobre el modelo seleccionado.

    Tipo de origen

    Seleccione el tipo de archivo de origen para cargar el motor de inferencia.

    Acelerador/Precisión

    Seleccione el acelerador de hardware y el índice de precisión que influirán en la duración y en la precisión de la inferencia.

    Tabla 2. Modelo personalizado

    Campo

    Descripción

    Nombre

    Introduzca un nombre que contenga entre 2 y 50 caracteres.

    Modelo de inferencia

    Muestra el tipo del modelo de inferencia.

    Tipo de inferencia

    Seleccione el tipo de inferencia de su modelo.

    Tipo de origen

    Seleccione el tipo de archivo de origen para cargar el motor de inferencia.

    Acelerador

    Seleccione el acelerador de hardware que determinará la velocidad de procesamiento cuando el motor de inferencia esté utilizando otro dispositivo.

    Precisión

    Seleccione el índice de precisión que determinará la duración y la precisión de la inferencia.

    Flujo de bits (solo FPGA)

    Seleccione un archivo de computación para un dispositivo FPGA.

    Marco

    Seleccione un marco para su modelo de inferencia.

    Nota:

    Actualmente el OWCT admite Tensorflow y Caffe.

    Archivos de modelo

    Seleccione los archivos de modelo para su modelo de inferencia.

    Dependiendo del marco, se deben cargar determinados tipos de archivo:
    • Tensorflow: .pf, .config

    • Caffe: .caffemodel, .prototxt

    Archivo de etiqueta (opcional)

    Cualquier objeto que se detecte aparecerá durante la inferencia.

    Argumentos (opcional)

    Añada argumentos a su motor de inferencia.

  6. Haga clic en Siguiente.
  7. Revise el resumen.
  8. Haga clic en Crear.

El OWCT crea el motor de inferencia y se muestra en la pantalla Eventos de inferencia.

Uso de la visión informática con motores de inferencia

  1. Abra el OWCT.
  2. Vaya a la pantalla Eventos de inferencia.
  3. Asegúrese de que el estado del motor de inferencia de destino sea Listo.
  4. Haga clic en el enlace que aparece debajo del nombre del motor de inferencia.

    La ventana Detección de objetos se abrirá en una nueva pestaña.

  5. Haga clic en Cargar.
    Aparecerá la ventana Seleccionar archivo.
  6. Seleccione un archivo.
  7. Haga clic en Cargar.

    Se iniciará el proceso de inferencia de detección de objetos.

  8. Cuando finalice la inferencia, haga clic en Descargar.
    Aparecerá la ventana Seleccionar carpeta.
  9. Seleccione la carpeta en la que quiere guardar el resultado de la inferencia.
  10. Haga clic en Guardar.

Administración de motores de inferencia

Puede ver y administrar los motores de inferencia en la pantalla Eventos de inferencia.

Botón

Descripción

Se inicie el proceso de inferencia.

Se detiene el proceso de inferencia.

Muestra los detalles y el estado de registro del motor de inferencia.

Guarde el motor de inferencia como un archivo de Representación intermedia (IR) para aplicaciones avanzadas.

Elimina el motor de inferencia.

¿Le ha resultado útil este artículo?

El 11% de las personas piensa que ayuda.
Gracias por sus comentarios.

Díganos cómo podemos mejorar este artículo:

Si desea enviarnos más comentarios, inclúyalos a continuación.

Elija especificación

      Mostrar más Mostrar menos

      Este portal en otros países / regiones:

      open menu
      back to top