Tutoriel pour l’Outil de consolidation du flux de travail OpenVINO™


Date de la dernière modification : 2019-06-05

À propos

L’outil de consolidation du flux de travail OpenVINO™ (OWCT) est un outil d’apprentissage approfondi destiné à convertir les modèles formés en service de déduction accéléré par la distribution Intel® du kit d’outils OpenVINO™. Les moteurs d’inférence vous permettent de vérifier les résultats d’inférence des modèles formés.

La distribution Intel® du kit d’outils OpenVINO™ se base sur les réseaux de neurones convolutifs (CNN). Le kit d’outils augmente les charges de travail sur les accélérateurs matériels Intel® afin de maximiser les performances.

Vous pouvez installer l’OWCT depuis l’App Center dans QTS.
Remarque :

Container Station doit être installé pour utiliser l’OWCT.


Compatibilité

Plateforme

Assistance

Modèles de NAS

  • TVS-x72XT

    Remarque :

    Le TVS-x72XT ne prend pas en charge les cartes de réseau de portes programmables (FPGA) en tant qu’accélérateurs matériels.

  • TVS-x72XU

  • TS-2888X

Remarque :

Seuls les modèles de NAS sous Intel prennent en charge l’Outil de consolidation du flux de travail OpenVINO™.

Système d'exploitation

QTS 4.4

Distribution Intel® de la version du kit d’outils OpenVINO™

2018R5

Pour des détails, rendez-vous sur https://software.intel.com/en-us/articles/OpenVINO-RelNotes.

Accélérateurs matériels

Vous pouvez installer les accélérateurs matériels installés dans votre NAS afin d’améliorer les performances de vos moteurs d’inférence.

Les accélérateurs matériels installés dans le NAS sont affichés à l’écran Home.

Les accélérateurs matériels avec le statut Prêt peuvent être utilisés lors de la création de moteurs d’inférence.

Si le statut affiché est Paramètres, allez dans Panneau de configuration > Système > Matériel > Carte graphique afin de configurer l’accélérateur matériel.

Remarque :
  • Pour utiliser les cartes de réseau de portes programmables (FPGA) sur un NAS QNAP, vous devez désactiver le passthrough des machines virtuelles (VM).

  • Chaque ressource FPGA peut créer un moteur d’inférence.

  • Chaque ressource de processeur de réalité virtuelle (VPU) peut créer un moteur d’inférence.

Créer des moteurs d’inférence

Utilisez l’OWCT pour créer des moteurs d’inférence et pour configurer les paramètres d’inférence.

  1. Ouvrez l’OWCT.
  2. Cliquez sur + Moteur OpenVINO™.

    La fenêtre Créer un nouveau moteur d’inférence OpenVINO™ apparaît.

  3. Sélectionnez un modèle d’inférence.
  4. Cliquez sur Suivant.
  5. Configurez le modèle d’inférence.
    Tableau 1. Modèle préformé Intel

    Champ

    Description

    Nom

    Entrez un nom de 2 à 50 caractères.

    Modèle d’inférence

    Affiche le type de modèle d’inférence.

    Type d’inférence

    Sélectionnez le type d’inférence pour votre modèle.

    Fichier de modèle préformé Intel®

    Sélectionnez un fichier de modèle préformé.

    Conseil :

    Cliquez sur Guide pour afficher les informations sur le modèle sélectionné.

    Type de source

    Sélectionnez le type de fichier source à transférer vers le moteur d’inférence.

    Accélérateur/Précision

    Sélectionnez l’accélérateur matériel et le taux de précision qui vont affecter la durée et la précision de l’inférence.

    Tableau 2. Modèle personnalisé

    Champ

    Description

    Nom

    Entrez un nom de 2 à 50 caractères.

    Modèle d’inférence

    Affiche le type de modèle d’inférence.

    Type d’inférence

    Sélectionnez le type d’inférence pour votre modèle.

    Type de source

    Sélectionnez le type de fichier source à transférer vers le moteur d’inférence.

    Accélérateur

    Sélectionnez l’accélérateur matériel qui va déterminer la vitesse de traitement si le moteur d’inférence utilise un appareil différent.

    Précision

    Sélectionnez le taux de précision qui va déterminer la durée et la précision de l’inférence.

    Bitstream (FPGA uniquement)

    Sélectionnez un fichier informatique pour un appareil FPGA.

    Infrastructure

    Sélectionnez l’infrastructure pour votre modèle d’inférence.

    Remarque :

    Actuellement, l’OWCT prend en charge TensorFlow et Caffe.

    Fichiers modèles

    Sélectionnez les fichiers modèles pour votre modèle d’inférence.

    Certains types de fichiers devraient être transférés en fonction de l’infrastructure :
    • TensorFlow : .pf, .config

    • Caffe : .caffemodel, .prototxt

    Fichier étiquette (facultatif)

    Tous les objets détectés apparaîtront au cours de l’inférence.

    Arguments (facultatif)

    Ajoutez des arguments à votre moteur d’inférence.

  6. Cliquez sur Suivant.
  7. Vérifiez le résumé.
  8. Cliquez sur Créer.

L’OWCT crée le moteur d’inférence et l’affiche à l’écran des Événements d’inférence.

Utiliser la vision par ordinateur avec les moteurs d’inférence

  1. Ouvrez l’OWCT.
  2. Allez sur l’écran Événements d’inférence.
  3. Assurez-vous que le statut du moteur d’inférence cible soit sur Prêt.
  4. Cliquez sur le lien sous le nom du moteur d’inférence.

    La fenêtre Détection d’objets s’ouvre dans un nouvel onglet.

  5. Cliquez sur Transférer.
    La fenêtre Sélectionner un fichier apparaît.
  6. Sélectionner un fichier.
  7. Cliquez sur Transférer.

    Le processus d’inférence de détection des objets démarre.

  8. Une fois l’inférence terminée, cliquez sur Télécharger.
    La fenêtre Sélectionner un dossier apparaît.
  9. Sélectionnez le dossier dans lequel vous souhaitez enregistrer le résultat de l’inférence.
  10. Cliquez sur Enregistrer.

Gérer les moteurs d’inférence

Vous pouvez afficher et gérer les moteurs d’inférence à l’écran Événements d’inférence.

Bouton

Description

Démarre le processus d’inférence.

Arrête le processus d’inférence.

Affiche les détails et le statut des journaux du moteur d’inférence.

Enregistre le moteur d’inférence en tant que fichier de Représentation intermédiaire (IR) pour des applications avancées.

Supprime le moteur d'inférence.

Est-ce que cet article a été utile ?

11% des utilisateurs pensent que ces informations sont utiles.
Merci pour votre commentaire.

Veuillez nous indiquer comment améliorer cet article :

Si vous souhaitez fournir un commentaire supplémentaire, veuillez l’inclure ci-dessous.

Choisissez une spécification

      En voir davantage Moins

      Ce site est disponible dans d'autres pays/régions :

      open menu
      back to top