OpenVINO™ワークフロー統合ツールチュートリアル


最終更新日: 2019-06-05

情報

OpenVINO™ワークフロー統合ツール(OWCT)は、Intel® Distribution of OpenVINO™ツールキットで加速した推論エンジンに、訓練を施したモデルを変換するためのディープラーニングツールです。推論エンジンでは、トレーニングを施したモデルの推論結果を検証することができます。

Intel® Distribution of OpenVINO™ツールキットは、畳み込みニューラルネットワーク(CNN)に基づいています。このツールキットは、Intel®ハードウェアアクセラレーターを拡張し、パフォーマンスを最大化します。

OWCTは、QTSのApp Centerからインストールできます。
注意:

OWCTを使用するには、Container Stationをイントールする必要があります。


互換性

プラットフォーム

サポート

NAS モデル

  • TVS-x72XT

    注意:

    TVS-x72XTは、ハードウェアアクセラレーターとしてのフィールドプログラマブルゲートウェイアレイ(FPGA)カードに対応していません。

  • TVS-x72XU

  • TS-2888X

注意:

IntelベースのNASモデルのみがOpenVINO™ワークフロー統合ツールに対応しています。

OS

QTS 4.4

Intel® Distribution of OpenVINO™ツールキットバージョン

2018R5

詳細については、https://software.intel.com/en-us/articles/OpenVINO-RelNotesにアクセスしてください。

ハードウェアアクセラレーション

NASにインストールされているハードウェアアクセラレーターを使用することで、推論エンジンのパフォーマンスを向上することができます。

NASにインストールされているハードウェアアクセラレーターは、ホーム画面に表示されます。

ステータスが「準備完了」のハードウェアアクセラレーターはインターフェイスエンジンの作成時に使用できます。

表示されているステータスが「設定」の場合は[コントロールパネル] > [システム] > [ハードウェア] > [グラフィックカード] に移動してハードウェアアクセラレーターのセットアップを行います。

注意:
  • フィールドプログラマブルゲートアレイ(FPGA)カードをQNAP NAS上で使用するには、仮想マシン(VM)パススルーを無効にする必要があります。

  • 各FPGAリソースは、1つの推論エンジンを作成できます。

  • 各ビジョンプロセッシングユニット(VPU)リソースは、1つの推論エンジンを作成できます。

推論エンジンの作成

OWCTを使用して、推論エンジンを作成し、推論パラメーターを設定します。

  1. OWCTを開きます。
  2. [+ OpenVINO™エンジン] をクリックします。

    [新規OpenVINO™推論エンジン] ウィンドウが開きます。

  3. 推論モデルを選択します。
  4. [次へ] をクリックします。
  5. 推論モデルを設定します。
    表1.Intel事前トレーニングモデル

    フィールド

    説明

    名前

    2~50文字で名前を入力します。

    推論モデル

    推論モデルのタイプを表示します。

    推論タイプ

    モデルの推論タイプを選択します。

    Intel®事前トレーニングモデルファイル

    事前トレーニングモデルファイルを選択します。

    ヒント:

    選択したモデルの情報を表示するには、[ガイド] をクリックします。

    ソースタイプ

    ソースタイプを選択して推論エンジンアップロードします。

    アクセラレーター/正確度

    推論の時間と精度に影響を与えるハードウェアと正確度を選択します。

    表2.カスタムモデル

    フィールド

    説明

    名前

    2~50文字で名前を入力します。

    推論モデル

    推論モデルのタイプを表示します。

    推論タイプ

    モデルの推論タイプを選択します。

    ソースタイプ

    ソースタイプを選択して推論エンジンアップロードします。

    アクセラレーター

    推論エンジンが別のデバイスを使用している際のプロセス速度を決めるハードウェアアクセラレーターを選択します。

    正確度

    推論の時間と正確さを決める正確度を選択します。

    ビットストリーム(FPGAのみ)

    FPGAデバイスの計算ファイルを選択します。

    フレームワーク

    推論モデルのフレームワークを選択します。

    注意:

    OWCTは現在、TensorflowとCaffeをサポートしています。

    モデルファイル

    推論モデルのモデルファイルを選択します。

    特定のファイルタイプは、フレームワークによってアップロードする必要があります。
    • Tensorflow:.pf、.config

    • Caffe:.caffemodel、.prototxt

    ラベルファイル(オプション)

    検出されたオブジェクトは推論中に表示されます。

    引数(オプション)

    推論エンジンに引数を追加します。

  6. [次へ] をクリックします。
  7. 概要を確認します。
  8. [作成] をクリックします。

OWCTは推論エンジンを作成し、推論イベントに表示します。

推論エンジンとコンピュータービジョンの使用

  1. OWCTを開きます。
  2. [推論イベント] 画面に移動します。
  3. ターゲット推論エンジンのステータスが「準備完了」のハードウェアアクセラレーターは
  4. 以下の推論エンジン名をクリックしてください。

    [オブジェクト検出] ウィンドウが新しいタブに開きます。

  5. [アップロード] をクリックします。
    [ファイルの選択] ウィンドウが開きます。
  6. ファイルを選択してください。
  7. [アップロード] をクリックします。

    オブジェクト検出推論プロセスが開始されます。

  8. 推論が終了したら、[ダウンロード] をクリックします。
    [フォルダーの選択] ウィンドウが開きます。
  9. 推論結果の保存先フォルダーを選択します。
  10. [保存] をクリックします。

推論エンジンの管理

[インターフェイスイベント] 画面で推論エンジンの表示・管理を行うことができます。

ボタン

説明

推論プロセスを開始します。

推論プロセスを停止します。

推論エンジンの詳細とログステータスを表示します。

高度なアプリケーションのために中間表現(IR)ファイルとして推論エンジンを保存します。

推論エンジンを削除します。

この記事は役に立ちましたか?

11% の人が、これは役に立つと思っています。
ご意見をいただき、ありがとうございます。

この記事の改善箇所をお知らせください。

その他のフィードバックがある場合は、以下に入力してください。

仕様を選択

      もっと見る 閉じる

      当ページを他の国/地域で見る:

      気軽にお問い合わせ! show inquiry button
      open menu
      back to top