OpenVINO™ Workflow Consolidation Tool 使用教學


最後修訂日期: 2019-06-05

關於

OpenVINO™ Workflow Consolidation Tool (OWCT) 是一款深度學習應用工具,可將訓練完成的模型轉換為採用 Intel® Distribution of OpenVINO™ Toolkit 技術加速運行的推論引擎。 推論引擎可讓您針對訓練完成之模型驗證推論結果。

Intel® Distribution of OpenVINO™ Toolkit 的運作原理是卷積神經網路 (CNN)。 此工具組透過 Intel® 硬體加速器擴充工作負載,藉此發揮最大效能。

您可以前往 QTS 的 App Center 安裝 OWCT 。
注意:

必須安裝 Container Station 才能使用 OWCT。


相容性列表

平台

支援

NAS 型號

  • TVS-x72XT

    注意:

    TVS-x72XT 不支援現場可程式邏輯閘陣列 (FPGA) 卡作為硬體加速器。

  • TVS-x72XU

  • TS-2888X

注意:

只有 Intel 型的 NAS 裝置才支援 OpenVINO™ Workflow Consolidation Tool。

作業系統

QTS 4.4

Intel® Distribution of OpenVINO™ Toolkit 版本

2018R5

如需詳細資訊,請前往 https://software.intel.com/en-us/articles/OpenVINO-RelNotes

硬體加速器

您可以使用安裝在 NAS 的硬體加速器來提升推論引擎的效能。

安裝在 NAS 的硬體加速器會顯示於〔首頁〕畫面。

若硬體加速器的狀態為 〔就緒〕 ,該硬體加速器就可用於建立推論引擎。

如果顯示的狀態為 〔設定〕,請前往〔控制台〕>〔系統〕>〔硬體〕>〔顯示卡〕設定硬體加速器。

注意:
  • 若要在 QNAP NAS 使用現場可程式邏輯閘陣列 (FPGA) 卡,必須先啟用虛擬機 (VM) pass-through 功能。

  • 每個 FPGA 資源可以建立一個推論引擎。

  • 每個視覺處理器 (VPU) 資源可以建立一個推論引擎。

建立推論引擎

使用 OWCT 建立推論引擎並設定推論參數。

  1. 開啟 OWCT。
  2. 點擊〔+ OpenVINO™ 引擎〕

    〔建立新的 OpenVINO™ 推論引擎〕視窗隨即開啟。

  3. 選擇一個推論模型。
  4. 點擊〔下一步〕
  5. 設定推論模型。
    表 1. Intel 預先訓練模型

    欄位

    描述

    名稱

    輸入長度介於 2 到 50 個字元的名稱。

    推論模型

    顯示推論模型的類型。

    推論類型

    選擇模型的推論類型。

    Intel® 預先訓練模型檔案

    選擇一個預先訓練模型檔案。

    提示:

    點擊〔指南〕查看所選模型的相關資訊。

    來源類型

    選擇要上傳至推論引擎的來源檔案類型。

    加速器/精確率

    選擇影響推論時間長度和準確度的硬體加速器和精確率。

    表 2. 自訂模型

    欄位

    描述

    名稱

    輸入長度介於 2 到 50 個字元的名稱。

    推論模型

    顯示推論模型的類型。

    推論類型

    選擇模型的推論類型。

    來源類型

    選擇要上傳至推論引擎的來源檔案類型。

    加速器

    選擇推論引擎使用不同裝置時決定處理速度的硬體加速器。

    精確率

    選擇決定推論時間長度和準確度的精確率。

    位元流(僅 FPGA 適用)

    選擇 FPGA 裝置的運算檔案。

    架構

    選擇推論模型的架構。

    注意:

    OWCT 目前支援 Tensorflow 與 Caffe。

    模型檔案

    選擇推論模型的模型檔案。

    應依據架構上傳特定檔案類型:
    • Tensorflow: .pf、.config

    • Caffe: .caffemodel、.prototxt

    標籤檔案(選用)

    所有偵測到的物件將於推論期間出現。

    引數(選用)

    在您的推論引擎加入引數。

  6. 點擊〔下一步〕
  7. 檢視摘要。
  8. 點擊〔建立〕

OWCT 隨即建立推論引擎並顯示在〔推論事件〕畫面。

透過推論引擎運用電腦視覺

  1. 開啟 OWCT。
  2. 前往〔推論事件〕畫面。
  3. 確定目標推論引擎的狀態為 〔就緒〕
  4. 點擊推論引擎名稱下方的連結。

    〔物件偵測〕視窗隨即在新頁籤中開啟。

  5. 點擊〔上傳〕
    〔選擇檔案〕視窗隨即開啟。
  6. 選擇一個檔案。
  7. 點擊〔上傳〕

    物件偵測推論程序隨即啟動。

  8. 推論完成時,請點擊〔下載〕
    〔選擇資料夾〕視窗隨即開啟。
  9. 選擇儲存推論結果的資料夾。
  10. 點擊〔儲存〕

管理推論引擎

您可以在〔推論事件〕畫面中檢視和管理推論引擎。

按鈕

描述

啟動推論程序。

停止推論程序。

顯示推論引擎的詳細資料和記錄狀態。

將推論引擎儲存為中間語言 (IR) 檔案,以供進階應用程式使用。

刪除推論引擎。

這篇文章有幫助嗎?

11% 的人認為有幫助。
謝謝您,我們已經收到您的意見。

請告訴我們如何改進這篇文章:

如果您想提供其他意見,請於下方輸入。

選擇規格

      顯示更多 隱藏更多

      選擇其他偏好的語言:

      back to top