Samouczek do narzędzia OpenVINO™ Workflow Consolidation Tool


Data ostatniej modyfikacji: 2019-06-05

Informacje

Narzędzie OpenVINO™ Workflow Consolidation Tool (OWCT) to narzędzie głębokiego uczenia do konwersji modeli szkoleniowych w silniki inferencji z przyspieszeniem przy użyciu zestawu narzędzi Intel® Distribution of OpenVINO™. Silniki inferencji pozwalają na weryfikację wyników inferencji modeli szkoleniowych.

Zestaw narzędzi Intel® Distribution of OpenVINO™ jest oparty na sieciach CNN (ang. convolutional neural networks). Zestaw narzędzi umożliwia dystrybucję obciążenia pracą na akceleratory osprzętu Intel®, zwiększając maksymalnie wydajność.

Aplikację OWCT można pobrać z App Center w QTS.
Uwaga:

Aby korzystać z OWCT, konieczne jest zainstalowanie aplikacji Container Station.


Kompatybilność

Platforma

Pomoc techniczna

Modele serwera NAS

  • TVS-x72XT

    Uwaga:

    Model TVS-x72XT nie obsługuje kart FPGA (ang. field-programmable gate array) w roli akceleratorów sprzętowych.

  • TVS-x72XU

  • TS-2888X

Uwaga:

Tylko modele NAS oparte na Intel obsługują narzędzie OpenVINO™ Workflow Consolidation Tool.

System operacyjny

QTS 4.4

Zestaw narzędzi Intel® Distribution of OpenVINO™

2018R5

Szczegółowe informacje można znaleźć na stronie https://software.intel.com/en-us/articles/OpenVINO-RelNotes.

Akceleratory sprzętowe

Można użyć akceleratorów sprzętowych zainstalowanych na posiadanym serwerze NAS, w celu zwiększenia wydajności posiadanych silników inferencji.

Akceleratory sprzętowe zainstalowane na serwerze NAS są wyświetlane na ekranie głównym.

Akceleratory sprzętowe ze stanemGotoweMożna używać podczas tworzenia silników inferencji.

Jeśli wyświetlany stan to Ustawienia, przejdź do obszaru Panel sterowania > System > Osprzęt > Karta graficzna, aby skonfigurować akcelerator sprzętowy.

Uwaga:
  • Aby korzystać z kart FPGA (ang. field-programmable gate array) na serwerze QNAP NAS, należy wyłączyć funkcję Passthrough wirtualnej maszyny (VM).

  • Każdy zasób FPGA może utworzyć jeden silnik inferencji.

  • Każdy zasób VPU (ang. vision processing unit) może utworzyć jeden silnik inferencji.

Tworzenie silników inferencji

Przy użyciu OWCT można tworzyć silniki inferencji oraz konfigurować parametry inferencji.

  1. Otwórz OWCT.
  2. Kliknij Silnik + OpenVINO™.

    Zostanie wyświetlone okno Utwórz nowy silnik inferencji OpenVINO™.

  3. Wybierz model inferencji.
  4. Kliknij przycisk Dalej.
  5. Skonfiguruj model inferencji.
    Tabela 1. Model Intel z wcześniejszych szkoleń

    Pole

    Opis

    Nazwa

    Wprowadź nazwę o długości od 2 do 50 znaków.

    Model inferencji

    Wyświetla typ modelu inferencji.

    Typ inferencji

    Wybierz typ inferencji dla danego modelu.

    Plik modelu Intel® z wcześniejszych szkoleń

    Wybierz plik modelu z wcześniejszych szkoleń.

    Porada:

    Kliknij Podręcznik, aby wyświetlić informacje o wybranym modelu.

    Typ źródła

    Wybierz typu pliku źródłowego, który chcesz przesłać do silnika inferencji.

    Akcelerator/Precyzja

    Wybierz akcelerator sprzętowy i stopień precyzji, które będą miały wpływ na czas trwania i dokładność inferencji.

    Tabela 2. Personalizuj model

    Pole

    Opis

    Nazwa

    Wprowadź nazwę o długości od 2 do 50 znaków.

    Model inferencji

    Wyświetla typ modelu inferencji.

    Typ inferencji

    Wybierz typ inferencji dla danego modelu.

    Typ źródła

    Wybierz typu pliku źródłowego, który chcesz przesłać do silnika inferencji.

    Akcelerator

    Wybierz akcelerator sprzętowy, który określi prędkość przetwarzania w przypadku, kiedy silnik inferencji korzysta z innego urządzenia.

    Precyzja

    Wybierz stopień precyzji, która pozwoli określić czas trwania i dokładność inferencji.

    Strumień bitowy (tylko FPGA)

    Wybierz plik obliczeniowy dla urządzenia FPGA.

    Rama

    Wybierz ramę dla danego modelu inferencji.

    Uwaga:

    OWCT aktualnie obsługuje Tensorflow i Caffe.

    Pliki modelu

    Wybierz pliki modelu dla danego modelu inferencji.

    W zależności od ramy, niektóre typy plików wymagają przesyłania.
    • Tensorflow: .pf, .config

    • Caffe: .caffemodel, .prototxt

    Plik etykiety (opcjonalny)

    Wszystkie wykryte obiekty zostaną wyświetlone podczas inferencji.

    Argumenty (opcjonalne)

    Dodaj argumenty do silnika inferencji.

  6. Kliknij przycisk Dalej.
  7. Sprawdź podsumowanie.
  8. Kliknij polecenie Utwórz.

OWCT tworzy silnik inferencji i wyświetla go na ekranie Zdarzenia inferencji.

Korzystanie z wizji komputerowej przy użyciu silników inferencji

  1. Otwórz OWCT.
  2. Przejdź do ekranu Zdarzenia inferencji.
  3. Upewnij się, że stan docelowego silnika inferencji toGotowe.
  4. Kliknij łące pod nazwą silnika inferencji.

    W nowej karcie zostanie otwarte okno Wykrycie obiektu.

  5. Kliknij polecenie Prześlij.
    Zostanie wyświetlone okno Wybierz plik.
  6. Wybierz plik.
  7. Kliknij polecenie Prześlij.

    Zostanie uruchomiony proces inferencji wykrywania obrazu.

  8. Po zakończeniu inferencji kliknij polecenie Pobierz.
    Zostanie wyświetlone okno Wybierz folder.
  9. Wybierz folder, w którym chcesz zapisać wynik inferencji.
  10. Kliknij polecenie Zapisz.

Zarządzanie silnikami inferencji

Możesz wyświetlić i zarządzać silnikami inferencji na ekranie Zdarzenia inferencji.

Przycisk

Opis

Uruchamia proces inferencji.

Zatrzymuje proces inferencji.

Wyświetla szczegółowe informacje i stan logowania silnika inferencji.

Zapisz silnik inferencji jako plik Intermediate Representation (IR) do zaawansowanych zastosowań.

Usuwa silnik inferencji.

Czy artykuł ten był przydatny?

11% ludzi uważa, że to pomaga.
Dziękujemy za przekazanie opinii.

Poinformuj nas proszę, w jaki sposób możemy ulepszyć ten artykuł:

Bardziej szczegółowe opinie można wpisać poniżej.

Wybierz specyfikację

      Więcej Mniej

      Ta strona dostępna jest w też krajach/regionach:

      open menu
      back to top