OpenVINO™ Workflow Consolidation Tool

Przyspieszanie, usprawnianie i weryfikowanie inferencji głębokiego uczenia

Narzędzie OpenVINO™ Workflow Consolidation Tool (OWCT) (dostępne do pobrania w QTS App Center) to narzędzie głębokiego uczenia, służące do konwertowania modeli szkoleniowych w usługę inferencji, co przyspiesza zestaw Intel® Distribution of OpenVINO™ Toolkit (Open Visual Inference and Neural Network Optimization), usprawniając ekonomiczną dystrybucję rozwiązań w zakresie komputerowej technologii wizyjnej, korzystających ze sztucznej inteligencji.

Firma QNAP udostępnia narzędzie do konsolidacji przepływu pracy, OpenVINO™ Workflow Consolidation Tool, wyposażające serwer QNAP NAS w funkcje pozwalające na korzystanie z niego jako z serwera inferencji.

Szkolenie i inferencja

„Szkolenie” ma miejsce wtedy, kiedy system uczy się w oparciu o istniejące dane. „Inferencja” następuje w przypadku dokonywania praktycznych prognoz przy użyciu nauczonego modelu i danych rzeczywistych.

Intel® Distribution of OpenVINO™ Toolkit

Zestaw narzędzi OpenVINO™ umożliwia szybki rozwój wysokowydajnego widzenia komputerowego i głębokiego uczenia na potrzeby zastosowań tej technologii. Zestaw ten umożliwia korzystanie z głębokiego uczenia na akceleratorach sprzętowych i łatwego uruchamiania w heterogenicznym środowisku na platformach Intel®, w tym CPU, GPU, FPGA i VPU. Główne komponenty to:

  • Zestaw narzędzi do wdrażania funkcji głębokiego uczenia Intel® Deep Learning Deployment Toolkit (oprogramowanie do optymalizacji modelu i silnik inferencji)
  • Zoptymalizowane funkcje dla OpenCV* i OpenVX*
  • Zestaw zapewnia ponad 15 kodów przykładowych i modeli wstępnie nauczone modele, umożliwiając łatwe wdrożenie

Źródło: Intel

Teraz jeszcze szybsza funkcja Inferencji sztucznej inteligencji w zakresie obrazowania komputerowego!

Główne korzyści używania narzędzia OpenVINO™ Workflow Consolidation Tool (OWCT):

  • Większa szybkość
  • Optymalizacja
  • Interfejs graficzny
  • Większa szybkość

    Zestaw narzędzi OpenVINO™ obejmuje bibliotekę typu open-source, która pomaga skrócić czas rozwoju i usprawnić inferencję głębokiego uczenia, oraz wdrożyć rozwiązania w zakresie komputerowej technologii wizyjnej.

  • Optymalizacja

    Oprogramowanie do optymalizacji modelu umożliwia konwertowanie nauczonych modeli w pośrednią reprezentację (IR, Intermediate Representation) i wykonywanie podstawowych optymalizacji w celu uzyskania wydajnej inferencji.

  • Interfejs graficzny

    Narzędzie OWCT korzysta z interfejsu graficznego, który umożliwia użytkownikom łatwe korzystanie z funkcji OpenVINO™, wyświetlanie pomocy wizualnych i pobieranie wyniku inferencji.

Szczegółowo opisana Inferencja przy użyciu narzędzia OWCT

Narzędzie OWCT łączy w sobie wszystkie potrzebne funkcje OpenVINO™, umożliwiające tworzenie Silnika inferencji i przeglądanie wyników inferencji danego modelu. Wystarczy wykonywać instrukcje kreatora aplikacji, aby przeprowadzić konfigurację w zaledwie kilku krokach!

Skorzystanie uprzednio nauczonych modeli możne przyspieszyć programowanie

Oprócz funkcji wyszukiwania lub szkolenia własnych modeli, zestaw narzędzi OpenVINO™ zapewnia także zoptymalizowane uprzednio nauczone modele Intel® w aplikacjach użytkownika, nazywanych Silnikiem inferencji.

  • Korzystaj z uprzednio nauczonych modeli
  • Korzystaj z własnych nauczonych modeli
  • Zestaw narzędzi OpenVINO™ udostępnia dwa zestawy zoptymalizowanych modeli. Modele te można dodać bezpośrednio do swojego środowiska, aby przyspieszyć jego rozwój.

    Uprzednio nauczone modele:

    • Wykrywanie wieku i płci
    • Skrzyżowanie
    • Pozycja głowy
    • Barierki bezpieczeństwa
    • Wykrywanie funkcji pojazdu
    • ...i wiele innych
  • Importuj swoje własne nauczone modele, aby użyć funkcji optymalizacji z narzędzia do optymalizacji modelu oraz z silnika inferencji, dzięki czemu można w łatwy sposób aktywować inferencję dla komputerowego widzenia w bieżących i przyszłych architekturach Intel® w zależności od potrzeb sztucznej inteligencji. Zestaw narzędzi OpenVINO™ współpracuje z uprzednio nauczonymi modelami, korzystającymi z formatów Caffe lub TensorFlow.

QNAP NAS jako serwer inferencji

Zestaw narzędzi OpenVINO™ umożliwia dystrybucję obciążenia pracą na osprzęt Intel® (w tym akceleratory), zwiększając maksymalnie wydajność. W przypadku korzystania z narzędzia OpenVINO™ Workflow Consolidation Tool, urządzenie QNAP NAS oparte na Intel® służy jako idealny serwer inferencji, pozwalając organizacjom na szybkie tworzenie systemu inferencji. Zestaw narzędzi OpenVINO™ zawiera narzędzie do optymalizacji modelu i silnik inferencji, dzięki czemu jest łatwy w obsłudze i zapewnia elastyczność umożliwiającą uzyskanie wysokiej wydajności, niewielkie opóźnienia widzenia komputerowego, ulepszając inferencje głębokiego uczenia. Projektanci sztucznej inteligencji (AI) mogą wdrażać w urządzeniach QNAP NAS nauczone modele w celu uzyskania inferencji i instalować akceleratory sprzętowe w oparciu o platformy Intel®, aby uzyskać optymalną wydajność potrzebną do pracy inferencji.

Łatwy w zarządzaniu silnik inferencji

  • Prześlij plik wideo

  • Pobierz wynik inferencji

Zwiększona wydajność dzięki kartom akceleratorów

Zestaw narzędzi OpenVINO™ obsługuje heterogeniczne uruchamianie w akceleratorach widzenia komputerowego (CPU, GPU, FPGA i VPU), korzystając z popularnego interfejsu API do optymalizacji dla danego urządzenia.

  • AkceleratorFPGA

    Mustang-F100-A10

    • Intel® Arria® 10 GX 1150 FPGA
    • PCIe 3.0 x8
    • Niski profil, dwukrotnie mniejszy rozmiar, podwójne gniazda
  • AkceleratorVPU

    Mustang-V100-MX8

    • Rozwiązanie Intel® Movidius™
    • 8x Myriad™ X VPU
    • PCIe 2.0 x4
    • Niski profil, dwukrotnie mniejszy rozmiar, pojedyncze gniazdo

OpenVINO i logo OpenVINO są znakami towarowymi firmy Intel Corporation lub jej spółek zależnych w Stanach Zjednoczonych lub innych krajach.

Wybierz specyfikację

      Więcej Mniej

      Ta strona dostępna jest w też krajach/regionach:

      open menu
      back to top