OpenVINO™ Workflow Consolidation Tool 튜토리얼


최신 업데이트일: 2019-06-05

정보

OpenVINO™ Workflow Consolidation Tool (OWCT)은 훈련된 모델을 Intel® Distribution of OpenVINO™ 툴킷에 의해 가속화된 추론 엔진으로 변환하기 위한 딥 러닝 도구입니다. 추론 엔진을 사용하면 훈련된 모델의 추론 결과를 검증할 수 있습니다.

Intel® Distribution of OpenVINO™ 툴킷은 콘볼류션 신경망(CNN)을 기반으로 합니다. 툴킷은 워크로드를 Intel® 하드웨어 가속기 전체로 확장하여 성능을 극대화합니다.

QTS의 App Center에서 OWCT를 설치할 수 있습니다.
참고:

OWCT를 사용하려면 Container Station이 설치되어 있어야 합니다.


호환성

플랫폼

지원

NAS 모델

  • TVS-x72XT

    참고:

    TVS-x72XT는 하드웨어 가속기로 필드-프로그램 가능 게이트 어레이(FPGA) 카드를 지원하지 않습니다.

  • TVS-x72XU

  • TS-2888X

참고:

Intel 기반 NAS 모델에서만 OpenVINO™ Workflow Consolidation Tool을 지원합니다.

OS

QTS 4.4

Intel® Distribution of OpenVINO™ 툴킷 버전

2018R5

자세한 내용을 보려면 https://software.intel.com/en-us/articles/OpenVINO-RelNotes로 이동하십시오.

하드웨어 가속기

NAS에 설치된 하드웨어 가속기를 사용하여 추론 엔진의 성능을 높일 수 있습니다.

NAS에 설치된 하드웨어 가속기는 화면에 표시됩니다.

상태가확인합니다인 하드웨어 가속기를 추론 엔진을 생성할 때 사용할 수 있습니다.

표시된 상태가설정인 경우,제어판 > 시스템 > 하드웨어 > 그래픽 카드로 이동하여 하드웨어 가속기를 설정합니다.

참고:
  • QNAP NAS에서 필드-프로그램 가능 게이트 어레이(FPGA) 카드를 사용하려면, 가상 머신(VM) 패스스루를 비활성화해야 합니다.

  • 각 FPGA 리소스는 한 개의 추론 엔진을 생성할 수 있습니다.

  • 각 비전 프로세싱 장치(VPU) 리소스는 한 개의 추론 엔진을 생성할 수 있습니다.

추론 엔진 생성

OWCT를 사용하여 추론 엔진을 생성하고 추론 매개변수를 구성합니다.

  1. OWCT를 엽니다.
  2. + OpenVINO™ 엔진을 클릭합니다.

    새 OpenVINO™ 추론 엔진 생성 창이 표시됩니다.

  3. 추론 모델을 선택합니다.
  4. 다음을 클릭합니다.
  5. 추론 모델을 구성합니다.
    표 1. Intel 사전 교육 모델

    필드

    설명

    이름

    2 ~ 50자 사이의 이름을 입력합니다.

    추론 모델

    추론 모델의 유형을 표시합니다.

    추론 유형

    모델에 대한 추론 유형을 선택합니다.

    Intel® 사전 교육 모델 파일

    사전 교육 모델 파일을 선택합니다.

    팁:

    선택한 모델에 대한 정보를 보려면 가이드를 클릭합니다.

    원본 유형

    추론 엔진에 업로드할 원본 파일의 유형을 선택합니다.

    가속기/정확도

    추론 시간과 정확도에 영향을 미치는 하드웨어 가속기 및 정밀도 비율을 선택합니다.

    표 2. 사용자 지정 모델

    필드

    설명

    이름

    2 ~ 50자 사이의 이름을 입력합니다.

    추론 모델

    추론 모델의 유형을 표시합니다.

    추론 유형

    모델에 대한 추론 유형을 선택합니다.

    원본 유형

    추론 엔진에 업로드할 원본 파일의 유형을 선택합니다.

    가속기

    추론 엔진에서 다른 장치를 사용 중일 때 처리 속도를 결정하는 하드웨어 가속기를 선택합니다.

    정밀도

    추론 시간과 정밀도를 결정하는 정밀도 비율을 선택합니다.

    비트스트림(FPGA만)

    FPGA 장치에 대한 컴퓨팅 파일을 선택합니다.

    프레임워크

    추론 모델의 프레임워크를 선택합니다.

    참고:

    OWCT는 현재 Tensorflow 및 Caffe를 지원합니다.

    모델 파일

    추론 모델의 모델 파일을 선택합니다.

    프레임워크에 따라 특정 파일 유형을 업로드해야 합니다:
    • Tensorflow: .pf, .config

    • Caffe: .caffemodel, .prototxt

    레이블 파일(선택 사항)

    추론 동안 감지된 모든 개체가 표시됩니다.

    인수(선택 사항)

    추론 엔진에 인수를 추가합니다.

  6. 다음을 클릭합니다.
  7. 요약을 검토합니다.
  8. 생성을 클릭합니다.

OWCT가 추론 엔진을 생성하고 추론 이벤트 화면에 표시합니다.

추론 엔진이 있는 컴퓨터 비전 사용

  1. OWCT를 엽니다.
  2. 추론 이벤트 화면으로 이동합니다.
  3. 대상 추론 엔진 상태가 준비됨인지확인합니다.
  4. 추론 엔진 이름 아래에서 링크를 클릭합니다.

    개체 감지 창이 새 탭에서 열립니다.

  5. 업로드를 클릭합니다.
    파일 선택 창이 나타납니다.
  6. 파일을 선택합니다.
  7. 업로드를 클릭합니다.

    개체 감지 추론 프로세스가 시작됩니다.

  8. 추론이 끝나면 다운로드를 클릭합니다.
    폴더 선택 창이 나타납니다.
  9. 추론 결과를 저장할 폴더를 선택합니다.
  10. 저장을 클릭합니다.

추론 엔진 관리

추론 이벤트 화면에서 추론 엔진을 보고 관리할 수 있습니다.

버튼

설명

추론 프로세스를 시작합니다.

추론 프로세스를 중지합니다.

추론 엔진의 상세 정보와 로그 상태를 표시합니다.

고급 애플리케이션을 위해 추론 엔진을 IR(Intermediate Representation) 파일로 저장합니다.

추론 엔진을 삭제합니다.

이 기사가 도움이 되었습니까?

11% 의 사용자들이 도움이 된다고 생각할 것입니다.
피드백을 주셔서 감사드립니다.

이 기사가 어떻게 개선될 수 있을지 말해 주십시오.

추가 피드백을 제공하려면 아래에 포함하십시오.

사양 선택

      더 보기 적게 보기

      다른 국가/지역 사이트:

      open menu
      back to top