Mustang-V100 (VPU) Intel® Vision Accelerator Design พร้อม Intel® Movidius™ VPU
เมื่อ QNAP NAS พัฒนาเพื่อรองรับแอปพลิเคชันที่หลากหลายมากขึ้น (รวมถึงการเฝ้าระวัง การจำลองเสมือน และ AI) คุณไม่เพียงแค่ต้องการพื้นที่จัดเก็บข้อมูลเพิ่มเติมใน NAS ของคุณ แต่ยังต้องการให้ NAS มีพลังมากขึ้นเพื่อปรับปรุงงานที่ต้องการเฉพาะเจาะจง Mustang-V100 เป็นการ์ดเร่งความเร็วแบบ PCIe ที่ใช้ Intel® Movidius™ VPU ซึ่งรองรับงานที่ต้องการสูงของแอปพลิเคชันการมองเห็นด้วยคอมพิวเตอร์และ AI สมัยใหม่ สามารถติดตั้งในพีซีหรือ QNAP NAS ที่รองรับเพื่อเพิ่มประสิทธิภาพ เป็นตัวเลือกที่สมบูรณ์แบบสำหรับงาน AI deep learning inference >> ความแตกต่างระหว่าง Mustang-F100 และ Mustang-V100
- ขนาดกะทัดรัดแบบครึ่งความสูง ครึ่งความยาว และสล็อตเดียว
- การใช้พลังงานต่ำ ประมาณ 2.5W ต่อ Intel® Movidius™ Myriad™ X VPU แต่ละตัว
- รองรับ OpenVINO™ toolkit อุปกรณ์พร้อมสำหรับการประมวลผล AI edge
- Intel® Movidius™ Myriad™ X VPU แปดตัวสามารถดำเนินการ topology แปดรายการพร้อมกัน
OpenVINO™ toolkit
OpenVINO™ toolkit พัฒนาขึ้นบนพื้นฐานของ convolutional neural networks (CNN) โดย toolkit นี้ช่วยเพิ่มประสิทธิภาพการทำงานบนฮาร์ดแวร์ของ Intel® และเพิ่มประสิทธิภาพสูงสุด
สามารถปรับแต่งโมเดล deep learning ที่ผ่านการฝึกฝนมาแล้ว เช่น Caffe, MXNET, Tensorflow ให้เป็นไฟล์ไบนารี IR และดำเนินการ inference engine บนฮาร์ดแวร์ของ Intel® อย่างหลากหลาย เช่น CPU, GPU, Intel® Movidius™ Neural Compute Stick และ FPGA
เพิ่มความเร็วในการประมวลผล deep learning บนเซิร์ฟเวอร์/PC ที่ใช้ Intel
คุณสามารถใส่ Mustang-V100 ลงใน PC/workstation ที่ใช้ระบบปฏิบัติการ Linux® (Ubuntu®) เพื่อเพิ่มความเร็วในการประมวลผลสำหรับการใช้งานที่ต้องการประสิทธิภาพสูงสุด เช่น deep learning inference, video streaming และ data center ในฐานะโซลูชันการเร่งความเร็วที่เหมาะสมสำหรับการประมวลผล AI แบบเรียลไทม์ Mustang-V100 ยังสามารถทำงานร่วมกับ Intel® OpenVINO™ toolkit เพื่อปรับแต่งการทำงาน inference สำหรับการจำแนกภาพและ computer vision
- ระบบปฏิบัติการ
Ubuntu 16.04.3 LTS 64-bit, CentOS 7.4 64-bit, Windows 10 (ระบบปฏิบัติการเพิ่มเติมกำลังจะมาเร็ว ๆ นี้) - OpenVINO™ Toolkit
- Intel® Deep Learning Deployment Toolkit
- - Model Optimizer
- - Inference Engine
- ไลบรารี computer vision ที่ปรับแต่งแล้ว
- Intel® Media SDK
*OpenCL™ ไดรเวอร์กราฟิกและรันไทม์ - Topology ที่รองรับในปัจจุบัน: AlexNet, GoogleNet V1, Yolo Tiny V1 & V2, Yolo V2, SSD300, ResNet-18, Faster-RCNN (ตัวเลือกเพิ่มเติมกำลังจะมาเร็ว ๆ นี้)
- Intel® Deep Learning Deployment Toolkit
- ความยืดหยุ่นสูง Mustang-V100-MX8 พัฒนาบนโครงสร้าง OpenVINO™ toolkit ซึ่งช่วยให้ข้อมูลที่ผ่านการฝึกฝน เช่น Caffe, TensorFlow และ MXNet สามารถดำเนินการบนมันได้หลังจากแปลงเป็น IR ที่ปรับแต่งแล้ว
*OpenCL™ เป็นเครื่องหมายการค้าของ Apple Inc. ที่ได้รับอนุญาตจาก Khronos
QNAP NAS เป็นเซิร์ฟเวอร์การอนุมาน
OpenVINO™ toolkit ขยายการทำงานข้ามฮาร์ดแวร์ของ Intel® (รวมถึงตัวเร่งความเร็ว) และเพิ่มประสิทธิภาพสูงสุด เมื่อใช้ร่วมกับเครื่องมือ OpenVINO™ Workflow Consolidation Tool ของ QNAP NAS ที่ใช้ Intel® จะเป็นเซิร์ฟเวอร์การอนุมานที่เหมาะสม ช่วยให้องค์กรสร้างระบบการอนุมานได้อย่างรวดเร็ว โดยมีตัวปรับแต่งโมเดลและเครื่องมืออนุมาน OpenVINO™ toolkit ใช้งานง่ายและยืดหยุ่นสำหรับการมองเห็นด้วยคอมพิวเตอร์ที่มีประสิทธิภาพสูงและความหน่วงต่ำ ซึ่งช่วยปรับปรุงการอนุมานการเรียนรู้เชิงลึก นักพัฒนา AI สามารถปรับใช้โมเดลที่ผ่านการฝึกอบรมบน QNAP NAS เพื่อการอนุมาน และติดตั้ง Mustang-V100 เพื่อให้ได้ประสิทธิภาพสูงสุดในการรันการอนุมาน
เรียนรู้เพิ่มเติม: เครื่องมือ OpenVINO™ Workflow Consolidation
หมายเหตุ:
1. ต้องใช้ QTS 4.4.0~4.4.3 และ OWCT v1.1.0 สำหรับ QNAP NAS
2. ตรวจสอบรายการความเข้ากันได้สำหรับรุ่นที่รองรับ
3. ต้องติดตั้ง “Mustang Card User Driver” สำหรับ Mustang-V100-R10 ใน QTS App Center Mustang-V100-R11 (หรือใหม่กว่า) ไม่รองรับ
เครื่องมืออนุมานที่จัดการง่ายด้วย QNAP OWCT
แอปพลิเคชัน
ขนาด

หมายเหตุ:
รองรับการใช้งานได้สูงสุด 16 การ์ดกับระบบปฏิบัติการอื่นที่ไม่ใช่ QTS; QNAP TS-2888X NAS รองรับการใช้งานได้สูงสุด 8 การ์ด โปรดกำหนดหมายเลข ID การ์ด (ตั้งแต่ 0 ถึง 15) ให้กับ Mustang-V100 โดยใช้สวิตช์หมุนด้วยตนเอง หมายเลข ID การ์ดที่กำหนดไว้จะแสดงบนหน้าจอ LED ของการ์ดหลังจากเปิดเครื่อง
ต้องการความช่วยเหลือหรือไม่?
ติดต่อเราตอนนี้เพื่อรับคำแนะนำเกี่ยวกับผลิตภัณฑ์หรือโซลูชันเพิ่มเติมที่ตรงกับความต้องการและข้อกำหนดของคุณ!