QNAP Edge AI 儲存伺服器

一站式 Edge AI 運算平台,整合儲存、虛擬化與運算效能,協助企業高效、安全、具成本效益地部署地端 AI 應用,加速企業智慧轉型。

AI 浪潮下,企業正面臨多重挑戰

隨著 GenAI、LLM 部署與邊緣運算需求快速成長,傳統 IT 架構已面臨以下瓶頸:

  • 雲端資安風險高

    超過 90% 的企業將資料安全視為 AI 部署首要考量,資料上雲存在外洩風險與合規疑慮。

  • 部署成本昂貴

    雲端模型授權、Token 計費、GPU 使用費、儲存空間或虛擬機平台授權等層層堆疊,總體擁有成本(TCO)不斷攀升。

  • 傳統架構分散

    儲存與運算伺服器各自部署,建置與整合費時又費力,維護不易。

  • 效能不穩

    共用基礎架構下,AI 模型與虛擬化應用爭搶系統資源,導致運算延遲、效能不穩。

  • 資料量急遽成長

    AI 與其他數據密集型應用產生龐大資料量,傳統儲存架構難以彈性擴充、亦缺乏資料管理能力。

為什麼選擇 QNAP Edge AI 儲存伺服器

QNAP Edge AI 儲存伺服器提供一站式邊緣運算平台,整合數據儲存、虛擬化平台、GPU 與 I/O 加速技術,以及 CPU 資源管理等功能,協助企業快速部署地端 AI 應用與邊緣裝置。企業可依需求在 QAI 上安裝 QNAP 的 Hypervisor 軟體(Virtualization Station)容器管理平台(Container Station),靈活打造 AI 應用伺服器與邊緣儲存伺服器,實現高效、低延遲的地端 AI 解決方案。

支援多樣化的邊緣 AI 應用,包括:

  • ️小語言模型推論(SLM Inference)
  • 大型語言模型推論(LLM Inference)
  • 生成式 AI(Generative AI)
  • AI 模型推論與微調(AI Inference & Model Fine-tuning)
  • 智慧製造與工業自動化(Smart Manufacturing & Industrial Automation)
  • 智慧零售與客群行為分析(Smart Retail & Customer Analytics)
  • 智慧監控與影像辨識分析(Smart Surveillance & Video Analytics)
支援多樣化的邊緣 AI 應用

強化資料掌握

所有儲存資料與應用皆部署於地端,避免傳輸至公有雲的隱私風險,強化安全性與合規性。

簡化部署與管理

資料儲存、虛擬機(VM)、GPU 資源及各種應用皆運行於單一 QAI,減少跨設備維運成本。

效能即時就緒

透過資源動態分配與硬體加速,優化 VM 執行效率與 AI 服務穩定性。

高成本效益

QNAP 提供免授權的虛擬化平台應用程式,長期有效降低 TCO。

超越傳統架構的技術優勢

QNAP Edge AI 儲存伺服器提供多種系統資源配置、硬體加速技術、資料保護與優化機制,為邊緣運算場域提供理想的地端執行環境。

配置專屬資源

透過 Virtualization Station 靈活配置 CPU、記憶體與網路資源給特定虛擬機,避免多個服務產生資源爭奪,確保關鍵應用穩定運行。

GPU 加速 AI 運算

支援 GPU passthrough(GPU 直通),可將實體 GPU 指派給特定虛擬機,大幅提升 AI 模型推論或圖形運算效能。

SR-IOV 提升網路效能

SR-IOV 優化虛擬機網路資源配置,減少頻寬耗損,提供虛擬機直通網卡通道,降低網路延遲。

PCIe 裝置高效直通

支援 PCIe passthrough,將圖形顯示卡、網卡或儲存控制器等資源直通至特定虛擬機,避免虛擬化損耗,發揮近乎原生的硬體效能。

高擴充性

可擴充 SAS / FC 介面儲存裝置,靈活對應 AI 與虛擬化應用的儲存需求。

企業級資料保護

高可靠 ZFS 儲存,支援 RAID 磁碟陣列、快照、資料不可變性(WORM),以及資料重複刪除與 SSD 優化技術。

精準資源配置,全面釋放虛擬機效能

  • 完善的加速技術
    Passthrough Technology

    將實體 GPU、網路卡或其他 PCIe 裝置資源直通至指定虛擬機 ,減少中介層干擾,帶來更穩定的運算效能與低延遲體驗。

    • GPU passthrough
    • PCIe passthrough
  • 更好的資源分配
    CPU Resource Management

    透過 CPU 資源管理功能(即將支援),可將指定的 CPU 執行序分配給特定虛擬機執行(CPU Isolation),確保虛擬機獨立穩定運作,大幅降低虛擬機與其他應用間的資源爭用與效能波動。

在 QNAP QAI 上,輕鬆部署地端 LLM 運行環境

一機整合虛擬化平台、大型語言模型(LLM)、與直覺化使用者介面。

  • 1部署應用程式容器

    透過 QNAP Container Station 容器管理平台可彈性選擇不同類型的容器執行環境(如:Docker、Kata、LXD 等),靈活部署各類應用程式與服務。

  • 2GPU 加速運算

    設定容器環境中的 GPU 存取權限,讓 container 可直接使用 QAI 上的 GPU 進行 AI 推論或影像處理加速。

  • 3支援部署多款 LLM

    透過 Ollama 可輕鬆部署多種開源大型語言模型(如:LLaMA、DeepSeek、Qwen、Gemma),可依需求彈性切換或更新模型。

  • 4搭配 Web 操作介面

    可安裝開源 Web 操作介面(如:Anything LLM、Open WebUI),讓你不需要撰寫程式即可快速串接語言模型,打造自己的 AI 助理、智慧客服或內部搜尋工具。

也可以,配置虛擬機備份伺服器

QNAP QAI 一機即是虛擬化主機,也是備份伺服器。

  • 1執行多個虛擬機(VM)

    Virtualization Station 是 QNAP QuTS hero 上的 Hypervisor 軟體,可同時於一台 QAI 上部署多個 Windows® 或 Linux® 虛擬機。

  • 2支援 VM 備份

    將 Veeam® 備份軟體安裝於 QNAP QAI 上的獨立虛擬機,並將 QAI 設定為備份目標,即可將各種工作負載(如虛擬機、實體主機、NAS、雲端服務等)的備份資料集中儲存與管理。

  • 3CPU 資源管理

    VM 備份過程需要大量 CPU 運算資源,透過 Virtualization Station 介面高效分配 CPU 資源,確保備份過程穩定執行。

多元應用,滿足各種業務需求

  • 企業 AI 搜尋知識庫

    企業 AI 搜尋知識庫

    結合 NAS、LLM 與 RAG 技術,打造專屬的企業 AI 知識搜尋系統,提升資料檢索、分析與應用效率。

  • AI 智能客服系統

    AI 智能客服系統

    智能客服系統導入 LLM,強化聊天室自動問答能力,提升回應速度、準確度與用戶互動體驗。

  • 虛擬化應用伺服器

    虛擬化應用伺服器

    部署多台 VM,執行企業內部 AI 開發或測試環境。

  • 虛擬機備份與資料保護

    虛擬機備份與資料保護

    整合 Veeam® 備份解決方案,強化 VM 資料安全性。

  • AI 數據儲存與備份

    AI 數據儲存與備份

    儲存 AI 原始數據 (Raw Data),或作為 RAG 架構中頻繁資料讀寫的高速儲存伺服器。

推薦機種

專為邊緣 AI 部署打造的 QNAP AI 系列 NAS,搭配一張 NVIDIA RTX 6000 或 RTX 4000 Ada Generation 顯示卡,強效驅動 AI 推論、高畫質影像處理與虛擬化應用,加速邊緣智慧進化!

QAI-h1290FX

  • 12-bay U.2 NVMe / SATA 全快閃 NAS
  • 搭載 AMD EPYC™ 7302P 16 核心 / 32 執行續處理器
  • 內建 128GB DDR4 ECC RDIMM 記憶體
  • 預載 6 個 3.84TB U.2 NVMe SSD
  • 提供預載 NVIDIA RTX 6000 Ada 或 RTX 4000 Ada 顯示卡的選項
  • 提供 QAI 專屬功能,包括 Container Station 內建精選開源 AI 應用程式模板,可快速部署
QAI-h1290FX

需要協助?

QNAP 專業團隊隨時提供協助,為您量身打造 Edge AI 儲存伺服器。

選擇規格

      顯示更多 隱藏更多

      選擇其他偏好的語言:

      open menu
      back to top