【重要資安警示】發現冒充 Qfinder Pro 的非官方網站,了解詳情 >

QNAP Edge AI 儲存伺服器

一站式 Edge AI 運算平台,整合儲存、虛擬化與運算效能,協助企業高效、安全、具成本效益地部署地端 AI 應用,加速企業智慧轉型。

AI 浪潮下,企業正面臨多重挑戰

隨著 GenAI、LLM 部署與邊緣運算需求快速成長,傳統 IT 架構已面臨以下瓶頸:

  • 雲端資安風險高

    超過 90% 的企業將資料安全視為 AI 部署首要考量,資料上雲存在外洩風險與合規疑慮。

  • 部署成本昂貴

    雲端模型授權、Token 計費、GPU 使用費、儲存空間或虛擬機平台授權等層層堆疊,總體擁有成本(TCO)不斷攀升。

  • 傳統架構分散

    儲存與運算伺服器各自部署,建置與整合費時又費力,維護不易。

  • 效能不穩

    共用基礎架構下,AI 模型與虛擬化應用爭搶系統資源,導致運算延遲、效能不穩。

  • 資料量急遽成長

    AI 與其他數據密集型應用產生龐大資料量,傳統儲存架構難以彈性擴充、亦缺乏資料管理能力。

為什麼選擇 QNAP Edge AI 儲存伺服器

QNAP Edge AI 儲存伺服器提供一站式邊緣運算平台,整合數據儲存、虛擬化平台、GPU 與 I/O 加速技術,以及 CPU 資源管理等功能,協助企業快速部署地端 AI 應用與邊緣裝置。企業可依需求在 QAI 上安裝 QNAP 的 Hypervisor 軟體(Virtualization Station)容器管理平台(Container Station),靈活打造 AI 應用伺服器與邊緣儲存伺服器,實現高效、低延遲的地端 AI 解決方案。

支援多樣化的邊緣 AI 應用,包括:

  • ️小語言模型推論(SLM Inference)
  • 大型語言模型推論(LLM Inference)
  • 生成式 AI(Generative AI)
  • AI 模型推論與微調(AI Inference & Model Fine-tuning)
  • 智慧製造與工業自動化(Smart Manufacturing & Industrial Automation)
  • 智慧零售與客群行為分析(Smart Retail & Customer Analytics)
  • 智慧監控與影像辨識分析(Smart Surveillance & Video Analytics)
支援多樣化的邊緣 AI 應用

強化資料掌握

所有儲存資料與應用皆部署於地端,避免傳輸至公有雲的隱私風險,強化安全性與合規性。

簡化部署與管理

資料儲存、虛擬機(VM)、GPU 資源及各種應用皆運行於單一 QAI,減少跨設備維運成本。

效能即時就緒

透過資源動態分配與硬體加速,優化 VM 執行效率與 AI 服務穩定性。

高成本效益

QNAP 提供免授權的虛擬化平台應用程式,長期有效降低 TCO。

超越傳統架構的技術優勢

QNAP Edge AI 儲存伺服器提供多種系統資源配置、硬體加速技術、資料保護與優化機制,為邊緣運算場域提供理想的地端執行環境。

QuTS hero 作業系統

採用高可靠 ZFS 檔案系統,支援靜態資料自我修復能力 (Self-healing),可偵測並自動修復損壞資料,更擁有專注於提升 SSD 效能與壽命的先進技術;支援在線資料重複刪除、WORM (Write Once, Read Many) 防止資料竄改的不可變性、ZIL 斷電保護機制等。

升級版 Container Station

實現 AI 的落地應用,QAI 系列的 Container Station 內建大量精選的 AI 應用模板,涵蓋目前最流行的 AI 工具與框架,只需一鍵部署即可快速啟動,免去繁複的安裝與設定流程。

讓 GPU 加速更簡單且隨手可用

免除在 Docker 中設定 GPU 資源的複雜程序,建立新容器時只需從下拉選單選擇所需的 NVIDIA® GPU 或 AI 加速卡,即可立即啟用 AI 運算加速。即使只有一張 NVIDIA® GPU 或 AI 加速卡,也能供多個 Container 容器共享。

NVIDIA® 專業級 GPU

NVIDIA RTX PRO™ Blackwell 最高配備 96GB VRAM 與增強型 AI 加速,以 FP4 精度與 DLSS 4 加速實現高達 3 倍的 AI 運算效能提升,助力進階 LLM、生成式模型與複雜 3D 視覺化應用。

>100 Tokens/sec 的 LLM 推論效能

透過 NVIDIA RTX PRO™ 6000 Blackwell Max-Q,QNAP 實測結果如下:

  • gpt-oss:20b (MXFP4):120+ tokens/sec
  • gpt-oss:120b (MXFP4):約 100 tokens/sec
  • deepseek-r1:70b (q4_K_M):約 24 tokens/sec

適用於 RAG 搜尋、聊天機器人與離線推論等工作負載。

PCIe 高擴充性

彈性安裝各種 PCIe 擴充卡,提供額外 25GbE / 100GbE 網絡、Fibre Channel 介面、SAS 介面連接等,也能串接 QNAP JBOD 擴展儲存空間應對 AI 工具的空間需求。部份裝置更能夠利用 PCIe Passthrough 直通把資源直接到特定虛擬機,發揮近乎原生的硬體效能。

在 QNAP QAI 上,輕鬆部署地端 LLM 運行環境

一機整合虛擬化平台、大型語言模型(LLM)、與直覺化使用者介面。

  • 1部署應用程式容器

    透過 QNAP Container Station 容器管理平台可彈性選擇不同類型的容器執行環境(如:Docker、Kata、LXD 等),靈活部署各類應用程式與服務。

  • 2GPU 加速運算

    設定容器環境中的 GPU 存取權限,讓 container 可直接使用 QAI 上的 GPU 進行 AI 推論或影像處理加速。

  • 3支援部署多款 LLM

    透過 Ollama、vLLM、Llama.cpp 等可輕鬆部署多種開源大型語言模型(如:Llama、Gemma、gpt-oss、DeepSeek、Qwen),可依需求彈性切換或更新模型。

  • 4搭配 Web 操作介面

    可安裝開源 Web 操作介面(如:Anything LLM、Open WebUI),讓你不需要撰寫程式即可快速串接語言模型,打造自己的 AI 助理、智慧客服或內部搜尋工具。

也可以,作為虛擬機環境或備份伺服器

  • 1執行多個虛擬機(VM)

    Virtualization Station 是 QNAP QuTS hero 上的 Hypervisor 軟體,可同時於一台 QAI 上部署多個 Windows® 或 Linux® 虛擬機。

  • 2支援 VM 備份

    將 Veeam® 備份軟體安裝於 QNAP QAI 上的獨立虛擬機,並將 QAI 設定為備份目標,即可將各種工作負載(如虛擬機、實體主機、NAS、雲端服務等)的備份資料集中儲存與管理。

  • 3CPU 資源管理

    VM 備份過程需要大量 CPU 運算資源,透過 Virtualization Station 介面高效分配 CPU 資源,確保備份過程穩定執行。

多元應用,滿足各種業務需求

  • 企業 AI 搜尋知識庫

    企業 AI 搜尋知識庫

    結合 NAS、LLM 與 RAG 技術,打造專屬的企業 AI 知識搜尋系統,提升資料檢索、分析與應用效率。

  • AI 智能客服系統

    AI 智能客服系統

    智能客服系統導入 LLM,強化聊天室自動問答能力,提升回應速度、準確度與用戶互動體驗。

  • 虛擬化應用伺服器

    虛擬化應用伺服器

    部署 VM 虛擬機運行企業內部不同環境系統,如:ERP、CMS、軟體測試環境。

  • 虛擬機備份與資料保護

    虛擬機備份與資料保護

    整合 Veeam® 備份解決方案,強化 VM 資料安全性。

  • AI 數據儲存與備份

    AI 數據儲存與備份

    儲存 AI 原始數據 (Raw Data),或作為 RAG 架構中頻繁資料讀寫的高速儲存伺服器。

推薦機種

專為邊緣 AI 部署打造的 QNAP AI 系列 NAS,搭配一張 NVIDIA 高階顯示卡,強效驅動 AI 推論、高畫質影像處理與虛擬化應用,加速邊緣智慧進化!

QAI-h1290FX

  • 12-bay U.2 NVMe / SATA 全快閃 NAS
  • 搭載 AMD EPYC™ 7302P 16 核心 / 32 執行緒處理器
  • 內建 128GB DDR4 ECC RDIMM 記憶體
  • 配備 NVIDIA RTX PRO™ 6000 Blackwell Max-Q Workstation 顯示卡
  • 提供 QAI 專屬功能,包括 Container Station 內建精選開源 AI 應用程式模板,可快速部署
QAI-h1290FX

需要協助?

QNAP 專業團隊隨時提供協助,為您量身打造 Edge AI 儲存伺服器。

選擇規格

      顯示更多 隱藏更多
      選擇其他偏好的語言:
      back to top