QNAP QAI-h1290FX
榮獲 TechRadar Pro Picks Awards CES 2026 大獎
QAI 適用應用
企業級邊緣 AI 與高效能運算
QAI-h1290FX 不僅是一套儲存系統,更是具備運算能力的企業級邊緣運算平台。採用高效能運算架構,支援可配置的 NVIDIA® RTX™ Pro Blackwell GPU,非常適合大型語言機種 (LLM) 推論、影像生成、RAG 搜尋,以及各種高運算量與虛擬化工作負載。
無論是 AI 推論、研發、資料分析,或企業應用需要高核心數與持續效能,一台桌上型企業平台即可提供卓越運算效率與資料 安全性,完全在地端運作。
最大 AI 運算效能(可選 GPU 配置)
GPU 就緒架構 — 支援 NVIDIA® RTX™ Pro Blackwell
QAI-h1290FX 採用 GPU 就緒架構,專為支援 NVIDIA® RTX™ Pro Blackwell GPU 而設計。基於 Blackwell 架構,支援 CUDA、TensorRT 及 Transformer Engine 等加速技術,非常適合現代 AI 與 GPU 加速運算工作負載。
從大型語言機種(LLM)推論、電腦視覺到生成式 AI 及其他 GPU 加速專業應用,所有工作負載皆可於本地端部署與執行,兼具高效能、資料隱私與完整系統控制。此平台亦可作為以 CPU 為核心的高效能運算系統,支援虛擬化及多種企業運算場景。
NVIDIA® RTX™ Pro Blackwell 系列 — 重新定義 AI 與高效能運算工作流程
NVIDIA® RTX™ Pro Blackwell 系列 GPU 專為高強度 AI、運算與創意工作負載打造,結合新一代 Blackwell 架構與超高速 GDDR7 ECC 記憶體。這讓單一專業 GPU 就能提供過去需多張消費級顯示卡才能達到的運算效能與 VRAM 容量。
支援最高 96GB VRAM 及強化的 AI 加速能力,RTX™ Pro Blackwell 系列非常適合進階 LLM、生成式機種、資料分析,以及複雜 3D 視覺化與專業運算工作流程。
採用伺服器級 AMD EPYC™ 處理器,實現高效能運算
QAI-h1290FX 採用伺服器級 AMD EPYC 處理器平台,具備高核心數與強大多執行緒效能。
專為高度平行工作負載下的長時間穩定運作而設計,適用於虛擬化、多執行緒運算、資料處理及邊緣運算場景,同時支援 AI 推論與各類運算密集型應用。
採用 QuTS hero 作業系統
專為企業所打造的 QuTS hero 作業系統採用高可靠 ZFS 檔案系統,為關鍵資料儲存提供極致資料安全與系統穩定,更擁有專注於提升 SSD 效能與壽命的先進技術,滿足企業對於高效能與可靠度的嚴苛要求。探索 QuTS hero 作業系統了解 QuTS hero 最新功能
隨時隨地遠端存取本地 AI
QNAP 提供多種遠端存取選項,協助您打造無縫的混合辦公環境。無論是管理 AI 應用程式或存取檔案,QAI-h1290FX 都能確保您隨時保持連線,同時不犧牲安全性。
直接或中繼存取選項
- myQNAPcloud DDNS:
透過自訂網域,無需記住 IP 位址,即可從任何地方存取您的 QuTS hero 介面。 - myQNAPcloud Link:
透過 QNAP 伺服器建立安全的中繼連線—無需開啟路由器埠口或修改防火牆設定。 - VPN 伺服器支援:
使用 QVPN Service 建立私人 VPN,啟用安全加密通道以完整存取網路。
無論您是在微調 LLM 容器設定、檢視推論日誌,或跨地點協作,QAI-h1290FX 都能讓您隨時隨地從任何裝置可靠存取本地 AI 環境。
更強大的 Container Station:AI 應用部署全新體驗
為推動 AI 實際應用,QAI 系列整合 Container Station 與多樣化 AI 應用範本,支援一鍵部署熱門 AI 工具與框架,QNAP 定期更新,確保您可取得最新技術。
無論您是 AI 新手或想將工作負載遷移至本地端,QAI 皆可協助您輕鬆探索 AI、降低成本、提升資料 安全性,甚至開發自訂 AI 工具,促進企業創新。
簡化容器化 AI 部署
透過無縫容器整合,強化您的 AI 基礎架構。探索 Container Station
以 AI 驅動的視覺設計重新定義創意
ComfyUI 以強大且模組化的介面,賦能藝術家、設計師與內容創作者進行 AI 影像與影片創作。其直觀的節點式設計與對進階機種(如 Stable Diffusion)的支援,讓用戶能輕鬆生成、轉換與動畫化視覺內容。結合 GPU 加速與彈性工作流程,ComfyUI 降低了複雜視覺設計的門檻,釋放前所未有的創作自由。
真實世界 AI 效能 — 以 QAI-h1290FX 測量
AI 部署效能經由真實世界基準資料驗證。在高階 GPU 測試配置下,QAI-h1290FX 以 NVIDIA® RTX™ PRO 6000 Blackwell Max-Q 工作站 GPU 進行完整評估,驗證其在本地 AI 推論與企業部署場景中的效能。
Ollama LLM 推論基準(快速部署)
憑藉 Blackwell 架構的 GPU 加速能力,QAI-h1290FX 可透過 Ollama 在本地執行多種大型語言機種。
Ollama 支援快速部署與簡化管理,非常適合概念驗證(PoC)專案、單一用戶環境,以及 RAG 搜尋、AI 助理與離線推論等中小型應用場景。
vLLM 並發推論效能基準(企業級吞吐量)
為滿足多用戶及高併發 AI 服務需求,QAI-h1290FX 亦支援以 vLLM 推論引擎進行部署。
相較於單一請求導向的推論方式,vLLM 透過分頁注意力(Paged Attention)及高效排程機制,大幅提升 GPU 利用率與整體吞吐量,特別適合企業級 AI 服務、多用戶 RAG 系統及 API 型 AI 應用。
在相同 GPU 配置下,vLLM 在多併發請求情境展現更穩定的延遲特性與更高的每秒 Token 數,適用於生產環境及長時間運行的企業 AI 部署。
測試的大型語言機種 :deepseek-ai/DeepSeek-R1-Distill-Qwen-7B(Hugging Face)
測試的大型語言機種 :openai/gpt-oss-20b(Hugging Face)
以實用案例釋放 AI 潛力
從文件自動化到創意工作流程及全系統自動化,QAI-h1290FX 讓每個部門都能以有意義且可衡量的方式應用 AI,並安全地在您自有基礎架構上運行。
無雲端綁定、無複雜設定——只需本地 LLM、安全容器與整合 QNAP 功能,立即見效。
QAI-h1290FX 上的 AI Docker 應用程式
透過 Container Station 與 GPU 整合,運行強大的 AI 解決方案。