QNAP QAI-h1290FX

榮獲 TechRadar Pro Picks Awards CES 2026 大獎

QAI 適用應用

  • 內部聊天機器人與知識庫

    使用 AnythingLLM 或 OpenWebUI 部署類 ChatGPT 的私人機器人。安全連線內部檔案,供員工問答、政策查詢與訓練支援—無需網際網路。

  • 私人 RAG 搜尋引擎

    在本地執行 Retrieval-Augmented Generation (RAG),完全掌控資料。啟用自然語言文件搜尋,涵蓋合約、報告與檔案—適合法律、金融與企業團隊。

  • AI 推論與內容生成

    使用 Stable Diffusion 或 ComfyUI 進行影像生成,或部署自訂機種以進行影片標註、文件摘要與醫療分析。受益於 GPU 加速與全快閃儲存。

企業級邊緣 AI 與高效能運算

QAI-h1290FX 不僅是一套儲存系統,更是具備運算能力的企業級邊緣運算平台。採用高效能運算架構,支援可配置的 NVIDIA® RTX™ Pro Blackwell GPU,非常適合大型語言機種 (LLM) 推論、影像生成、RAG 搜尋,以及各種高運算量與虛擬化工作負載。

無論是 AI 推論、研發、資料分析,或企業應用需要高核心數與持續效能,一台桌上型企業平台即可提供卓越運算效率與資料 安全性,完全在地端運作。

最大 AI 運算效能(可選 GPU 配置)

  • 3511 AI TOPS (FP4)
    333 TFLOPS (RT Core)

GPU 就緒架構 — 支援 NVIDIA® RTX™ Pro Blackwell

QAI-h1290FX 採用 GPU 就緒架構,專為支援 NVIDIA® RTX™ Pro Blackwell GPU 而設計。基於 Blackwell 架構,支援 CUDA、TensorRT 及 Transformer Engine 等加速技術,非常適合現代 AI 與 GPU 加速運算工作負載。

從大型語言機種(LLM)推論、電腦視覺到生成式 AI 及其他 GPU 加速專業應用,所有工作負載皆可於本地端部署與執行,兼具高效能、資料隱私與完整系統控制。此平台亦可作為以 CPU 為核心的高效能運算系統,支援虛擬化及多種企業運算場景。

  • 旗艦

    NVIDIA® RTX™ Pro 6000 Blackwell Max-Q 工作站

    • 96 GB GDDR7 ECC 記憶體
    • 24,064 個 CUDA 核心、752 個 Tensor 核心、188 個 RT 核心
    • 125 TFLOPS (FP32),最高 4000 AI TOPS
    • 1,792 GB/s 記憶體頻寬
    • 300W 功耗
    • PCIe 5.0 x16 介面
    • 專為大規模 LLM(最高 70B+ 引數)、多模型並行工作負載及高吞吐量 AI 流程設計

  • 出色效能

    NVIDIA® RTX™ Pro 4500 Blackwell

    • 32 GB GDDR7 ECC 記憶體
    • 10,496 個 CUDA 核心、328 個 Tensor 核心、82 個 RT 核心
    • 54.94 TFLOPS (FP32)
    • 896 GB/s 記憶體頻寬
    • 200W 耗電量
    • PCIe 5.0 x16 介面
    • 非常適閤中型 LLM(最高約 300 億引數)、檢索增強生成(RAG)流程,以及高效能圖形應用程式

NVIDIA® RTX™ Pro Blackwell 系列 — 重新定義 AI 與高效能運算工作流程

NVIDIA® RTX™ Pro Blackwell 系列 GPU 專為高強度 AI、運算與創意工作負載打造,結合新一代 Blackwell 架構與超高速 GDDR7 ECC 記憶體。這讓單一專業 GPU 就能提供過去需多張消費級顯示卡才能達到的運算效能與 VRAM 容量。

支援最高 96GB VRAM 及強化的 AI 加速能力,RTX™ Pro Blackwell 系列非常適合進階 LLM、生成式機種、資料分析,以及複雜 3D 視覺化與專業運算工作流程。

  • 第 5 代 Tensor 核心

    以 FP4 精度和 DLSS 4 加速,AI 處理速度最高提升 3 倍。

  • 第 4 代 RT 核心

    光線追蹤速度提升 2 倍,實現寫實渲染與即時模擬。

  • 最高 96GB GDDR7 記憶體

    大容量與高頻寬,輕鬆應對複雜 AI 與圖形任務。

  • 耗電量與效能平衡

    僅 300W 耗電量即可發揮強大 AI 效能

採用伺服器級 AMD EPYC™ 處理器,實現高效能運算

QAI-h1290FX 採用伺服器級 AMD EPYC 處理器平台,具備高核心數與強大多執行緒效能。
專為高度平行工作負載下的長時間穩定運作而設計,適用於虛擬化、多執行緒運算、資料處理及邊緣運算場景,同時支援 AI 推論與各類運算密集型應用。

  • CPU

    伺服器級 AMD EPYC™ 處理器
    高核心數與多執行緒架構

  • 記憶體

    128 GB RDIMM DDR4 ECC 記憶體(最高可擴充至 1 TB)

採用 QuTS hero 作業系統

專為企業所打造的 QuTS hero 作業系統採用高可靠 ZFS 檔案系統,為關鍵資料儲存提供極致資料安全與系統穩定,更擁有專注於提升 SSD 效能與壽命的先進技術,滿足企業對於高效能與可靠度的嚴苛要求。探索 QuTS hero 作業系統了解 QuTS hero 最新功能

  • 自動修復損壞資料

    ZFS 支援靜態資料自我修復能力 (Self-healing),可偵測並自動修復損壞資料,確保資料完整性。

  • 防止資料竄改的不可變性

    建立 WORM (Write Once, Read Many) 資料夾,資料寫入後即無法被複寫、修改或刪除,亦可實現不可變備份,有效防禦勒索病毒威脅。

  • 寫入保護避免資料毀損

    ZIL 斷電保護機制在 NAS 遭遇無預警斷電後啟用寫入保護,避免修改中的資料毀損。

  • 資料縮減

    在線資料重複刪除 (Inline data deduplication) 節省儲存空間占用,讓可用磁碟容量保持最佳化的狀態。

  • 防止多個 SSD 同時故障

    獨家 QSAL 專利演算法可自動定期偵測 RAID 層級的 SSD 壽命,防止多個 SSD 同時毀損,避免 RAID 崩潰造成資料遺失。

隨時隨地遠端存取本地 AI

QNAP 提供多種遠端存取選項,協助您打造無縫的混合辦公環境。無論是管理 AI 應用程式或存取檔案,QAI-h1290FX 都能確保您隨時保持連線,同時不犧牲安全性。

直接或中繼存取選項

  • myQNAPcloud DDNS:
    透過自訂網域,無需記住 IP 位址,即可從任何地方存取您的 QuTS hero 介面。
  • myQNAPcloud Link:
    透過 QNAP 伺服器建立安全的中繼連線—無需開啟路由器埠口或修改防火牆設定。
  • VPN 伺服器支援:
    使用 QVPN Service 建立私人 VPN,啟用安全加密通道以完整存取網路。

無論您是在微調 LLM 容器設定、檢視推論日誌,或跨地點協作,QAI-h1290FX 都能讓您隨時隨地從任何裝置可靠存取本地 AI 環境。

更強大的 Container Station:AI 應用部署全新體驗

為推動 AI 實際應用,QAI 系列整合 Container Station 與多樣化 AI 應用範本,支援一鍵部署熱門 AI 工具與框架,QNAP 定期更新,確保您可取得最新技術。

無論您是 AI 新手或想將工作負載遷移至本地端,QAI 皆可協助您輕鬆探索 AI、降低成本、提升資料 安全性,甚至開發自訂 AI 工具,促進企業創新。

簡化容器化 AI 部署

透過無縫容器整合,強化您的 AI 基礎架構。探索 Container Station

以 AI 為核心的容器環境

QAI-h1290FX 內建 Container Station,可部署 Docker 與 LXD 容器。由於現今多數 AI 工具皆以容器化應用程式形式提供,QAI-h1290FX 可直接且高效地部署機種(如 LLM、RAG 搜尋、影像生成(例如 Stable Diffusion)或知識庫引擎如 AnythingLLM),無需繁瑣設定。

為 AI 機種提供持久的資料 儲存

支援 Docker 磁碟區,QAI-h1290FX 可讓容器掛載來自 NAS 的共用資料夾,確保即使重建容器後儲存依然持久保存。這對於涉及大量機種檔案、訓練資料或日誌的 AI 工作負載特別有利。再也不用擔心在更新或版本切換時遺失重要資料。

讓 GPU 加速變得簡單,所有 AI 工作負載都能輕鬆使用

QAI-h1290FX 消除了在 Docker 環境中配置 GPU 資源的複雜性。透過 Container Station 直覺式介面,建立新容器時,只需從下拉選單選擇所需的 NVIDIA® GPU,容器即可立即存取 GPU 運算能力。無論是部署 LLM、執行影像生成,或進行深度學習推論,QAI-h1290FX 都能確保流程順暢高效。

以 AI 驅動的視覺設計重新定義創意

ComfyUI 以強大且模組化的介面,賦能藝術家、設計師與內容創作者進行 AI 影像與影片創作。其直觀的節點式設計與對進階機種(如 Stable Diffusion)的支援,讓用戶能輕鬆生成、轉換與動畫化視覺內容。結合 GPU 加速與彈性工作流程,ComfyUI 降低了複雜視覺設計的門檻,釋放前所未有的創作自由。

真實世界 AI 效能 — 以 QAI-h1290FX 測量

AI 部署效能經由真實世界基準資料驗證。在高階 GPU 測試配置下,QAI-h1290FX 以 NVIDIA® RTX™ PRO 6000 Blackwell Max-Q 工作站 GPU 進行完整評估,驗證其在本地 AI 推論與企業部署場景中的效能。

Ollama LLM 推論基準(快速部署)

憑藉 Blackwell 架構的 GPU 加速能力,QAI-h1290FX 可透過 Ollama 在本地執行多種大型語言機種。
Ollama 支援快速部署與簡化管理,非常適合概念驗證(PoC)專案、單一用戶環境,以及 RAG 搜尋、AI 助理與離線推論等中小型應用場景。

模式 Token/ 秒 VRAM 使用量
gpt-oss:120b (MXFP4) 90 Token/ 秒 約 63GB
deepseek-r1:70b (q4_K_M) 24 Token/ 秒 約 41GB
qwen3:32b (q4_K_M) 46 Token/ 秒 約 21GB
gemma3:27b (q4_K_M) 54 Token/ 秒 約 19GB
deepseek-r1:8b (q4_K_M) 140 Token/ 秒 約 7GB
qwen3:8b (q4_K_M) 172 Token/ 秒 約 7GB



vLLM 並發推論效能基準(企業級吞吐量)

為滿足多用戶及高併發 AI 服務需求,QAI-h1290FX 亦支援以 vLLM 推論引擎進行部署。
相較於單一請求導向的推論方式,vLLM 透過分頁注意力(Paged Attention)及高效排程機制,大幅提升 GPU 利用率與整體吞吐量,特別適合企業級 AI 服務、多用戶 RAG 系統及 API 型 AI 應用。

在相同 GPU 配置下,vLLM 在多併發請求情境展現更穩定的延遲特性與更高的每秒 Token 數,適用於生產環境及長時間運行的企業 AI 部署。

測試的大型語言機種 :deepseek-ai/DeepSeek-R1-Distill-Qwen-7B(Hugging Face)

執行緒 總 Token/ 秒 平均 Token/ 執行緒 / 秒
1 79 Token/ 秒 79 Token/ 秒
2 166 Token/ 秒 83 Token/ 秒
5 410 Token/ 秒 82 Token/ 秒
10 688 Token/ 秒 68.8 Token/ 秒
20 810 Token/ 秒 40.5 Token/ 秒
50 850 Token/ 秒 17 Token/ 秒

測試的大型語言機種 :openai/gpt-oss-20b(Hugging Face)

執行緒 總計 Token/ 秒 平均 Token/ 執行緒 / 秒
1 218 Token/ 秒 218 Token/ 秒
2 340 Token/ 秒 170 Token/ 秒
5 1045 Token/ 秒 209 Token/ 秒
10 880 Token/ 秒 88 Token/ 秒
20 600 Token/ 秒 30 Token/ 秒

基準測試結果根據多個提示在數學、物理、電腦科學及哲學等不同領域的平均效能。

以實用案例釋放 AI 潛力

從文件自動化到創意工作流程及全系統自動化,QAI-h1290FX 讓每個部門都能以有意義且可衡量的方式應用 AI,並安全地在您自有基礎架構上運行。

無雲端綁定、無複雜設定——只需本地 LLM、安全容器與整合 QNAP 功能,立即見效。

智慧人資助理-內部政策聊天機器人

使用 AnythingLLM + Ollama 建立內部問答助理。將員工手冊、請假政策、福利等人資文件上傳至 QAI-h1290FX。員工可自然發問,例如:

「我要如何申請家庭照顧假?」

系統會本地執行 RAG 搜尋並即時回覆,減輕人資負擔並提升回應速度。

創意團隊 AI Studio-影像生成中心

設計團隊可在 QAI-h1290FX 上部署 Stable Diffusion 與 ComfyUI,透過提示詞輸入產生宣傳圖、模型圖或風格化藝術作品。
憑藉 GPU 加速與持久化 NAS 儲存,設計師可快速獲得可重現的成果,不必每次都從零開始。

開發者 AI Co-Pilot-檔案、程式碼與摘要助手

工程團隊可在 QAI-h1290FX 上以 Ollama 執行 Qwen 或 Llama 等 LLM,協助規格撰寫、程式碼審查與技術翻譯。
上傳 API 文件或白皮書,然後與機種聊天以獲得說明、摘要,甚至 Markdown 格式化——全程離線且安全。

n8n + NAS 自動化-隨時隨地觸發 AI

在 QAI-h1290FX 上安裝 n8n 後,您可以自動化將 AI 與商業運作整合的任務。例如:

  • 當收到支援郵件時,觸發 LLM 進行摘要並提供建議回覆,將結果儲存於草稿。
  • 連線 QNAP MCP 定期檢查裝置狀態,並在 AI 分析後向使用者提供建議。
  • 使用 LLM 分析 NAS 備份的電子郵件與對話,檢查是否有不適當內容

QAI-h1290FX 上的 AI Docker 應用程式

透過 Container Station 與 GPU 整合,運行強大的 AI 解決方案。

  • AnythingLLM

    讓團隊能在安全環境中部署可自訂、私有的大型語言機種。整合各種資料資源,並與您的 LLM 互動,實現量身打造的問答、文件解析等功能—適合重視隱私與控制的企業。

  • OpenWebUI

    一個多功能且易用的網頁介面,可與本地或遠端 LLM 互動。OpenWebUI 支援聊天、提示工程與對話管理,介面簡潔,讓使用者與開發者都能輕鬆採用 AI。

  • Ollama

    Ollama 讓運行與實驗開源語言機種變得輕鬆。支援 GPU,開發者可高效測試、微調並在本地部署強大的 LLM,確保資料安全並提升工作流程靈活性。

  • ComfyUI

    一款先進且模組化的生成式 AI 工作流程 UI。ComfyUI 讓使用者能以直覺的拖曳介面(支援 GPU 加速)建立、視覺化並自訂複雜的 AI 流程,包括影像生成與文字轉圖任務。

  • n8n

    n8n 是一款工作流程自動化工具,可連接數百種服務,包括 AI 機種。整合商業運作、觸發 AI 任務並自動化重複流程—全部在安全的容器化環境中,並支援強大擴充與自訂邏輯。

  • Whisper

    Whisper 提供多功能、支援多語言的語音處理,整合於單一開源機種中。它能精確地將各種音訊來源進行語音轉文字、翻譯及語言識別,協助各行業無縫串接語音到文字的工作流程。支援在地端部署,團隊可在維持資料 安全性的同時,將先進語音功能整合至應用程式中。

將您的 NAS 轉化為 AI 驅動的知識樞紐

賦能企業用戶以前所未有的速度搜尋、理解並擷取資訊——由 Qsirch 與新一代 RAG 搜尋技術驅動。QAI-h1290FX 為您的文件帶來智慧,同時確保一切安全且在地端運作。

Qsirch ─ 智慧全文搜尋

Qsirch ─ 智慧全文搜尋

Qsirch 提供極速全文搜尋,涵蓋所有 NAS 檔案——PDF、Office 文件、電子郵件等。透過進階篩選、索引與預覽功能,使用者可即時找到 TB 資料中的相關文件。 了解更多

RAG 搜尋

RAG 搜尋 ─ AI 驅動的情境式解答

RAG(檢索增強生成)搜尋進一步結合 Qsirch 與本地大型語言機種(LLM)。當使用者提問時,系統會先透過 Qsirch 檢索相關檔案,再利用裝置端 AI 產生精確且自然的語言答案。 了解更多

在 QAI-h1290FX 上,RAG 搜尋完全在地端執行:

  • 無雲端 API
  • 無資料洩漏
  • 完整隱私與合規

5 年標準保固

QAI-h1290FX 享有高達 5 年的免費產品保固 ,為您的企業組織提供更安心的保障。

Edge AI 儲存伺服器比較:
QAI-h1290FX vs. 其他 AI NAS vs. AI 工作站

特色 QNAP QAI-h1290FX 其他 NAS 品牌(AI NAS) AI 工作站
核心 AI 運作機種 本地 LLM + 私有 RAG
(機種、資料,以及推論於本地執行)
依賴雲端的 AI
(雲端搜尋、標註或基於 API 的服務)
僅限本地運算
(資料與 AI 工作流程整合有限)
AI 運算 支援企業級 NVIDIA RTX PRO 6000 工作站 GPU(96GB VRAM) 無 GPU,或僅有 iGPU / NPU 依機種而異,通常僅有單一 GPU
機種能力 可運行 70B+ LLM、SDXL 及大型開源機種 僅限較小型機種或雲端 AI 大型機種成本高且 VRAM 受限
AI 體驗 內建容器管理,並提供可立即部署的 AI 範本(LLM / RAG / 自動化) 複雜設定:需調整 Docker/YAML 並手動設定 GPU 完全手動設定:需安裝作業系統、驅動程式及容器堆疊
核心 NAS 功能 企業級 NAS,支援 ZFS、RAID、快照、WORM 及備份 有限或偏向消費者導向的 NAS 功能 無完整 NAS 管理或資料保護
部署適用性 靜音直立式設計—適合辦公室與工作室 依機種而異 體積大、噪音高、發熱量大—通常需專用空間或機架
總價值 (TCO) 全方位 AI + NAS,部署與管理負擔最低 AI 與儲存需分開投資 以運算為主的系統,內建有限資料價值