[重要なセキュリティのお知らせ] 偽の Qfinder Pro ウェブサイトが検出されました。もっと見る >

QNAP エッジ AI ストレージサーバー

オールインワンのエッジ AI コンピューティングプラットフォームは、ストレージ、仮想化、およびコンピューティングパワーを統合し、企業が効率的、安全、かつコスト効果の高い方法でオンプレミス AI アプリケーションを展開できるようにし、業界全体でのスマートな変革を加速します。

AI 時代における企業の課題

GenAI、LLM、エッジコンピューティングの需要が急増する中、従来の IT インフラは複数のボトルネックに直面しています:

  • 高いクラウドセキュリティリスク

    90% 以上の企業が AI 導入時にデータセキュリティを主要な懸念事項として挙げています。クラウドベースの導入はデータを潜在的な漏洩やコンプライアンスリスクにさらします。

  • 急増する導入コスト

    クラウドモデル、トークン使用、GPU アクセス、ストレージ、仮想化プラットフォームのライセンス料が積み重なり、総所有コスト(TCO)を大幅に押し上げています。

  • 断片化されたインフラ

    分断されたコンピューティングとストレージシステムは、統合に時間がかかり、メンテナンスが複雑になります。

  • 不安定なパフォーマンス

    共有インフラストラクチャにより、AI モデルと仮想化アプリケーションがシステムリソースを競い合い、遅延や予測不可能なパフォーマンスが発生します。

  • 急増するデータボリューム

    AI とデータ集約型アプリケーションは膨大なデータを生成し、従来のストレージのスケーラビリティとデータ管理能力に負担をかけます。

なぜ QNAP Edge AI ストレージサーバーを選ぶのか?

QNAP Edge AI ストレージサーバーは、データストレージ、仮想化、GPU と I/O アクセラレーション、CPU リソース管理を統合した統一されたエッジコンピューティングプラットフォームを提供します。これにより、企業は AI アプリケーションとエッジデバイスを効率的にオンプレミスで展開できます。企業は、QNAP のハイパーバイザーアプリ Virtualization Station またはコンテナ管理プラットフォーム Container Station を QAI にインストールして、特定のユースケースに合わせた高性能で低遅延のオンプレミス AI 推論サーバーとエッジストレージサーバーを柔軟に構築できます。

多様なエッジ AI アプリケーションをサポート:

  • 小型言語モデル (SLM) 推論
  • 大型言語モデル (LLM) 推論
  • 生成 AI
  • AI モデルの推論と微調整
  • スマート製造と産業オートメーション
  • スマート小売と顧客分析
  • スマート監視とビデオ分析
多様なエッジ AI アプリケーションをサポート

強化されたデータ制御

すべてのデータとアプリケーションはオンプレミスでホストされており、パブリッククラウドの送信に関連するリスクを排除し、コンプライアンスを確保します。

簡素化された展開と管理

ストレージ、VM、GPU ワークロード、アプリを単一の QAI で実行し、デバイス間の複雑さを最小限に抑えます。

即時のパフォーマンス準備

動的リソース割り当てとハードウェアアクセラレーションにより、VM と AI の操作がスムーズかつ効率的に行われます。

コスト効率

QNAP のライセンスフリー仮想化プラットフォームは、長期的な TCO を大幅に削減します。

従来のアーキテクチャに対する技術的優位性

QNAP Edge AI ストレージサーバーは、柔軟なシステムリソースの割り当て、高度なハードウェアアクセラレーション、エンタープライズグレードのデータ保護を提供し、エッジコンピューティングに最適なプラットフォームです。

QuTS hero オペレーティングシステム

ZFS を基盤とし、高信頼性、自己修復によるデータの完全性、SSD 最適化パフォーマンス、オンライン重複排除、イミュータブルな WORM 保護、ZIL 電源障害対策を実現します。

強化された Container Station

厳選されたテンプレートライブラリを備えた AI 対応。人気の AI ツールやフレームワークをワンクリックで起動—複雑なセットアップは不要です。

簡単な GPU アクセラレーション

NVIDIA® GPU または AI アクセラレータをドロップダウンから選択することで GPU コンピュートを有効化。1 台の GPU を複数のコンテナで共有可能です。

NVIDIA® プロフェッショナル GPU

NVIDIA RTX PRO™ Blackwell は最大 96 GB VRAM と FP4 精度および DLSS 4 による 3 倍高速な AI パフォーマンスを提供し、LLM、生成 AI、3D ワークロードに最適です。

>100 トークン / 秒 LLM 推論

NVIDIA RTX PRO™ 6000 Blackwell Max-Q を使用した QNAP のテスト結果:

  • gpt-oss:20b (MXFP4): 120+ トークン / 秒
  • gpt-oss:120b (MXFP4): 約 100 トークン / 秒
  • deepseek-r1:70b (q4_K_M): 約 24 トークン / 秒

RAG、チャットボット、オフライン推論向けに最適化。

高い PCIe 拡張性

25GbE/100GbE、ファイバーチャネル、SAS インターフェース、QNAP JBOD 拡張に対応。モデルによっては PCIe パススルーによりネイティブに近い VM パフォーマンスを提供します。

QNAP QAI でオンプレミスの LLM をシームレスに実行

一つのデバイスで仮想化、大規模言語モデル(LLM)、直感的な UI を統合:

  • 1アプリケーションコンテナの展開

    QNAP Container Station を使用して、Docker、Kata、LXD などの複数のコンテナ化されたランタイム環境をサポートし、さまざまなタイプのアプリケーションやサービスを柔軟に展開します。

  • 2GPU 高速化コンピューティング

    コンテナ環境内でGPUアクセス許可を構成し、コンテナがQAIのGPUをAI推論やビデオ処理アクセラレーションに直接利用できるようにします。

  • 3複数の LLM をデプロイする

    Ollama、vLLM、Llama.cpp を使用すると、Llama、Gemma、gpt-oss、DeepSeek、Qwen などのオープンソースの大規模言語モデル(LLM)を簡単にデプロイでき、必要に応じてスイッチやモデルの更新を柔軟に行えます。

  • 4ウェブベースのインターフェースと統合する

    Anything LLM や Open WebUI のようなオープンソースのウェブインターフェースをインストールして、カスタム AI アシスタント、スマートカスタマーサービスボット、内部検索ツールを作成するためにコードを書くことなく、言語モデルと接続します。

VM 環境またはバックアップサーバーとして運用可能

  • 1複数の仮想マシン (VM) を実行

    Virtualization Station は QNAP QuTS hero ハイパーバイザーアプリであり、単一の QAI 上で複数の Windows® または Linux® 仮想マシンを展開することができます。

  • 2VM バックアップのサポート

    独立した VM で Veeam® バックアップソフトウェアを QAI 上でインストールし、 QAI をバックアップターゲットとして設定します。これにより、VM、物理サーバー、他の NAS デバイス、クラウドサービスを含むさまざまなワークロードからのバックアップデータの集中ストレージと管理が可能になります。

  • 3CPU リソース管理

    VM バックアップタスクには集中的な CPU 計算リソースが必要です。 Virtualization Station を通じて、CPU リソースを効率的に割り当て、安定した中断のないバックアップ操作を確保できます。

多様なビジネスニーズに対応する多用途アプリケーション

  • エンタープライズ AI ナレッジハブ

    エンタープライズ AI ナレッジハブ

    NAS、LLM、RAGを組み合わせ、社内にAIを活用した検索システムを構築し、データ検索、分析、生産性を高める。

  • AI チャットボット

    AI チャットボット

    LLMを使用してインテリジェントなチャットボットにパワーを与え、より速く、より正確に応答し、顧客エンゲージメントを向上させます。

  • 仮想化サーバー

    仮想化サーバー

    ERP システム、CMS プラットフォーム、ソフトウェアテストワークロードなど、幅広い社内エンタープライズ環境を実行するために仮想マシンを展開できます。

  • VM バックアップ & データ保護

    VM バックアップとデータ保護

    Veeam® バックアップソリューションを統合して、仮想マシンデータのセキュリティを向上させます。

  • AI データストレージ & バックアップ

    AI データストレージ & バックアップ

    RAG ベースの AI ワークフローで頻繁にデータにアクセスするための高速ストレージとして、または生の AI データセットを保存します。

推奨モデル

エッジAI展開向けに設計されたQNAP AIシリーズ NAS は、NVIDIA のハイエンドグラフィックスカードと組み合わせて、AI推論、高解像度メディア処理、仮想化 において卓越した性能を発揮します。

QAI-h1290FX

  • 12ベイ U.2 NVMe / SATA オールフラッシュ NAS
  • AMD EPYC™ 7302P 16コア / 32スレッドプロセッサ搭載
  • 128GB DDR4 ECC RDIMM メモリ
  • NVIDIA RTX PRO™ 6000 Blackwell Max-Q ワークステーション GPU 搭載可能
  • キュレーションされたオープンソースAIアプリテンプレートによる迅速な展開を可能にする Container Station など、QAI専用機能を含む
QAI-h1290FX

サポートが必要ですか?

QNAP の専門家が、ビジネスに最適な Edge AI ストレージサーバーの設計をヘルプお手伝いします。

仕様を選択

      もっと見る 閉じる
      当ページを他の国/地域で見る:
      気軽にお問い合わせ! show inquiry button
      open menu
      back to top