QNAP エッジ AI ストレージサーバー

オールインワンのエッジ AI コンピューティングプラットフォームは、ストレージ、仮想化、およびコンピューティングパワーを統合し、企業が効率的、安全、かつコスト効果の高い方法でオンプレミス AI アプリケーションを展開できるようにし、業界全体でのスマートな変革を加速します。

AI 時代における企業の課題

GenAI、LLM、エッジコンピューティングの需要が急増する中、従来の IT インフラは複数のボトルネックに直面しています:

  • 高いクラウドセキュリティリスク

    90% 以上の企業が AI 導入時にデータセキュリティを主要な懸念事項として挙げています。クラウドベースの導入はデータを潜在的な漏洩やコンプライアンスリスクにさらします。

  • 急増する導入コスト

    クラウドモデル、トークン使用、GPU アクセス、ストレージ、仮想化プラットフォームのライセンス料が積み重なり、総所有コスト(TCO)を大幅に押し上げています。

  • 断片化されたインフラ

    分断されたコンピューティングとストレージシステムは、統合に時間がかかり、メンテナンスが複雑になります。

  • 不安定なパフォーマンス

    共有インフラストラクチャにより、AI モデルと仮想化アプリケーションがシステムリソースを競い合い、遅延や予測不可能なパフォーマンスが発生します。

  • 急増するデータボリューム

    AI とデータ集約型アプリケーションは膨大なデータを生成し、従来のストレージのスケーラビリティとデータ管理能力に負担をかけます。

なぜ QNAP Edge AI ストレージサーバーを選ぶのか?

QNAP Edge AI ストレージサーバーは、データストレージ、仮想化、GPU と I/O アクセラレーション、CPU リソース管理を統合した統一されたエッジコンピューティングプラットフォームを提供します。これにより、企業は AI アプリケーションとエッジデバイスを効率的にオンプレミスで展開できます。企業は、QNAP のハイパーバイザーアプリ Virtualization Station またはコンテナ管理プラットフォーム Container Station を QAI にインストールして、特定のユースケースに合わせた高性能で低遅延のオンプレミス AI 推論サーバーとエッジストレージサーバーを柔軟に構築できます。

多様なエッジ AI アプリケーションをサポート:

  • 小型言語モデル (SLM) 推論
  • 大型言語モデル (LLM) 推論
  • 生成 AI
  • AI モデルの推論と微調整
  • スマート製造と産業オートメーション
  • スマート小売と顧客分析
  • スマート監視とビデオ分析
多様なエッジ AI アプリケーションをサポート

強化されたデータ制御

すべてのデータとアプリケーションはオンプレミスでホストされており、パブリッククラウドの送信に関連するリスクを排除し、コンプライアンスを確保します。

簡素化された展開と管理

ストレージ、VM、GPU ワークロード、アプリを単一の QAI で実行し、デバイス間の複雑さを最小限に抑えます。

即時のパフォーマンス準備

動的リソース割り当てとハードウェアアクセラレーションにより、VM と AI の操作がスムーズかつ効率的に行われます。

コスト効率

QNAP のライセンスフリー仮想化プラットフォームは、長期的な TCO を大幅に削減します。

従来のアーキテクチャに対する技術的優位性

QNAP Edge AI ストレージサーバーは、柔軟なシステムリソースの割り当て、高度なハードウェアアクセラレーション、エンタープライズグレードのデータ保護を提供し、エッジコンピューティングに最適なプラットフォームです。

専用リソース割り当て

Virtualization Station を使用して、特定の仮想マシン(VM)に CPU、メモリ、ネットワーク帯域幅を割り当て、リソースの競合を防ぎます。

AI ワークロード向けの GPU アクセラレーション

GPU パススルーを有効にして、物理 GPU を VM に割り当て、AI 推論とグラフィックス処理を高速化します。

最適化されたネットワーキングのための SR-IOV

仮想マシンに直接 NIC チャネルを提供し、ネットワーク遅延と帯域幅のオーバーヘッドを削減します。

高性能 PCIe パススルー

グラフィックカード、ネットワークカード、またはストレージコントローラーを VM に直接割り当て、ほぼネイティブのハードウェアパフォーマンスを実現します。

スケーラブルなストレージ拡張

SAS / FC ストレージ拡張エンクロージャをサポートし、増大する AI および仮想化ストレージの需要に対応します。

エンタープライズデータ保護

ZFS に基づいて構築され、RAID、スナップショット、 データ不変性 (WORM)、データ重複排除、および SSD 最適化をサポートします。

正確なリソース割り当てで VM のパフォーマンスを引き出す

  • 高度な加速技術
    パススルー技術

    物理 GPU、NIC、または他の PCIe デバイスリソースを指定された仮想マシンに直接割り当て、ハイパーバイザーのオーバーヘッドを最小限に抑え、より安定したパフォーマンスと低遅延を実現します。

    • GPU パススルー
    • PCIe パススルー
  • 最適化されたリソース割り当て
    CPU リソース管理

    CPUリソース管理機能(近日対応予定)により、特定の仮想マシンに専用のCPUスレッドを割り当てる(CPUアイソレーション)ことができます。これにより仮想マシンと他のアプリケーション間のリソース競合やパフォーマンスの変動を大幅に抑え、安定した仮想マシンの動作が確保されます。

QNAP QAI でオンプレミスの LLM をシームレスに実行

一つのデバイスで仮想化、大規模言語モデル(LLM)、直感的な UI を統合:

  • 1アプリケーションコンテナの展開

    QNAP Container Station を使用して、Docker、Kata、LXD などの複数のコンテナ化されたランタイム環境をサポートし、さまざまなタイプのアプリケーションやサービスを柔軟に展開します。

  • 2GPU 高速化コンピューティング

    コンテナ環境内でGPUアクセス許可を構成し、コンテナがQAIのGPUをAI推論やビデオ処理アクセラレーションに直接利用できるようにします。

  • 3複数の LLM をデプロイする

    Ollama を使用すると、LLaMA、DeepSeek、Qwen、Gemma などのオープンソースの大規模言語モデル(LLM)を簡単にデプロイでき、必要に応じてスイッチやモデルの更新を柔軟に行えます。

  • 4ウェブベースのインターフェースと統合する

    Anything LLM や Open WebUI のようなオープンソースのウェブインターフェースをインストールして、カスタム AI アシスタント、スマートカスタマーサービスボット、内部検索ツールを作成するためにコードを書くことなく、言語モデルと接続します。

QAI を VM バックアップサーバーに変換する

単一の QNAP QAI は、仮想化ホストと中央バックアップサーバーの両方として機能できます。

  • 1複数の仮想マシン (VM) を実行

    Virtualization Station は QNAP QuTS hero ハイパーバイザーアプリであり、単一の QAI 上で複数の Windows® または Linux® 仮想マシンを展開することができます。

  • 2VM バックアップのサポート

    独立した VM で Veeam® バックアップソフトウェアを QAI 上でインストールし、 QAI をバックアップターゲットとして設定します。これにより、VM、物理サーバー、他の NAS デバイス、クラウドサービスを含むさまざまなワークロードからのバックアップデータの集中ストレージと管理が可能になります。

  • 3CPU リソース管理

    VM バックアップタスクには集中的な CPU 計算リソースが必要です。 Virtualization Station を通じて、CPU リソースを効率的に割り当て、安定した中断のないバックアップ操作を確保できます。

多様なビジネスニーズに対応する多用途アプリケーション

  • エンタープライズ AI ナレッジハブ

    エンタープライズ AI ナレッジハブ

    NAS、LLM、RAGを組み合わせ、社内にAIを活用した検索システムを構築し、データ検索、分析、生産性を高める。

  • AI チャットボット

    AI チャットボット

    LLMを使用してインテリジェントなチャットボットにパワーを与え、より速く、より正確に応答し、顧客エンゲージメントを向上させます。

  • 仮想化サーバー

    仮想化サーバー

    社内 AI モデルの開発とテスト環境のために複数の仮想マシンを実行します。

  • VM バックアップ & データ保護

    VM バックアップとデータ保護

    Veeam® バックアップソリューションを統合して、仮想マシンデータのセキュリティを向上させます。

  • AI データストレージ & バックアップ

    AI データストレージ & バックアップ

    RAG ベースの AI ワークフローで頻繁にデータにアクセスするための高速ストレージとして、または生の AI データセットを保存します。

推奨モデル

エッジAI展開向けに設計されたQNAP AIシリーズ NAS は、NVIDIA RTX 6000またはRTX 4000 Ada Generationグラフィックスカードと組み合わせることで、AI推論、高解像度メディア処理、仮想化 において卓越した性能を発揮します。

QAI-h1290FX

  • 12ベイ U.2 NVMe / SATA オールフラッシュ NAS
  • AMD EPYC™ 7302P 16コア / 32スレッドプロセッサ搭載
  • 128GB DDR4 ECC RDIMM メモリ
  • 6台の3.84TB U.2 NVMe SSD をプリインストール
  • NVIDIA RTX 6000 Ada または RTX 4000 Ada GPU をプリインストールして提供
  • キュレーションされたオープンソースAIアプリテンプレートによる迅速な展開を可能にする Container Station など、QAI専用機能を含む
QAI-h1290FX

サポートが必要ですか?

QNAP の専門家が、ビジネスに最適な Edge AI ストレージサーバーの設計をヘルプお手伝いします。

仕様を選択

      もっと見る 閉じる

      当ページを他の国/地域で見る:

      気軽にお問い合わせ! show inquiry button
      open menu
      back to top