このコンテンツは、機械翻訳で翻訳されています。機械翻訳の免責条項をご覧ください。
英語に切り替える

How to use large language models for Qsirch RAG search?
Qsirch RAG 検索で大規模言語モデルを使用する方法は?


最終更新日: 2025-09-24

対象製品

すべてのプラットフォームでの Qsirch 6.0.0(以降)


クラウドを使用した Qsirch RAG 検索およびオンプレミス LLM

Qsirch は、クラウドベースの大規模言語モデル(LLM)を使用した検索強化生成(RAG)をサポートし、正確でコンテキストに基づいた応答を提供します。クエリを入力すると、Qsirch は NAS から関連するドキュメントを取得し、それらを言語モデルのコンテキストとして使用します。この検索と生成 AI の組み合わせにより、Qsirch は自身のデータに基づいた正確で情報に基づいた回答を生成できます。

Qsirch はまた、マルチターン会話をサポートし、自然でコンテキストに基づいた対話を可能にします。ユーザーは以前のコンテキストを繰り返すことなくフォローアップの質問をすることができ、コンテキストはターンをまたいで保持され、一貫した回答が得られます。マルチターン会話のサポートは、クラウドとオンプレミスの両方の RAG モードで機能します。


クラウドベースの AI サービスと RAG を統合

RAG 検索を統合するには、まず選択した AI サービスから API キーを取得する必要があります。

ChatGPT (OpenAI API)

ChatGPT (OpenAI API) は、RAG 埋め込みと生成応答の両方に強力な GPT モデルを提供します。API キーを申請するには、以下の手順に従ってください。

  1. OpenAI にアカウントを登録する: https://auth.openai.com/create-account
  2. アカウント設定で API キーを作成します。

詳細については、OpenAI API ドキュメントを参照してください。

Azure OpenAI

Azure OpenAI は、Azure インフラストラクチャを介して OpenAI モデル(GPT-4.1 など)へのアクセスを提供し、エンタープライズソリューションに最適です。API キーを申請するには、以下の手順に従ってください。

  1. Azure ポータルにサインインします。
  2. OpenAI リソースを選択します(まだ持っていない場合は作成します)。
  3. 左側のメニューでクリックしますキーとエンドポイント。
  4. API キーをコピーし、API リクエストのエンドポイント(ベース URL)をコピーします。

詳細については、 Azure OpenAI ドキュメントを参照してください。

Gemini (Google Cloud AI)

Gemini (Google Cloud AI) は、高性能な推論と RAG のために設計されたモデルセットを提供します。API キーを申請するには、以下の手順に従ってください。

  1. Google Gemini API ドキュメントを訪問します。
  2. Google AI Studio で Gemini API キーを取得します。
  3. Google アカウントにサインインします。
  4. クリックしますAPI キーを作成。

詳細については、 Google Cloud AI ドキュメントを参照してください。

OpenAI 互換 API

OpenAI 互換 API は、DeepSeek や Grok などのモデルを含む、OpenAI の提供するもの以外のさまざまな AI モデルにアクセスすることを可能にします。同じ API 形式を使用することで、OpenAI API 用に構築された既存のアプリケーションとシームレスに統合できます。API キーを申請するには、以下の手順に従ってください:

  1. OpenAI 互換 API をサポートするプロバイダーを選択します(例:DeepSeek や Grok)。
  2. プロバイダーのプラットフォームでサインアップします。
  3. アカウント設定で API キーを生成します。
  4. 必要に応じて API エンドポイントとモデル設定を更新します。

詳細については、プロバイダーの公式 API ドキュメントを参照してください。


オンプレミス RAG 検索

完全なデータプライバシーやオフライン AI 機能を必要とする高度なユーザーや企業向けに、Qsirch はローカルにホストされた LLM によるオンプレミス RAG 検索を提供します。このモードは、データを外部サービスに送信することなく、NAS または接続されたハードウェア上で完全に動作します。
注意
この機能は特定の NAS モデルでのみ利用可能です。詳細は QNAP のウェブサイトでRAG 検索の紹介をご覧ください。

オンプレミス RAG を有効にするには:

  1. LLM コアが準備完了であることを確認します。
  2. GPU を Container Station モードに設定します(移動先:コントロールパネル > ハードウェア > ハードウェアリソース > リソース使用 > Container Station モード)。


Qsirch で RAG 検索を使用する方法

  1. 移動先:設定 > 管理設定 > RAG 検索。

  2. RAG 検索を使用するために 1 つ以上のクラウドサービスを追加します。 

  3. (オプション)API キーを確認します。これにより、API キーが有効かどうかを確認できます。

  4. オンプレミスサービスから 1 つ以上のエッジモデルをダウンロードします。この機能は特定の NAS モデルでのみ使用できます。

  5. GPT シリーズ、DeepSeek モデル、Grok モデルを含む、OpenAI API と互換性のある AI モデルを追加します。

  6. RAG 検索のためのファイル形式を選択します。

  7. Qsirch のホームページに移動し、RAG 検索ボタンをクリックします。

  8. Qsirch RAG 検索は、データ取得のために「ソース」に含まれるファイルのみを使用します。

  9. 使用したいモデルを確認し、RAG 検索を開始します。


この記事は役に立ちましたか?

92% の人が、これは役に立つと思っています。
ご意見をいただき、ありがとうございます。

この記事の改善箇所をお知らせください。

その他のフィードバックがある場合は、以下に入力してください。

仕様を選択

      もっと見る 閉じる

      当ページを他の国/地域で見る:

      気軽にお問い合わせ! show inquiry button
      open menu
      back to top