Ce contenu est traduit automatiquement. Veuillez consulter la Clause de non-responsabilité relative à la traduction automatique.
Overschakelen naar Engels

How to use large language models for Qsirch RAG search?
Comment utiliser les grands modèles de langage pour la recherche Qsirch RAG ?


Date de la dernière modification : 2025-09-24

Produits Applicables

Qsirch 6.0.0 (ou version ultérieure) sur toutes les plateformes


Qsirch RAG Search avec Cloudet LLMs sur site

Qsirch prend en charge l'utilisation de la génération augmentée par récupération (RAG) avec des modèles de langage de grande taille (LLM) basés sur le cloud pour fournir des réponses précises et contextuelles. Lorsque vous entrez une requête, Qsirch récupère les documents pertinents de votre NAS et les utilise comme contexte pour le modèle de langage. Cette combinaison de recherche et d'IA générative permet à Qsirch de générer des réponses précises et informées basées sur vos propres données.

Qsirch prend également en charge la conversation multi-tours, permettant des interactions naturelles et contextuelles. Les utilisateurs peuvent poser des questions de suivi sans répéter le contexte précédent, et le contexte est préservé d'un tour à l'autre pour des réponses cohérentes. La prise en charge de la conversation multi-tours fonctionne avec les modes RAG cloud et sur site. 


Intégrer RAG avec les services d'IA basés sur le cloud

Pour intégrer la recherche RAG, vous devez d'abord obtenir une clé API d'un service d'IA de votre choix.

ChatGPT (API OpenAI)

ChatGPT (API OpenAI) fournit des modèles GPT puissants pour les embeddings RAG et les réponses génératives. Suivez les étapes ci-dessous pour demander une clé API :

  1. Inscrivez-vous pour un compte sur OpenAI : https://auth.openai.com/create-account
  2. Créez une clé API dans les paramètres du compte.

Pour plus d'informations, voir Documentation de l'API OpenAI.

Azure OpenAI

Azure OpenAI offre un accès aux modèles OpenAI (comme GPT-4.1) via l'infrastructure Azure, idéale pour les solutions d'entreprise. Suivez les étapes ci-dessous pour demander une clé API :

  1. Connectez-vous au Portail Azure.
  2. Sélectionnez votre ressource OpenAI (ou créez-en une si vous n'en avez pas déjà une).
  3. Dans le menu de gauche, cliquez sur Clés et Point de terminaison.
  4. Copiez une clé API et copiez le point de terminaison (URL de base) pour les requêtes API.

Pour plus d'informations, voir  Documentation Azure OpenAI.

Gemini (Google Cloud AI)

Gemini (Google Cloud AI) fournit un ensemble de modèles conçus pour un raisonnement haute performance et RAG. Suivez les étapes ci-dessous pour demander une clé API :

  1. Visitez le Documentation de l'API Google Gemini.
  2. Obtenez une clé API Gemini dans Google AI Studio.
  3. Connectez-vous à votre compte Google.
  4. Cliquez sur Créer une clé API.

Pour plus d'informations, voir  Documentation de Google Cloud AI.

API compatible avec OpenAI

L'API compatible avec OpenAI permet aux utilisateurs d'accéder à divers modèles d'IA au-delà des offres propres d'OpenAI, y compris des modèles comme DeepSeek et Grok, en utilisant le même format d'API. Cela permet une intégration transparente avec les applications existantes conçues pour l'API OpenAI. Suivez les étapes ci-dessous pour demander une clé API :

  1. Choisissez un fournisseur qui prend en charge l'API compatible avec OpenAI (par exemple, DeepSeek ou Grok).
  2. Inscrivez-vous sur la plateforme du fournisseur.
  3. Générez une clé API dans les paramètres du compte.
  4. Mettez à jour votre point de terminaison API et les paramètres du modèle selon les besoins.

Pour plus d'informations, consultez la documentation officielle de l'API du fournisseur.


Recherche RAG sur site

Pour les utilisateurs avancés et les entreprises qui nécessitent une confidentialité totale des données ou des capacités d'IA hors ligne, Qsirch propose une recherche RAG sur site alimentée par des LLM hébergés localement. Ce mode fonctionne entièrement sur votre NAS ou matériel connecté, sans envoyer de données à des services externes.
Remarque
Cette fonctionnalité est uniquement disponible sur certains modèles de NAS. Pour plus de détails, consultez le introduction à la recherche RAG sur le site Web de QNAP.

Pour activer la recherche RAG sur site :

  1. Assurez-vous que le noyau LLM est prêt.
  2. Réglez le GPU sur le mode Container Station (Accédez à Panneau de configuration > Matériel > Ressources matérielles > Utilisation des ressources > mode Container Station ).


Comment utiliser la recherche RAG dans Qsirch

  1. Accédez à Paramètres > Paramètre administratif > Recherche RAG.

  2. Ajoutez un ou plusieurs services cloud pour utiliser la recherche RAG. 

  3. (Optionnel) Vérifiez votre clé API. Cela aide à vérifier si une clé API est valide.

  4. Téléchargez un ou plusieurs modèles Edge à partir des services sur site. Cette fonctionnalité ne peut être utilisée que sur les modèles de NAS spécifiques.

  5. Ajoutez plus de modèles d'IA compatibles avec l'API OpenAI, y compris la série GPT, les modèles DeepSeek et les modèles Grok.

  6. Choisissez les formats de fichiers pour votre recherche RAG.

  7. Accédez à la page d'accueil de Qsirch et cliquez sur le bouton de recherche RAG.

  8. La recherche RAG de Qsirch n'utilisera que les fichiers inclus dans "Source" pour la récupération de données.

  9. Vérifiez le modèle que vous souhaitez utiliser, puis commencez à utiliser la recherche RAG.


Est-ce que cet article a été utile ?

92% des utilisateurs pensent que ces informations sont utiles.
Merci pour votre commentaire.

Veuillez nous indiquer comment améliorer cet article :

Si vous souhaitez fournir un commentaire supplémentaire, veuillez l’inclure ci-dessous.

Choisissez une spécification

      En voir davantage Moins

      Ce site est disponible dans d'autres pays/régions :

      open menu
      back to top