Este conteúdo foi traduzido automaticamente. Consulte a Limitação de Responsabilidade da tradução automática.
Mudar para inglês

How to use large language models for Qsirch RAG search?
Como usar modelos de linguagem grandes para pesquisa RAG no Qsirch?


Data da última modificação: 2025-09-24

Produtos Aplicáveis

Qsirch 6.0.0 (ou posterior) em todas as plataformas


Pesquisa RAG do Qsirch com Cloude LLMs no Local

O Qsirch suporta a utilização de Geração Aumentada por Recuperação (RAG) com grandes modelos de linguagem (LLMs) baseados na nuvem para fornecer respostas precisas e com consciência de contexto. Quando insere uma consulta, o Qsirch recupera documentos relevantes do seu NAS e utiliza-os como contexto para o modelo de linguagem. Esta combinação de pesquisa e IA generativa permite ao Qsirch gerar respostas precisas e informadas com base nos seus próprios dados.

O Qsirch também suporta conversação multi-turn, permitindo interações naturais e com consciência de contexto. Os utilizadores podem fazer perguntas de seguimento sem repetir o contexto anterior, e o contexto é preservado ao longo das interações para respostas coerentes. O suporte para conversação multi-turn funciona tanto com modos RAG na nuvem como no local. 


Integrar RAG com Serviços de IA Baseados na Nuvem

Para integrar a pesquisa RAG, deve primeiro obter uma chave API de um serviço de IA à sua escolha.

ChatGPT (API OpenAI)

O ChatGPT (API OpenAI) fornece modelos GPT poderosos tanto para embeddings RAG como para respostas generativas. Siga os passos abaixo para solicitar uma chave API:

  1. Registe-se para uma conta na OpenAI: https://auth.openai.com/create-account
  2. Crie uma chave API nas definições da conta.

Para mais informações, consulte Documentação da API OpenAI.

Azure OpenAI

O Azure OpenAI fornece acesso a modelos OpenAI (como o GPT-4.1) através da infraestrutura Azure, ideal para soluções empresariais. Siga os passos abaixo para solicitar uma chave API:

  1. Inicie sessão no Portal Azure .
  2. Selecione o seu recurso OpenAI (ou crie um se ainda não tiver um).
  3. No menu à esquerda, clique em Chaves e Endpoint.
  4. Copie uma chave API e copie o endpoint (URL base) para pedidos de API.

Para mais informações, consulte  Documentação do Azure OpenAI.

Gemini (Google Cloud AI)

O Gemini (Google Cloud AI) fornece um conjunto de modelos concebidos para raciocínio de alto desempenho e RAG. Siga os passos abaixo para solicitar uma chave API:

  1. Visite o Documentação da API Google Gemini.
  2. Obtenha uma chave API Gemini no Google AI Studio.
  3. Inicie sessão na sua conta Google.
  4. Clique em Criar chave API.

Para mais informações, consulte  Documentação da Google Cloud AI.

API Compatível com OpenAI

A API Compatível com OpenAI permite aos utilizadores aceder a vários modelos de IA além das ofertas próprias da OpenAI, incluindo modelos como DeepSeek e Grok, utilizando o mesmo formato de API. Isto permite uma integração perfeita com aplicações existentes construídas para a API OpenAI. Siga os passos abaixo para solicitar uma chave de API:

  1. Escolha um fornecedor que suporte a API compatível com OpenAI (por exemplo, DeepSeek ou Grok).
  2. Registe-se na plataforma do fornecedor.
  3. Gere uma chave de API nas definições da conta.
  4. Atualize o seu endpoint de API e as definições do modelo conforme necessário.

Para mais informações, consulte a documentação oficial da API do fornecedor.


Pesquisa RAG On-Premise

Para utilizadores avançados e empresas que necessitam de total privacidade de dados ou capacidades de IA offline, o Qsirch oferece pesquisa RAG on-premise alimentada por LLMs alojados localmente. Este modo funciona inteiramente no seu NAS ou hardware conectado, sem enviar dados para serviços externos.
Nota
Esta funcionalidade está disponível apenas em modelos específicos de NAS. Para mais detalhes, consulte o introdução à pesquisa RAG no site da QNAP.

Para ativar a RAG on-premise:

  1. Certifique-se de que o LLM Core está pronto.
  2. Defina a GPU para o modo Container Station (Vá para Painel de Controlo > Hardware > Recursos de hardware > Utilização de Recursos > modo Container Station ).


Como Usar a Pesquisa RAG no Qsirch

  1. Vá para Definições > Definições Administrativas > Pesquisa RAG.

  2. Adicione um ou mais serviços de nuvem para usar a pesquisa RAG. 

  3. (Opcional) Verifique a sua chave de API. Isto ajuda a verificar se uma chave de API é válida.

  4. Descarregue um ou mais modelos Edge dos serviços on-premise. Esta funcionalidade só pode ser utilizada nos modelos específicos de NAS.

  5. Adicione mais modelos de IA que sejam compatíveis com a API OpenAI, incluindo a série GPT, modelos DeepSeek e modelos Grok.

  6. Escolha formatos de ficheiro para a sua pesquisa RAG.

  7. Vá para a página inicial do Qsirch e clique no botão de pesquisa RAG.

  8. A pesquisa RAG do Qsirch só utilizará os ficheiros incluídos em "Fonte" para a recuperação de dados.

  9. Verifique o modelo que deseja usar e depois comece a usar a pesquisa RAG.


Este artigo foi útil?

92% das pessoas acham que foi útil.
Obrigado por seu retorno.

Conte-nos como podemos melhorar este artigo:

Se quiser enviar outros comentários, escreva-os abaixo.

Escolher especificação

      Mostrar mais Menos

      Este site noutros países/regiões:

      open menu
      back to top