Pesquisa RAG
Pesquisa RAG beta
Pesquisa empresarial baseada em IA com RAG no NAS QNAP

Tire partido da RAG baseada em IA para explorar, compreender e gerar informações a partir do seu conteúdo armazenado utilizando consultas em linguagem natural — revelando conhecimentos e descobertas mais profundos.

Pesquisa RAG

Pesquisa empresarial e gestão do conhecimento melhoradas por IA

Depara-se com estes desafios?

Volume de ficheiros avassalador e sobrecarga de informação? Encontrar o documento correto é moroso e complexo.
Conhecimento fragmentado? Requer a revisão de vários ficheiros para obter informações completas.
Perda de informações e ineficiências: As pesquisas tradicionais apenas recuperam informação em vez de compreenderem as relações entre os dados.

Pesquisa empresarial e gestão do conhecimento melhoradas por IA
Pesquisa empresarial e gestão do conhecimento melhoradas por IA

O NAS QNAP é pioneiro na pesquisa RAG, transformando o seu NAS numa potência de pesquisa empresarial.

O Qsirch é um poderoso motor de pesquisa concebido exclusivamente para NAS QNAP. Além disso, integra grandes modelos de linguagem (LLM) baseados na nuvem e a tecnologia RAG (Retrieval-Augmented Generation, em português, geração aumentada por recuperação).

O NAS QNAP é pioneiro na pesquisa RAG, transformando o seu NAS numa potência de pesquisa empresarial.

O que é que a pesquisa RAG do Qsirch pode oferecer?

  • Dados mais recentes

    Dados mais recentes

  • Informações relevantes

    Informações relevantes

  • Informações resumidas

    Informações resumidas

A pesquisa RAG do Qsirch ajuda-o a encontrar, organizar e analisar rapidamente as enormes quantidades de dados armazenados no seu NAS, quer se trate de ficheiros de trabalho diários, relatórios extensos ou documentos de investigação. Obtenha as informações essenciais de que necessita numa fração do tempo:

  • Relatórios de vendas — Gera tabelas estruturadas que apresentam as receitas de vendas, a taxa de crescimento e as tendências.
  • Campanhas de marketing — Apresenta taxas de conversão, taxas de cliques e alcance do público em tabelas estruturadas.
  • Atas de reuniões — Cria resumos concisos com decisões e pontos de ação.
  • Gestão de projetos — Oferece atualizações de progresso, avaliações de risco e ligações a documentos.
  • Artigos de investigação — Extrai objetivos, metodologias e resultados da investigação.

Pesquisa empresarial flexível e fiável que simplifica a gestão do conhecimento.

Basta introduzir uma chave API ou transferir o modelo para começar. A pesquisa RAG suporta dois modos:

  • LLM baseados na nuvem: Suporta Google Gemini, OpenAI ChatGPT, Microsoft Azure OpenAI e modelos compatíveis com OpenAI, como DeepSeek e xAI Grok.
  • LLM no local: Suporta modelos de código aberto, como DeepSeek, Phi, Mistral e Gemma, para implementação local com privacidade de dados melhorada.
Seleção personalizável de LLM

Selecione pastas NAS específicas para a pesquisa RAG. Apenas o conteúdo mais relevante dos dados selecionados, com base na sua consulta de pesquisa, é enviado para análise para a LLM baseada na nuvem, melhorando a precisão e assegurando um maior controlo dos dados.

Âmbito de pesquisa de dados personalizado

A pesquisa RAG suporta vários formatos de documentos , incluindo Word, Excel, PowerPoint, PDF, e-mail e TXT, permitindo-lhe pesquisar em formatos específicos. Fornece respostas e resumos precisos, ajudando-o a compreender rapidamente as informações essenciais e a extrair informações de grandes conjuntos de dados.

Seleção flexível do formato de ficheiro

A pesquisa RAG não só fornece informações críticas, como também referências a cinco documentos relevantes, permitindo-lhe obter informações mais aprofundadas dos seus dados. Construa um centro de conhecimento robusto para acompanhamento, análise e aplicação futuros.

Informações rastreáveis

Basta introduzir uma chave API ou transferir o modelo para começar. A pesquisa RAG suporta dois modos:

  • LLM baseados na nuvem: Suporta Google Gemini, OpenAI ChatGPT, Microsoft Azure OpenAI e modelos compatíveis com OpenAI, como DeepSeek e xAI Grok.
  • LLM no local: Suporta modelos de código aberto, como DeepSeek, Phi, Mistral e Gemma, para implementação local com privacidade de dados melhorada.

Selecione pastas NAS específicas para a pesquisa RAG. Apenas o conteúdo mais relevante dos dados selecionados, com base na sua consulta de pesquisa, é enviado para análise para a LLM baseada na nuvem, melhorando a precisão e assegurando um maior controlo dos dados.

A pesquisa RAG suporta vários formatos de documentos , incluindo Word, Excel, PowerPoint, PDF, e-mail e TXT, permitindo-lhe pesquisar em formatos específicos. Fornece respostas e resumos precisos, ajudando-o a compreender rapidamente as informações essenciais e a extrair informações de grandes conjuntos de dados.

A pesquisa RAG não só fornece informações críticas, como também referências a cinco documentos relevantes, permitindo-lhe obter informações mais aprofundadas dos seus dados. Construa um centro de conhecimento robusto para acompanhamento, análise e aplicação futuros.

Seleção personalizável de LLM
Âmbito de pesquisa de dados personalizado
Seleção flexível do formato de ficheiro
Informações rastreáveis

Obtenção de conhecimentos multilingue em tempo real

  • Conversas com vários turnos

    Conversas com vários turnos

    Crie salas de conversação baseadas em tópicos com histórico guardado automaticamente ou mude para o modo temporário para maior privacidade.

  • Acesso imediato aos dados mais recentes

    Acesso imediato aos dados mais recentes

    Assegura resultados de pesquisa em tempo real, mesmo que os ficheiros do NAS sejam atualizados com frequência.

  • Pesquisa por IA multilingue

    Pesquisa por IA multilingue

    Pesquisa e obtém conteúdos em 23 línguas, permitindo o acesso fácil a informações em conjuntos de dados multilingues.

A escolha ideal para inteligência no local —

Servidor de armazenamento Edge AI da QNAP

Execute LLM localmente sem acesso à nuvem. Os servidores Edge AI da QNAP permitem-lhe implementar uma pesquisa RAG privada, segura e em tempo real utilizando os seus dados internos.

QAI-h1290FX (Coming soon)

  • Execute a IA de forma segura no local — não é necessário carregamento na nuvem
  • Suporta LLM populares: DeepSeek, Phi, Mistral, Gemma
  • GPU recomendadas: Estação de trabalho NVIDIA RTX PRO 6000 Blackwell Max-Q, RTX 6000 Ada ou RTX 4000 Ada para um desempenho ideal da IA

A implementação de LLM no local requer o Qsirch 6.0.0+, LLM Core 1.0.0 e controladores de GPU NVIDIA.

QAI-h1290FX

Aumente a produtividade com pesquisa com tecnologia de IA no NAS QNAP

Quer se trate de uma empresa que gere documentos de grandes dimensões, de um profissional que lida com relatórios extensos e dados internos ou de uma organização que procura uma solução de pesquisa rápida baseada em IA com recursos técnicos limitados, a pesquisa RAG do Qsirch proporciona uma experiência de gestão do conhecimento eficiente e inteligente.

  • Equipas de vendas e marketing

  • Engenheiros e programadores

  • Escritores e criadores de conteúdos

  • Instituições académicas e de investigação

  • Agências jurídicas e governamentais

  • Organizações de cuidados de saúde

  • Equipas de vendas e marketing

  • Engenheiros e programadores

  • Escritores e criadores de conteúdos

  • Instituições académicas e de investigação

  • Agências jurídicas e governamentais

  • Organizações de cuidados de saúde

Requisitos do sistema NAS para a pesquisa RAG

  • Qsirch 5.6.0 (ou posterior)
  • NAS de 64 bits baseado em x86 e NAS de 64 bits baseado em ARM
  • QTS 5.0.1 (ou posterior) ou QuTS hero h5.0.1 (ou posterior)
  • Mínimo de 2 GB de RAM (recomenda-se 4 GB de RAM para um desempenho adequado).

Introdução

Obtenha mais informações

Precisa de ajuda?

A QNAP está aqui para o apoiar! Resolva os desafios de armazenamento com as nossas soluções empresariais baseadas em IA.

Escolher especificação

      Mostrar mais Menos

      Este site noutros países/regiões:

      open menu
      back to top