[Aviso Importante de Segurança] Sites falsos do Qfinder Pro detectados. Saiba mais >

Servidor de armazenamento Edge AI da QNAP

Uma plataforma de computação Edge AI abrangente integra armazenamento, virtualização e capacidade de processamento para ajudar as empresas a implementar aplicações de IA no local de forma eficiente, segura e económica — acelerando a transformação inteligente em todos os sectores.

Desafios que as empresas enfrentam na era da IA

Com o aumento da procura de GenAI, LLM e computação edge, as infraestruturas de TI tradicionais estão a deparar-se com vários estrangulamentos:

  • Elevados riscos de segurança na nuvem

    Mais de 90% das empresas referem a segurança dos dados como uma das principais preocupações aquando da implementação da IA. As implementações baseadas na nuvem expõem os dados a potenciais fugas e riscos de conformidade.

  • Aumento dos custos de implementação

    As taxas de licenciamento acumuladas para modelos de nuvem, uso de tokens, acesso à GPU, armazenamento e plataformas de virtualização aumentam significativamente o custo total de propriedade.

  • Infraestruturas fragmentadas

    Sistemas de computação e armazenamento desligados levam a uma integração morosa e a uma manutenção complexa.

  • Desempenho instável

    Uma infraestrutura partilhada faz com que os modelos de IA e as aplicações de virtualização disputem os recursos do sistema, resultando em latência e desempenho imprevisível.

  • Aumento drástico de volumes de dados

    A IA e as aplicações com utilização intensiva de dados geram um número massivo de dados, sobrecarregando a escalabilidade do armazenamento tradicional e as capacidades de gestão de dados.

Porquê escolher o servidor de armazenamento Edge AI da QNAP?

O servidor de armazenamento Edge AI da QNAP oferece uma plataforma de computação edge unificada que integra armazenamento de dados, virtualização, aceleração de GPU e E/S, e gestão de recursos de CPU. Permite às empresas implementar eficazmente aplicações de IA e dispositivos periféricos nas instalações. As empresas podem instalar a aplicação de hipervisor da QNAP — Virtualization Station — ou a plataforma de gestão de contentores Container Station no QAI para criar de forma flexível servidores de inferência de IA no local e servidores de armazenamento edge adaptados a casos de utilização específicos, que proporcionam um elevado desempenho e baixa latência.

Suporta diversas aplicações edge de IA:

  • ️Inferência de pequenos modelos de linguagem (SLM)
  • Inferência de grandes modelos de linguagem (LLM)
  • IA generativa
  • Inferência e afinação de modelos de IA
  • Fabrico inteligente e automatização industrial
  • Comércio a retalho inteligente e análise de clientes
  • Vigilância inteligente e análise de vídeo
Suporta diversas aplicações edge de IA

Controlo de dados melhorado

Todos os dados e aplicações estão alojados no local, eliminando os riscos associados à transmissão na nuvem pública e garantindo a conformidade.

Implementação e gestão simplificada

Execute armazenamento, VM, cargas de trabalho de GPU e aplicações num único QAI para minimizar a complexidade entre dispositivos.

Preparação de desempenho instantânea

A atribuição dinâmica de recursos e a aceleração de hardware garantem operações de VM e IA eficientes e sem interrupções.

Eficiência de custos

A plataforma de virtualização sem licença da QNAP reduz significativamente o custo total de propriedade a longo prazo.

Vantagens técnicas em relação à arquitetura tradicional

O servidor de armazenamento Edge AI da QNAP permite uma atribuição flexível de recursos do sistema, aceleração avançada de hardware e proteção de dados de nível empresarial, tornando-o uma plataforma ideal para computação edge.

Sistema operacional QuTS hero

Baseado em ZFS para alta confiabilidade, com integridade de dados autorrecuperável, desempenho otimizado para SSD, desduplicação online, proteção WORM imutável e salvaguardas ZIL contra perda de energia.

Container Station aprimorado

Pronto para IA com uma biblioteca de templates selecionados. Inicie ferramentas e frameworks de IA populares com um clique—sem necessidade de configuração complexa.

Aceleração de GPU facilitada

Ative o processamento por GPU selecionando uma GPU NVIDIA® ou acelerador de IA em um menu suspenso. Uma única GPU pode ser compartilhada entre vários contêineres.

GPUs profissionais NVIDIA®

A NVIDIA RTX PRO™ Blackwell oferece até 96 GB de VRAM e desempenho de IA 3× mais rápido usando precisão FP4 e DLSS 4—ideal para LLMs, IA generativa e cargas de trabalho 3D.

>100 tokens/seg inferência LLM

Com uma NVIDIA RTX PRO™ 6000 Blackwell Max-Q, testes da QNAP mostram:

  • gpt-oss:20b (MXFP4): 120+ tokens/seg
  • gpt-oss:120b (MXFP4): ~100 tokens/seg
  • deepseek-r1:70b (q4_K_M): ~24 tokens/seg

Otimizado para RAG, chatbots e inferência offline.

Alta expansibilidade PCIe

Suporta 25GbE/100GbE, Fibre Channel, interface SAS e expansão QNAP JBOD. Modelos selecionados oferecem passthrough PCIe para desempenho de VM quase nativo.

Executar LLM no local sem problemas no QAI QNAP

Integra virtualização, grande modelo de linguagem (LLM) e interface de utilizador intuitiva num único dispositivo:

  • 1Implementar contentores de aplicações

    Implemente de forma flexível vários tipos de aplicações e serviços utilizando a QNAP Container Station, que suporta vários ambientes de tempo de execução em contentores, tais como Docker, Kata e LXD.

  • 2Computação acelerada por GPU

    Configure as permissões de acesso à GPU no ambiente de contentores para permitir que os contentores utilizem diretamente a GPU do QAI para inferência de IA ou aceleração do processamento de vídeo.

  • 3Implementar vários LLM

    Utilizando o Ollama, vLLM, Llama.cppé possível implementar facilmente uma variedade de grandes modelos de linguagem (LLM) de código aberto, tais como Llama, Gemma, gpt-oss, DeepSeek, Qwen, DeepSeek, Qwen e Gemma, com a flexibilidade de trocar ou atualizar modelos conforme necessário.

  • 4 Integração com interfaces baseadas na web

    Instale interfaces web de código aberto, tais como Anything LLM ou Open WebUI, para estabelecer ligação a modelos de linguagem sem escrever código para criar assistentes de IA personalizados, bots inteligentes de apoio ao cliente ou ferramentas de pesquisa internas.

Operar como ambiente de VM ou servidor de backup

  • 1Execução de várias máquinas virtuais (VM)

    A Virtualization Station é a aplicação de hipervisor do QuTS hero QNAP e permite-lhe implementar várias máquinas virtuais Windows® ou Linux® num único QAI.

  • 2Suporte para cópia de segurança de VM

    Instale o software de cópia de segurança Veeam® numa VM independente em execução no QAI e configure o QAI como destino da cópia de segurança. Isto permite o armazenamento e a gestão centralizados dos dados de cópias de segurança de várias cargas de trabalho, incluindo máquinas virtuais, servidores físicos, outros dispositivos NAS e serviços na nuvem.

  • 3Gestão de recursos da CPU

    As tarefas de cópia de segurança de VM requerem recursos intensivos de computação da CPU. Através da Virtualization Station, pode atribuir recursos da CPU de forma eficiente e garantir operações de cópia de segurança estáveis e ininterruptas.

Aplicações versáteis para diversas necessidades empresariais

  • Centro de conhecimentos de IA para empresas

    Centro de conhecimentos de IA para empresas

    Combine NAS, LLM e RAG para criar um sistema de pesquisa interno com tecnologia de IA, melhorando a recuperação de dados, a análise e a produtividade.

  • Chatbots com IA

    Chatbots com IA

    Use LLM para criar chatbots inteligentes que respondem com mais rapidez e precisão, melhorando o envolvimento do cliente.

  • Servidor de virtualização

    Servidor de virtualização

    Implemente máquinas virtuais para executar uma ampla variedade de ambientes empresariais internos, como sistemas ERP, plataformas CMS e cargas de trabalho de testes de software.

  • Cópia de segurança e proteção de dados de VM

    Cópia de segurança e proteção de dados de VM

    Integre as soluções de cópia de segurança Veeam® para aumentar a segurança dos dados da máquina virtual.

  • Armazenamento e cópia de segurança de dados de IA

    Armazenamento e cópia de segurança de dados de IA

    Armazene conjuntos de dados de IA não processados ou utilize como armazenamento de alta velocidade para acesso frequente a dados em fluxos de trabalho de IA baseados em RAG.

Modelo recomendado

Criado especificamente para a implementação de Edge AI, o NAS QNAP Série AI, emparelhado com uma placa gráfica NVIDIA topo de gama, oferece um desempenho excecional para inferência de IA, processamento de conteúdos multimédia de alta resolução e virtualização.

QAI-h1290FX

  • NAS NVMe U.2/SATA totalmente em flash com 12 compartimentos
  • Equipado com um processador AMD EPYC™ Série 7302P 16-core/32 threads
  • 128 GB de memória DDR4 ECC RDIMM
  • Disponível com GPU de estação de trabalho NVIDIA RTX PRO™ 6000 Blackwell Max-Q
  • Inclui funcionalidades exclusivas de QAI, como a Container Station com modelos de aplicações de IA de código aberto selecionados para uma implementação rápida
QAI-h1290FX

Necessita de assistência?

Os especialistas da QNAP estão prontos para ajudá-lo a conceber o servidor de armazenamento Edge AI ideal para a sua empresa.

Escolher especificação

      Mostrar mais Menos
      Este site noutros países/regiões:
      open menu
      back to top