Servidor de armazenamento Edge AI da QNAP

Uma plataforma de computação Edge AI abrangente integra armazenamento, virtualização e capacidade de processamento para ajudar as empresas a implementar aplicações de IA no local de forma eficiente, segura e económica — acelerando a transformação inteligente em todos os sectores.

Desafios que as empresas enfrentam na era da IA

Com o aumento da procura de GenAI, LLM e computação edge, as infraestruturas de TI tradicionais estão a deparar-se com vários estrangulamentos:

  • Elevados riscos de segurança na nuvem

    Mais de 90% das empresas referem a segurança dos dados como uma das principais preocupações aquando da implementação da IA. As implementações baseadas na nuvem expõem os dados a potenciais fugas e riscos de conformidade.

  • Aumento dos custos de implementação

    As taxas de licenciamento acumuladas para modelos de nuvem, uso de tokens, acesso à GPU, armazenamento e plataformas de virtualização aumentam significativamente o custo total de propriedade.

  • Infraestruturas fragmentadas

    Sistemas de computação e armazenamento desligados levam a uma integração morosa e a uma manutenção complexa.

  • Desempenho instável

    Uma infraestrutura partilhada faz com que os modelos de IA e as aplicações de virtualização disputem os recursos do sistema, resultando em latência e desempenho imprevisível.

  • Aumento drástico de volumes de dados

    A IA e as aplicações com utilização intensiva de dados geram um número massivo de dados, sobrecarregando a escalabilidade do armazenamento tradicional e as capacidades de gestão de dados.

Porquê escolher o servidor de armazenamento Edge AI da QNAP?

O servidor de armazenamento Edge AI da QNAP oferece uma plataforma de computação edge unificada que integra armazenamento de dados, virtualização, aceleração de GPU e E/S, e gestão de recursos de CPU. Permite às empresas implementar eficazmente aplicações de IA e dispositivos periféricos nas instalações. As empresas podem instalar a aplicação de hipervisor da QNAP — Virtualization Station — ou a plataforma de gestão de contentores Container Station no QAI para criar de forma flexível servidores de inferência de IA no local e servidores de armazenamento edge adaptados a casos de utilização específicos, que proporcionam um elevado desempenho e baixa latência.

Suporta diversas aplicações edge de IA:

  • ️Inferência de pequenos modelos de linguagem (SLM)
  • Inferência de grandes modelos de linguagem (LLM)
  • IA generativa
  • Inferência e afinação de modelos de IA
  • Fabrico inteligente e automatização industrial
  • Comércio a retalho inteligente e análise de clientes
  • Vigilância inteligente e análise de vídeo
Suporta diversas aplicações edge de IA

Controlo de dados melhorado

Todos os dados e aplicações estão alojados no local, eliminando os riscos associados à transmissão na nuvem pública e garantindo a conformidade.

Implementação e gestão simplificada

Execute armazenamento, VM, cargas de trabalho de GPU e aplicações num único QAI para minimizar a complexidade entre dispositivos.

Preparação de desempenho instantânea

A atribuição dinâmica de recursos e a aceleração de hardware garantem operações de VM e IA eficientes e sem interrupções.

Eficiência de custos

A plataforma de virtualização sem licença da QNAP reduz significativamente o custo total de propriedade a longo prazo.

Vantagens técnicas em relação à arquitetura tradicional

O servidor de armazenamento Edge AI da QNAP permite uma atribuição flexível de recursos do sistema, aceleração avançada de hardware e proteção de dados de nível empresarial, tornando-o uma plataforma ideal para computação edge.

Atribuição de recursos específicos

Utilize a Virtualization Station para atribuir CPU, memória e largura de banda de rede a máquinas virtuais (VM) específicas, evitando conflitos de recursos.

Aceleração de GPU para cargas de trabalho de IA

Ative a passagem da GPU para atribuir GPU físicas às VM a fim de obter uma inferência de IA e um processamento gráfico mais rápidos.

SR-IOV para uma rede otimizada

Fornece máquinas virtuais com canais NIC diretos, reduzindo a latência da rede e a sobrecarga de largura de banda.

Passagem de PCIe de elevado desempenho

Atribua placas gráficas, placas de rede ou controladores de armazenamento diretamente a VM para obter um desempenho de hardware quase nativo.

Expansão de armazenamento escalável

É compatível com o bastidor de expansão de armazenamento SAS/FC para responder às crescentes necessidades de armazenamento de IA e virtualização.

Proteção de dados empresariais

Construído em ZFS, suporta RAID, instantâneos, imutabilidade dos dados (WORM), eliminação de duplicados e otimização de SSD.

Otimize o desempenho da VM com uma atribuição precisa de recursos

  • Tecnologia de aceleração avançada
    Tecnologia de passagem (Passthrough)

    Atribua diretamente recursos físicos de GPU, NIC ou outros dispositivos PCIe a máquinas virtuais designadas, minimizando a sobrecarga do hipervisor para obter um desempenho mais estável e menor latência.

    • Passagem de GPU
    • Passagem de PCIe
  • Atribuição otimizada de recursos
    Gestão de recursos da CPU

    Com a gestão de recursos da CPU (suportada brevemente), pode atribuir threads de CPU dedicados a máquinas virtuais específicas (isolamento da CPU), assegurando um funcionamento estável e independente da VM e reduzindo significativamente a contenção de recursos e as flutuações de desempenho entre VM e outras aplicações.

Executar LLM no local sem problemas no QAI QNAP

Integra virtualização, grande modelo de linguagem (LLM) e interface de utilizador intuitiva num único dispositivo:

  • 1Implementar contentores de aplicações

    Implemente de forma flexível vários tipos de aplicações e serviços utilizando a QNAP Container Station, que suporta vários ambientes de tempo de execução em contentores, tais como Docker, Kata e LXD.

  • 2Computação acelerada por GPU

    Configure as permissões de acesso à GPU no ambiente de contentores para permitir que os contentores utilizem diretamente a GPU do QAI para inferência de IA ou aceleração do processamento de vídeo.

  • 3Implementar vários LLM

    Utilizando o Ollama, é possível implementar facilmente uma variedade de grandes modelos de linguagem (LLM) de código aberto, tais como LLaMA, DeepSeek, Qwen e Gemma, com a flexibilidade de trocar ou atualizar modelos conforme necessário.

  • 4 Integração com interfaces baseadas na web

    Instale interfaces web de código aberto, tais como Anything LLM ou Open WebUI, para estabelecer ligação a modelos de linguagem sem escrever código para criar assistentes de IA personalizados, bots inteligentes de apoio ao cliente ou ferramentas de pesquisa internas.

Transformar o seu QAI num servidor de cópia de segurança de VM

Um único QAI QNAP pode servir tanto como um anfitrião de virtualização como um servidor de cópia de segurança central.

  • 1Execução de várias máquinas virtuais (VM)

    A Virtualization Station é a aplicação de hipervisor do QuTS hero QNAP e permite-lhe implementar várias máquinas virtuais Windows® ou Linux® num único QAI.

  • 2Suporte para cópia de segurança de VM

    Instale o software de cópia de segurança Veeam® numa VM independente em execução no QAI e configure o QAI como destino da cópia de segurança. Isto permite o armazenamento e a gestão centralizados dos dados de cópias de segurança de várias cargas de trabalho, incluindo máquinas virtuais, servidores físicos, outros dispositivos NAS e serviços na nuvem.

  • 3Gestão de recursos da CPU

    As tarefas de cópia de segurança de VM requerem recursos intensivos de computação da CPU. Através da Virtualization Station, pode atribuir recursos da CPU de forma eficiente e garantir operações de cópia de segurança estáveis e ininterruptas.

Aplicações versáteis para diversas necessidades empresariais

  • Centro de conhecimentos de IA para empresas

    Centro de conhecimentos de IA para empresas

    Combine NAS, LLM e RAG para criar um sistema de pesquisa interno com tecnologia de IA, melhorando a recuperação de dados, a análise e a produtividade.

  • Chatbots com IA

    Chatbots com IA

    Use LLM para criar chatbots inteligentes que respondem com mais rapidez e precisão, melhorando o envolvimento do cliente.

  • Servidor de virtualização

    Servidor de virtualização

    Execute várias máquinas virtuais para ambientes internos de desenvolvimento e teste de modelos de IA.

  • Cópia de segurança e proteção de dados de VM

    Cópia de segurança e proteção de dados de VM

    Integre as soluções de cópia de segurança Veeam® para aumentar a segurança dos dados da máquina virtual.

  • Armazenamento e cópia de segurança de dados de IA

    Armazenamento e cópia de segurança de dados de IA

    Armazene conjuntos de dados de IA não processados ou utilize como armazenamento de alta velocidade para acesso frequente a dados em fluxos de trabalho de IA baseados em RAG.

Modelo recomendado

Criado especificamente para a implementação de Edge AI, o NAS QNAP Série AI, em conjunto com uma placa gráfica NVIDIA RTX 6000 ou RTX 4000 Ada Generation, oferece um desempenho excecional para inferência de IA, processamento de conteúdos multimédia de alta resolução e virtualização.

QAI-h1290FX

  • NAS NVMe U.2/SATA totalmente em flash com 12 compartimentos
  • Equipado com um processador AMD EPYC™ Série 7302P 16-core/32 threads
  • 128 GB de memória DDR4 ECC RDIMM
  • Pré-instalado com seis SSD U.2 NVMe de 3,84 TB
  • Disponível com uma GPU NVIDIA RTX 6000 Ada ou RTX 4000 Ada pré-instalada
  • Inclui funcionalidades exclusivas de QAI, como a Container Station com modelos de aplicações de IA de código aberto selecionados para uma implementação rápida
QAI-h1290FX

Necessita de assistência?

Os especialistas da QNAP estão prontos para ajudá-lo a conceber o servidor de armazenamento Edge AI ideal para a sua empresa.

Escolher especificação

      Mostrar mais Menos

      Este site noutros países/regiões:

      open menu
      back to top