[Aviso importante de seguridad] Se han detectado sitios web falsos de Qfinder Pro. Más información >

Servidor de almacenamiento Edge AI de QNAP

La plataforma informática integral Edge AI integra almacenamiento, virtualización y potencia informática para ayudar a las empresas a implementar de forma eficiente, segura y rentable aplicaciones de IA en las instalaciones, lo que acelera la transformación inteligente en todos los sectores.

Desafíos a los que se enfrentan las empresas en la era de la IA

A medida que aumenta la demanda de GenAI, LLM y edge computing, las infraestructuras tradicionales de TI se están enfrentando a diversos obstáculos:

  • Altos riesgos de seguridad en la nube

    Más del 90 % de las empresas citan la seguridad de los datos como una de sus principales preocupaciones al implementar la IA. Las implementaciones basadas en la nube exponen los datos a posibles riesgos de cumplimiento y filtraciones.

  • Aumento de los costes de implementación

    El coste total de propiedad (TCO) aumenta considerablemente debido a la acumulación de cuotas de licencia para el uso de modelos en la nube, uso de tokens, acceso a GPU, almacenamiento y plataformas de virtualización.

  • Infraestructura fragmentada

    Los sistemas informáticos y de almacenamiento desconectados conllevan una integración lenta y un mantenimiento complejo.

  • Rendimiento inestable

    La infraestructura compartida hace que los modelos de IA y las aplicaciones de virtualización compitan por los recursos del sistema, lo que resulta en un aumento de la latencia y un rendimiento impredecible.

  • Explosión de los volúmenes de datos

    Las aplicaciones con un uso intensivo de datos e IA generan datos masivos, lo que pone a prueba las capacidades de gestión de los datos y la escalabilidad del almacenamiento tradicional.

¿Por qué elegir el servidor de almacenamiento Edge AI de QNAP?

El servidor de almacenamiento Edge AI de QNAP ofrece una plataforma unificada de edge computing que integra almacenamiento de datos, virtualización, aceleración de E/S y GPU y gestión de los recursos de la CPU. Permite a las empresas implementar de manera eficiente aplicaciones de IA y dispositivos periféricos en las instalaciones. Las empresas pueden instalar en el QAI la aplicación de hipervisor Virtualization Station de QNAP o la plataforma de administración de contenedores Container Station para construir de forma flexible servidores de inferencia de IA y servidores de almacenamiento de borde en las propias instalaciones adaptados a casos de uso específicos, que ofrezcan un alto rendimiento y una baja latencia.

Admite diversas aplicaciones edge AI:

  • ️Inferencia de modelos de lenguaje pequeño (SLM)
  • Inferencia de modelos de lenguaje grande (LLM)
  • IA generativa
  • Ajuste e inferencia de modelos de IA
  • Fabricación inteligente y automatización industrial
  • Tienda inteligente y análisis de clientes
  • Videovigilancia inteligente y análisis de vídeo
Admite diversas aplicaciones edge AI:

Control de datos mejorado

Todos los datos y aplicaciones se alojan en las instalaciones, lo que elimina los riesgos asociados a la transmisión a través de una nube pública y garantiza el cumplimiento.

Administración e implementación más sencillas

Ejecute el almacenamiento, las máquinas virtuales (VM), las cargas de trabajo de GPU y las aplicaciones en un único QAI para minimizar la complejidad de varios dispositivos.

Disponibilidad inmediata

La asignación dinámica de los recursos y la aceleración por hardware garantizan un funcionamiento fluido y eficiente de las máquinas virtuales (VM) y de la IA.

Asequible

La plataforma de virtualización sin licencia de QNAP reduce significativamente el TCO a largo plazo.

Ventajas técnicas con respecto a la arquitectura tradicional

El servidor de almacenamiento Edge AI de QNAP ofrece una asignación flexible de los recursos del sistema, una aceleración avanzada por hardware y una protección de los datos de clase empresarial, por lo que se trata de una plataforma ideal para edge computing.

Sistema operativo QuTS hero

Basado en ZFS para alta confiabilidad, con integridad de datos auto-reparable, rendimiento optimizado para SSD, deduplicación en línea, protección WORM inmutable y salvaguardas ZIL contra pérdida de energía.

Container Station mejorado

Preparado para IA con una biblioteca de plantillas seleccionadas. Lanza herramientas y frameworks de IA populares con un solo clic, sin necesidad de configuraciones complejas.

Aceleración de GPU sencilla

Activa el cómputo de GPU seleccionando una GPU NVIDIA® o un acelerador de IA desde un menú desplegable. Una sola GPU puede compartirse entre varios contenedores.

GPUs profesionales NVIDIA®

NVIDIA RTX PRO™ Blackwell ofrece hasta 96 GB de VRAM y un rendimiento de IA 3× más rápido usando precisión FP4 y DLSS 4, ideal para LLMs, IA generativa y cargas de trabajo 3D.

>100 tokens/seg inferencia LLM

Con una NVIDIA RTX PRO™ 6000 Blackwell Max-Q, las pruebas de QNAP muestran:

  • gpt-oss:20b (MXFP4): 120+ tokens/seg
  • gpt-oss:120b (MXFP4): ~100 tokens/seg
  • deepseek-r1:70b (q4_K_M): ~24 tokens/seg

Optimizado para RAG, chatbots e inferencia offline.

Alta capacidad de expansión PCIe

Soporta 25GbE/100GbE, Fibre Channel, interfaz SAS y expansión QNAP JBOD. Algunos modelos ofrecen PCIe passthrough para rendimiento de VM casi nativo.

Ejecute sin problemas LLM en las instalaciones en el QAI de QNAP

Integra virtualización, un modelo de lenguaje grande y una IU intuitiva en un único dispositivo:

  • 1Implemente contenedores de aplicaciones

    Implemente de forma flexible diversos tipos de aplicaciones y servicios utilizando QNAP Container Station, que admite múltiples entornos de tiempo de ejecución en contenedores como Docker, Kata y LXD.

  • 2Informática con aceleración de GPU

    Configure permisos de acceso a la GPU dentro del entorno del contenedor para permitir que los contenedores utilicen directamente la GPU del QAI para la inferencia de IA o la aceleración del procesamiento de video.

  • 3Implementar múltiples LLM

    Utilizando Ollama, vLLM, Llama.cpppuede implementar fácilmente diversos modelos de lenguaje grande (LLM) de código abierto, como Llama, Gemma, gpt-oss, DeepSeek, Qwen, DeepSeek, Qwen y Gemma, con la flexibilidad de poder cambiar o actualizar los modelos según sea necesario.

  • 4 Integración con interfaces basadas en web

    Instale interfaces web de código abierto como Anything LLM u Open WebUI para conectar con modelos de lenguaje sin necesidad de escribir código para crear asistentes de IA personalizados, bots de atención al cliente inteligentes o herramientas de búsqueda interna.

Opera como entorno de VM o servidor de respaldo

  • 1Ejecute múltiples máquinas virtuales (VM)

    Virtualization Station es la aplicación de hipervisor del QuTS hero de QNAP y le permite implementar múltiples máquinas virtuales Windows® o Linux® en un único QAI.

  • 2Compatibilidad con la copia de seguridad de VM

    Instale el software de copia de seguridad Veeam® en una VM independiente que se esté ejecutando en el QAI y configure el QAI como destino de la copia de seguridad. Esto permite almacenar y administrar de forma centralizada los datos de copia de seguridad de diversas cargas de trabajo, incluidas VM, servidores físicos, otros dispositivos NAS y servicios en la nube.

  • 3Administración de recursos de CPU

    Las tareas de copia de seguridad de VM requieren una gran cantidad de recursos informáticos de la CPU. Con Virtualization Station, puede asignar de forma eficiente los recursos de la CPU para garantizar un funcionamiento estable e ininterrumpido de las copias de seguridad.

Aplicaciones versátiles para diversas necesidades empresariales

  • Centro de conocimiento de IA empresarial

    Centro de conocimiento de IA empresarial

    Combine NAS, LLM y RAG para crear un sistema interno de búsqueda basada en IA, mejorando así la recuperación de datos, el análisis y la productividad.

  • Chatbots de IA

    Chatbots de IA

    Utilice los LLM para impulsar chatbots inteligentes que respondan con mayor rapidez y precisión y mejorar así la interacción con el cliente.

  • Servidor de virtualización

    Servidor de virtualización

    Despliega máquinas virtuales para ejecutar una amplia gama de entornos empresariales internos, como sistemas ERP, plataformas CMS y cargas de trabajo de pruebas de software.

  • Copia de seguridad de VM y protección de los datos

    Copia de seguridad de VM y protección de los datos

    Integre soluciones de copia de seguridad Veeam® para mejorar la seguridad de los datos de las máquinas virtuales.

  • Almacenamiento y copia de seguridad de los datos de IA

    Almacenamiento y copia de seguridad de los datos de IA

    Almacene conjuntos de datos de IA sin procesar o utilice almacenamiento de alta velocidad para el acceso frecuente a los datos en flujos de trabajo de IA basados en RAG.

Modelo recomendado

Diseñado específicamente para la implementación de IA en el perímetro, el NAS de la serie AI de QNAP, en combinado con una tarjeta gráfica NVIDIA de gama alta, ofrece un rendimiento excepcional para la inferencia de IA, el procesamiento de contenido multimedia de alta resolución y la virtualización.

QAI-h1290FX

  • NAS all-flash SATA / NVMe U.2 de 12 bahías
  • Equipado con un procesador AMD EPYC™ 7302P de 16 núcleos y 32 hilos
  • 128 GB de memoria RDIMM ECC DDR4
  • Disponible con la GPU de estación de trabajo NVIDIA RTX PRO™ 6000 Blackwell Max-Q
  • Incluye funciones exclusivas de QAI, como Container Station con plantillas de aplicaciones de IA de código abierto para una rápida implementación
QAI-h1290FX

¿Necesita ayuda?

Los expertos de QNAP están a su disposición para ayudarle a diseñar el servidor de almacenamiento Edge AI ideal para su empresa.

Elija especificación

      Mostrar más Mostrar menos
      Este portal en otros países / regiones:
      open menu
      back to top