[Important Sécurité Avis] Faux sites web Qfinder Pro détectés. En savoir plus >

Serveur de stockage Edge AI de QNAP

Plateforme informatique Edge AI tout-en-un intégrant le stockage, la virtualisation et la puissance de calcul pour permettre aux entreprises de déployer des applications d’IA efficacement, en toute sécurité et de manière économique sur sites — permettant la transformation intelligente dans tous les secteurs.

Défis que les entreprises rencontrent à l’ère de l’IA

Avec la montée en puissance de la GenAI, des LLM et de l’edge computing, les infrastructures IT traditionnelles atteignent plusieurs limites majeures, notamment :

  • Risques élevés en matière de sécurité dans le cloud

    Plus de 90 % des entreprises citent la sécurité des données comme étant leur priorité numéro 1 dans le déploiement de l'IA. Le cloud, c’est sympa, mais ça expose aussi aux risques de fuites et aux problèmes de conformité.

  • Coûts de déploiement en forte augmentation

    Entre les licences cloud, l’utilisation de tokens, l’accès GPU, le stockage et la virtualisation, la facture grimpe vite et fait exploser le TCO (coût total de possession).

  • Infrastructure fragmentée

    Des systèmes de calcul et de stockage déconnectés entraînent une intégration longue et une maintenance complexe.

  • Performance instable

    L’infrastructure partagée pousse les modèles d’IA et les applications de virtualisation à se disputer les ressources système, ce qui provoque de la latence et des performances imprévisibles.

  • Volumes de données en explosion

    Les applications d’IA et les charges de travail intensives en données génèrent d’énormes volumes, mettant à rude épreuve l’évolutivité du stockage traditionnel et les capacités de gestion des données.

Pourquoi choisir le serveur de stockage Edge AI de QNAP ?

Le serveur de stockage Edge AI de QNAP fournit une plateforme informatique unifiée en périphérie intégrant le stockage des données, la virtualisation, l'accélération de GPU et des E/S, et la gestion des ressources CPU. Il permet aux entreprises de déployer efficacement des applications d'IA et des appareils en périphérie sur sites. Les entreprises peuvent installer l'application d'hyperviseur de QNAP, Virtualization Station, ou la plateforme de gestion de conteneurs, Container Station sur le QAI pour créer, de manière flexible, des serveurs d'inférence d'IA et des serveurs de stockage en périphérie sur sites, adaptés à des cas d'utilisation spécifiques, fournissant des performances élevées et une faible latence.

Prise en charge de nombreuses applications Edge AI :

  • ️Inférence de petits modèles de langage (SLM)
  • Inférence de grands modèles de langage (LLM)
  • IA générative
  • Inférence de modèle d'IA et réglage du modèle
  • Industrie 4.0 & automatisation
  • Retail intelligent & analyse comportementale client
  • Vidéosurveillance intelligente & analyse vidéo
Prend en charge diverses applications Edge AI

Contrôle total sur les données

Toutes les données et les applications sont hébergées sur site, éliminant les risques liés aux transmissions via le cloud public et garantissant la conformité réglementaire.

Déploiement et gestion simplifiés

Un seul QAI suffit pour faire tourner le stockage, les machines virtuelles, les charges GPU et les applications, réduisant ainsi la complexité des infrastructures multi-plateformes.

Performances immédiates

Grâce à une allocation dynamique des ressources et une accélération matérielle avancée, les opérations des VM et des applications IA sont fluides et rapides.

Rentabilité

La plateforme de virtualisation sans licence de QNAP permet une réduction significativement du coût total de possession (TCO) sur le long terme.

Avantages techniques par rapport à l'architecture traditionnelle

Le serveur de stockage Edge AI de QNAP permet la répartition flexible des ressources de système, la accélération matérielle avancée et la protection des données de niveau d’entreprises - ce qui fait d’elle une plateforme idéale pour l'informatique en périphérie.

Système d’exploitation QuTS hero

Construit sur ZFS pour une fiabilité élevée, avec intégrité données auto-réparatrice, performance optimisée SSD, déduplication en ligne, protection WORM immuable et sécurités ZIL contre les pertes d’alimentation.

Container Station amélioré

Prêt pour l’IA avec une bibliothèque de modèles sélectionnés. Lancez des outils et frameworks IA populaires en un clic—aucune configuration complexe requise.

Accélération GPU facile

Activez le calcul GPU en sélectionnant un GPU NVIDIA® ou un accélérateur IA dans un menu déroulant. Un seul GPU peut être partagé entre plusieurs conteneurs.

GPUs professionnels NVIDIA®

La NVIDIA RTX PRO™ Blackwell offre jusqu’à 96 Go de VRAM et des performances IA 3× plus rapides grâce à la précision FP4 et DLSS 4—idéal pour les LLM, l’IA générative et les charges de travail 3D.

>100 tokens/sec inférence LLM

Avec une NVIDIA RTX PRO™ 6000 Blackwell Max-Q, les tests QNAP montrent :

  • gpt-oss:20b (MXFP4) : 120+ tokens/sec
  • gpt-oss:120b (MXFP4) : ~100 tokens/sec
  • deepseek-r1:70b (q4_K_M) : ~24 tokens/sec

Optimisé pour RAG, chatbots et inférence hors ligne.

Haute extensibilité PCIe

Prend en charge le 25GbE/100GbE, Fibre Channel, interface SAS et l’extension JBOD QNAP. Certains modèles proposent le PCIe passthrough pour des performances VM quasi natives.

Exécutez facilement des LLM en local sur votre QAI QNAP

Intègre la virtualisation, les grands modèles de langage (LLM) et une interface utilisateur intuitive sur un seul appareil :

  • 1Déployez des conteneurs d'applications

    Déployez divers types d'applications et de services de manière flexible en utilisant QNAP Container Station qui prend en charge plusieurs environnements d'exécution conteneurisés comme Docker, Kata et LXD.

  • 2Calcul accéléré par GPU

    Configurez les autorisations d'accès au GPU dans l'environnement de conteneur pour permettre aux conteneurs d'utiliser directement le GPU du QAI pour l'inférence IA ou l'accélération du traitement vidéo.

  • 3Déployez plusieurs LLM

    Avec Ollama, vLLM, Llama.cppvous pouvez aisément déployer une variété de grands modèles de langage (LLM) open-source, comme Llama, Gemma, gpt-oss, DeepSeek, Qwen, DeepSeek, Qwen et Gemma, avec la possibilité de changer ou de mettre à jour les modèles suivant les besoins.

  • 4 Intégration avec des interfaces web

    Installez des interfaces web open-source telles que Anything LLM ou Open WebUI pour vous connecter aux modèles de langage sans avoir à écrire de code pour créer des assistants IA personnalisés, des chatbots pour le service client intelligent ou des outils de recherche interne.

Fonctionne comme environnement VM ou serveur de sauvegarde

  • 1Exécutez plusieurs machines virtuelles (VM)

    Virtualization Station est l'application d'hyperviseur de QuTS hero QNAP qui permet de déployer plusieurs machines virtuelles Windows® ou Linux® sur un seul QAI.

  • 2Prise en charge de la sauvegarde des VM

    Installez le logiciel de sauvegarde Veeam® sur une machine virtuelle indépendante fonctionnant sur le QAI et configurez le QAI comme cible de sauvegarde. Cela permet un stockage et une gestion centralisés des données de sauvegarde provenant de diverses charges de travail dont des machines virtuelles (VM), des serveurs physiques, d'autres appareils NAS et des services cloud.

  • 3Gestion des ressources CPU

    Les tâches de sauvegarde des VM nécessitent des ressources de calcul CPU intensives. Avec Virtualization Station, vous pouvez répartir de manière efficace les ressources CPU pour assurer des opérations de sauvegarde stables et sans interruption.

Applications polyvalentes pour les divers besoins des entreprises

  • Centre de connaissances d’IA pour les entreprises

    Centre de connaissances d’IA pour les entreprises

    Combinez NAS, LLM et RAG pour créer un système de recherche interne alimenté par l’IA— améliorant la récupération des données, l’analyse et la productivité.

  • Chatbots IA

    Chatbots IA

    Utilisez les LLM pour alimenter des chatbots intelligents qui répondent plus rapidement, avec plus de précision et qui améliorent l’engagement des clients.

  • Serveur de virtualisation

    Serveur de virtualisation

    Déployez des machines virtuelles pour exécuter un large éventail d’environnements internes d’entreprise, tels que des systèmes ERP, des plateformes CMS et des charges de travail de test logiciel.

  • Sauvegarde et protection des données des VM

    Sauvegarde et protection des données des VM

    Intégrez les solutions de sauvegarde Veeam® pour augmenter la sécurité des données des machines virtuelles.

  • Stockage et sauvegarde des données d’IA

    Stockage et sauvegarde des données d’IA

    Permet de stocker des ensembles de données brutes d’IA ou peut servir de stockage à grande vitesse pour un accès fréquent aux données dans les flux de travail d’IA basés sur RAG.

Modèle recommandé

Spécialement conçu pour le déploiement de l’IA, le NAS de la série QNAP AI, associé à une carte graphique haut de gamme NVIDIA, fournit des performances exceptionnelles pour l’inférence d’IA, le traitement multimédia à haute résolution et la virtualisation.

QAI-h1290FX

  • NAS full-flash 12 baies U.2 NVMe/SATA
  • Équipé d’un processeur AMD EPYC™ 7302P à 16 cœurs / 32 threads
  • Mémoire DDR4 ECC RDIMM de 128 Go
  • Disponible avec le GPU de station de travail NVIDIA RTX PRO™ 6000 Blackwell Max-Q
  • Inclut des fonctionnalités exclusives à QAI, comme la Container Station avec des modèles d’applications d’IA en open source soigneusement sélectionnés pour un déploiement rapide
QAI-h1290FX

Vous avez besoin d'aide ?

Les experts de QNAP sont prêts à vous assister pour concevoir le serveur de stockage Edge AI idéal pour votre entreprise.

Choisissez une spécification

      En voir davantage Moins
      Ce site est disponible dans d'autres pays/régions :
      open menu
      back to top