[Importante Sicurezza Avviso] Rilevati siti web Qfinder Pro falsi. Scopri di più >

Edge AI Storage Server di QNAP

Una piattaforma di Edge computing AI all-in-one che integra storage, virtualizzazione e potenza di calcolo per aiutare le aziende a implementare applicazioni AI on-premises in modo efficiente, sicuro e conveniente — accelerando la trasformazione smart in tutti i settori.

Le sfide che le aziende devono affrontare nell'era dell'AI

Con l'aumento della domanda di GenAI, LLM ed edge computing, le infrastrutture IT tradizionali stanno incontrando diversi colli di bottiglia:

  • Elevati rischi per la sicurezza del cloud

    Oltre il 90% delle aziende cita la sicurezza dei dati come una delle principali preoccupazioni nell'implementazione dell'AI. Le implementazioni basate sul cloud espongono i dati a potenziali fughe di informazioni e rischi di non conformità.

  • Costi di implementazione in aumento

    I costi di licenza per i modelli cloud, l'utilizzo dei token, l'accesso alle GPU, lo storage e le piattaforme di virtualizzazione aumentano significativamente il costo totale di proprietà (TCO).

  • Infrastruttura frammentata

    Sistemi di calcolo e storage separati causano integrazione dispendiosa in termini di tempo e manutenzione complessa.

  • Prestazioni instabili

    L'infrastruttura condivisa fa sì che i modelli di intelligenza artificiale e le applicazioni di virtualizzazione competano per le risorse di sistema, con conseguente latenza e prestazioni imprevedibili.

  • Volumi di dati in crescita esponenziale

    L’AI e le applicazioni ad alta intensità di dati generano enormi quantità di dati, mettendo a dura prova la scalabilità dello storage tradizionale e le capacità di gestione dei dati.

Perché scegliere QNAP Edge AI storage server?

QNAP Edge AI storage server offre una piattaforma di edge computing unificata che integra storage dei dati, virtualizzazione, accelerazione GPU e I/O e gestione delle risorse della CPU. Consente alle aziende di implementare in modo efficiente le applicazioni AI e dispositivi edge on-prem. Le aziende possono installare l'app hypervisor Virtualization Station di QNAP o la piattaforma di gestione dei container Container Station sul QAI per creare in modo flessibile server di inferenza AI on-premises e server di storage edge su misura per casi d'uso specifici, garantendo alte prestazioni e bassa latenza.

Supporta diverse applicazioni edge AI:

  • ️Inferenza di modelli linguistici di piccole dimensioni (SLM)
  • Inferenza di modelli linguistici di grandi dimensioni (LLM)
  • AI Generativa
  • Inferenza e messa a punto di modelli AI
  • Manifattura smart e automazione industriale
  • Smart retail e analisi dei clienti
  • Videosorveglianza smart e analisi video
Supporta diverse applicazioni AI edge

Controllo dei dati migliorato

Tutti i dati e le applicazioni sono ospitati in locale, eliminando i rischi associati alla trasmissione su cloud pubblico e garantendo la conformità.

Implementazione e gestione semplificate

Esegui storage, VM, workload GPU e app su un unico QAI per ridurre al minimo la complessità tra dispositivi.

Prontezza immediata delle prestazioni

L'allocazione dinamica delle risorse e l'accelerazione hardware garantiscono operazioni VM e AI fluide ed efficienti.

Efficienza dei costi

La piattaforma di virtualizzazione senza licenza di QNAP riduce significativamente il TCO a lungo termine.

Vantaggi tecnici rispetto all'architettura tradizionale

QNAP Edge AI storage server offre un'allocazione flessibile delle risorse di sistema, un'accelerazione hardware avanzata e una protezione dei dati di livello enterprise — rendendolo una piattaforma ideale per l'edge computing.

Sistema operativo QuTS hero

Basato su ZFS per un'elevata affidabilità, con integrità dati auto-riparante, prestazioni ottimizzate per SSD, deduplicazione online, protezione WORM immutabile e salvaguardie ZIL contro la perdita di alimentazione.

Container Station migliorato

Pronto per AI con una libreria di template selezionati. Avvia strumenti e framework AI popolari con un solo clic—senza configurazioni complesse.

Accelerazione GPU semplificata

Abilita il calcolo GPU selezionando una GPU NVIDIA® o un acceleratore AI da un menu a tendina. Una singola GPU può essere condivisa tra più container.

GPU professionali NVIDIA®

NVIDIA RTX PRO™ Blackwell offre fino a 96 GB di VRAM e prestazioni AI 3× superiori utilizzando la precisione FP4 e DLSS 4—ideale per LLM, AI generativa e workload 3D.

>100 token/sec inferenza LLM

Con una NVIDIA RTX PRO™ 6000 Blackwell Max-Q, i test QNAP mostrano:

  • gpt-oss:20b (MXFP4): oltre 120 token/sec
  • gpt-oss:120b (MXFP4): ~100 token/sec
  • deepseek-r1:70b (q4_K_M): ~24 token/sec

Ottimizzato per RAG, chatbot e inferenza offline.

Elevata espandibilità PCIe

Supporta 25GbE/100GbE, Fibre Channel, interfaccia SAS e espansione JBOD QNAP. Alcuni modelli offrono PCIe passthrough per prestazioni VM quasi native.

Esegui senza problemi i LLM on-prem su QAI QNAP

Integra virtualizzazione, modello linguistico di grandi dimensioni (LLM) e interfaccia utente intuitiva in un unico dispositivo:

  • 1Distribuisci container per applicazioni

    Distribuisci in modo flessibile vari tipi di applicazioni e servizi utilizzando QNAP Container Station, che supporta più ambienti di runtime containerizzati come Docker, Kata e LXD.

  • 2Calcolo accelerato dalla GPU

    Configura i permessi di accesso GPU all’interno dell’ambiente container per consentire ai container di utilizzare direttamente la GPU del QAI per l’accelerazione dell’inferenza AI o dell’elaborazione video.

  • 3Distribuisci più LLM

    Con Ollama, vLLM, Llama.cppè possibile distribuire facilmente diversi modelli linguistici di grandi dimensioni (LLM) open source, come Llama, Gemma, gpt-oss, DeepSeek, Qwen, DeepSeek, Qwen e Gemma, con la flessibilità di cambiare o aggiornare i modelli secondo necessità.

  • 4 Integrazione con interfacce basate sul web

    Installa interfacce web open source come Anything LLM o Open WebUI per collegarti ai modelli linguistici senza scrivere codice, creando assistenti AI personalizzati, chatbot smart per il servizio clienti o strumenti di ricerca interna.

Funziona come ambiente VM o server di backup

  • 1Esegui più macchine virtuali (VM)

    Virtualization Station è l'app hypervisor per QuTS hero QNAP che consente di distribuire più macchine virtuali Windows® o Linux® su un singolo QAI.

  • 2Supporto per il backup delle VM

    Installa il software di backup Veeam® su una VM indipendente in esecuzione sul QAI e configura il QAI come destinazione di backup. Ciò consente l'archiviazione e la gestione centralizzata dei dati di backup provenienti da vari carichi di lavoro, tra cui VM, server fisici, altri dispositivi NAS e servizi cloud.

  • 3Gestione delle risorse CPU

    Le attività di backup delle VM richiedono risorse di calcolo CPU intensive. Tramite Virtualization Station, è possibile allocare in modo efficiente le risorse della CPU per garantire operazioni di backup stabili e senza interruzioni.

Applicazioni versatili per diverse esigenze aziendali

  • Hub di conoscenza AI aziendale

    Hub di conoscenza AI aziendale

    Combina NAS, LLM e RAG per creare un sistema di ricerca interno basato sull’AI — migliorando il recupero dati, l'analisi e la produttività.

  • Chatbot AI

    Chatbot AI

    Utilizza gli LLM per potenziare chatbot intelligenti che rispondono rapidamente, con maggiore precisione e migliorano l’engagement dei clienti.

  • Server di virtualizzazione

    Server di virtualizzazione

    Distribuisci macchine virtuali per eseguire una vasta gamma di ambienti aziendali interni, come sistemi ERP, piattaforme CMS e workload di test software.

  • Backup VM e protezione dei dati

    Backup VM e protezione dei dati

    Integra le soluzioni di backup Veeam® per migliorare la sicurezza dei dati delle macchine virtuali.

  • Archiviazione e backup dei dati AI

    Archiviazione e backup dei dati AI

    Archivia set di dati AI grezzi o utilizza lo spazio di archiviazione ad alta velocità per l'accesso frequente ai dati nei flussi di lavoro AI basati su RAG.

Modello consigliato

Progettato appositamente per l'implementazione dell'edge AI, il NAS della serie AI di QNAP, abbinato a una scheda grafica NVIDIA di fascia alta, offre prestazioni eccezionali per l'inferenza AI, l'elaborazione multimediale ad alta risoluzione e la virtualizzazione.

QAI-h1290FX

  • NAS all-flash U.2 NVMe / SATA a 12 baie
  • Processore AMD EPYC™ 7302P 16-core / 32-thread
  • Memoria DDR4 ECC RDIMM da 128GB
  • Disponibile con GPU workstation NVIDIA RTX PRO™ 6000 Blackwell Max-Q
  • Include caratteristiche esclusive QAI, come Container Station con modelli di app AI open-source selezionati per un rapido deployment
QAI-h1290FX

Hai bisogno di assistenza?

Gli esperti QNAP sono pronti ad aiutarti a progettare l’ Edge AI storage server ideale per la tua azienda.

Scegliere le caratteristiche

      Mostra di più Meno
      Questo sito in altre nazioni/regioni
      open menu
      back to top