Edge AI Storage Server di QNAP

Una piattaforma di Edge computing AI all-in-one che integra storage, virtualizzazione e potenza di calcolo per aiutare le aziende a implementare applicazioni AI on-premises in modo efficiente, sicuro e conveniente — accelerando la trasformazione smart in tutti i settori.

Le sfide che le aziende devono affrontare nell'era dell'AI

Con l'aumento della domanda di GenAI, LLM ed edge computing, le infrastrutture IT tradizionali stanno incontrando diversi colli di bottiglia:

  • Elevati rischi per la sicurezza del cloud

    Oltre il 90% delle aziende cita la sicurezza dei dati come una delle principali preoccupazioni nell'implementazione dell'AI. Le implementazioni basate sul cloud espongono i dati a potenziali fughe di informazioni e rischi di non conformità.

  • Costi di implementazione in aumento

    I costi di licenza per i modelli cloud, l'utilizzo dei token, l'accesso alle GPU, lo storage e le piattaforme di virtualizzazione aumentano significativamente il costo totale di proprietà (TCO).

  • Infrastruttura frammentata

    Sistemi di calcolo e storage separati causano integrazione dispendiosa in termini di tempo e manutenzione complessa.

  • Prestazioni instabili

    L'infrastruttura condivisa fa sì che i modelli di intelligenza artificiale e le applicazioni di virtualizzazione competano per le risorse di sistema, con conseguente latenza e prestazioni imprevedibili.

  • Volumi di dati in crescita esponenziale

    L’AI e le applicazioni ad alta intensità di dati generano enormi quantità di dati, mettendo a dura prova la scalabilità dello storage tradizionale e le capacità di gestione dei dati.

Perché scegliere QNAP Edge AI storage server?

QNAP Edge AI storage server offre una piattaforma di edge computing unificata che integra storage dei dati, virtualizzazione, accelerazione GPU e I/O e gestione delle risorse della CPU. Consente alle aziende di implementare in modo efficiente le applicazioni AI e dispositivi edge on-prem. Le aziende possono installare l'app hypervisor Virtualization Station di QNAP o la piattaforma di gestione dei container Container Station sul QAI per creare in modo flessibile server di inferenza AI on-premises e server di storage edge su misura per casi d'uso specifici, garantendo alte prestazioni e bassa latenza.

Supporta diverse applicazioni edge AI:

  • ️Inferenza di modelli linguistici di piccole dimensioni (SLM)
  • Inferenza di modelli linguistici di grandi dimensioni (LLM)
  • AI Generativa
  • Inferenza e messa a punto di modelli AI
  • Manifattura smart e automazione industriale
  • Smart retail e analisi dei clienti
  • Videosorveglianza smart e analisi video
Supporta diverse applicazioni AI edge

Controllo dei dati migliorato

Tutti i dati e le applicazioni sono ospitati in locale, eliminando i rischi associati alla trasmissione su cloud pubblico e garantendo la conformità.

Implementazione e gestione semplificate

Esegui storage, VM, workload GPU e app su un unico QAI per ridurre al minimo la complessità tra dispositivi.

Prontezza immediata delle prestazioni

L'allocazione dinamica delle risorse e l'accelerazione hardware garantiscono operazioni VM e AI fluide ed efficienti.

Efficienza dei costi

La piattaforma di virtualizzazione senza licenza di QNAP riduce significativamente il TCO a lungo termine.

Vantaggi tecnici rispetto all'architettura tradizionale

QNAP Edge AI storage server offre un'allocazione flessibile delle risorse di sistema, un'accelerazione hardware avanzata e una protezione dei dati di livello enterprise — rendendolo una piattaforma ideale per l'edge computing.

Allocazione dedicata delle risorse

Utilizza Virtualization Station per assegnare CPU, memoria e larghezza di banda di rete a macchine virtuali (VM) specifiche, prevenendo conflitti di risorse.

Accelerazione GPU per workload AI

Abilita il passthrough GPU per assegnare GPU fisiche alle VM, accelerando l'inferenza AI e l'elaborazione grafica.

SR-IOV per una rete ottimizzata

Fornisce alle macchine virtuali canali NIC diretti, riducendo la latenza di rete e l’overhead di larghezza di banda

Passthrough PCIe ad alte prestazioni

Assegna direttamente alle VM schede grafiche, schede di rete o controller storage, ottenendo prestazioni hardware quasi native.

Espansione dello storage scalabile

Supporta l'espansione dello storage SAS / FC per soddisfare le crescenti esigenze di storage per AI e virtualizzazione.

Protezione dei dati aziendali

Basato su ZFS, supporta RAID, snapshot,immutabilità dei dati (WORM), deduplica dei dati e ottimizzazione SSD.

Sblocca le prestazioni delle VM con un'allocazione precisa delle risorse

  • Tecnologia avanzata di accelerazione
    Tecnologia Passthrough

    Assegna direttamente GPU fisiche, NIC o altri dispositivi PCIe alle macchine virtuali designate, riducendo al minimo l’overhead dell'hypervisor per prestazioni più stabili e latenza inferiore.

    • Passthrough GPU
    • Passthrough PCIe
  • Allocazione ottimizzata delle risorse
    Gestione delle risorse CPU

    Con la gestione delle risorse CPU (supportata a breve), è possibile assegnare thread CPU dedicati a macchine virtuali specifiche (isolamento CPU), garantendo un funzionamento stabile e indipendente delle VM e riducendo significativamente il contenzioso delle risorse e le fluttuazioni delle prestazioni tra le VM e altre applicazioni.

Esegui senza problemi i LLM on-prem su QAI QNAP

Integra virtualizzazione, modello linguistico di grandi dimensioni (LLM) e interfaccia utente intuitiva in un unico dispositivo:

  • 1Distribuisci container per applicazioni

    Distribuisci in modo flessibile vari tipi di applicazioni e servizi utilizzando QNAP Container Station, che supporta più ambienti di runtime containerizzati come Docker, Kata e LXD.

  • 2Calcolo accelerato dalla GPU

    Configura i permessi di accesso GPU all’interno dell’ambiente container per consentire ai container di utilizzare direttamente la GPU del QAI per l’accelerazione dell’inferenza AI o dell’elaborazione video.

  • 3Distribuisci più LLM

    Con Ollama, è possibile distribuire facilmente diversi modelli linguistici di grandi dimensioni (LLM) open source, come LLaMA, DeepSeek, Qwen e Gemma, con la flessibilità di cambiare o aggiornare i modelli secondo necessità.

  • 4 Integrazione con interfacce basate sul web

    Installa interfacce web open source come Anything LLM o Open WebUI per collegarti ai modelli linguistici senza scrivere codice, creando assistenti AI personalizzati, chatbot smart per il servizio clienti o strumenti di ricerca interna.

Trasforma il tuo QAI in un server di backup VM

Un singolo QAI QNAP può fungere sia da host di virtualizzazione che da server di backup centrale.

  • 1Esegui più macchine virtuali (VM)

    Virtualization Station è l'app hypervisor per QuTS hero QNAP che consente di distribuire più macchine virtuali Windows® o Linux® su un singolo QAI.

  • 2Supporto per il backup delle VM

    Installa il software di backup Veeam® su una VM indipendente in esecuzione sul QAI e configura il QAI come destinazione di backup. Ciò consente l'archiviazione e la gestione centralizzata dei dati di backup provenienti da vari carichi di lavoro, tra cui VM, server fisici, altri dispositivi NAS e servizi cloud.

  • 3Gestione delle risorse CPU

    Le attività di backup delle VM richiedono risorse di calcolo CPU intensive. Tramite Virtualization Station, è possibile allocare in modo efficiente le risorse della CPU per garantire operazioni di backup stabili e senza interruzioni.

Applicazioni versatili per diverse esigenze aziendali

  • Hub di conoscenza AI aziendale

    Hub di conoscenza AI aziendale

    Combina NAS, LLM e RAG per creare un sistema di ricerca interno basato sull’AI — migliorando il recupero dati, l'analisi e la produttività.

  • Chatbot AI

    Chatbot AI

    Utilizza gli LLM per potenziare chatbot intelligenti che rispondono rapidamente, con maggiore precisione e migliorano l’engagement dei clienti.

  • Server di virtualizzazione

    Server di virtualizzazione

    Esegui più macchine virtuali per ambienti di sviluppo e test di modelli AI interni.

  • Backup VM e protezione dei dati

    Backup VM e protezione dei dati

    Integra le soluzioni di backup Veeam® per migliorare la sicurezza dei dati delle macchine virtuali.

  • Archiviazione e backup dei dati AI

    Archiviazione e backup dei dati AI

    Archivia set di dati AI grezzi o utilizza lo spazio di archiviazione ad alta velocità per l'accesso frequente ai dati nei flussi di lavoro AI basati su RAG.

Modello consigliato

Progettato appositamente per l'implementazione dell'edge AI, il NAS della serie AI di QNAP, abbinato alla scheda grafica NVIDIA RTX 6000 o RTX 4000 Ada Generation, offre prestazioni eccezionali per l'inferenza AI, l'elaborazione multimediale ad alta risoluzione e la virtualizzazione.

QAI-h1290FX

  • NAS all-flash U.2 NVMe / SATA a 12 baie
  • Processore AMD EPYC™ 7302P 16-core / 32-thread
  • Memoria DDR4 ECC RDIMM da 128GB
  • Preinstallato con sei SSD U.2 NVMe da 3,84TB ciascuno
  • Disponibile con GPU NVIDIA RTX 6000 Ada o RTX 4000 Ada preinstallata
  • Include caratteristiche esclusive QAI, come Container Station con modelli di app AI open-source selezionati per un rapido deployment
QAI-h1290FX

Hai bisogno di assistenza?

Gli esperti QNAP sono pronti ad aiutarti a progettare l’ Edge AI storage server ideale per la tua azienda.

Scegliere le caratteristiche

      Mostra di più Meno

      Questo sito in altre nazioni/regioni

      open menu
      back to top