QNAP Edge AI-opslagserver

Een alles-in-één Edge AI-computerplatform integreert opslag, virtualisatie en computerkracht om bedrijven te helpen op efficiënte, veilige en kosteneffectieve wijze AI-toepassingen op locatie te implementeren, waardoor slimme transformatie in verschillende branches wordt versneld.

Uitdagingen waarmee ondernemingen in het AI-tijdperk worden geconfronteerd

Aangezien GenAI, LLM en edge-computing steeds meer eisen stellen, komen traditionele IT-infrastructuren in aanraking met diverse knelpunten:

  • Grote veiligheidsrisico's in de cloud

    Meer dan 90% van de bedrijven noemt gegevensbeveiliging als een van de belangrijkste aandachtspunten bij de implementatie van AI. Cloudgebaseerde implementaties stellen gegevens bloot aan potentiële lekken en risico's op het gebied van naleving.

  • Stijgende implementatiekosten

    Gestapelde licentiekosten voor cloudmodellen, tokengebruik, GPU-toegang, opslag en virtualisatieplatformen zorgen voor een aanzienlijke verhoging van de totale eigendomskosten (TCO).

  • Gefragmenteerde infrastructuur

    Losgekoppelde computer- en opslagsystemen leiden tot tijdrovende integratie en complex onderhoud.

  • Instabiele prestaties

    Gedeelde infrastructuur maakt dat AI-modellen en virtualisatietoepassingen concurreren om systeembronnen, wat leidt tot latentie en onvoorspelbare prestaties.

  • Exploderende gegevensvolumes

    AI- en gegevensintensieve toepassingen genereren enorme hoeveelheden gegevens, waardoor de traditionele mogelijkheden voor schaalbaarheid van opslag en gegevensbeheer onder druk komen te staan.

Waarom kiezen voor de QNAP Edge AI-opslagserver?

Een QNAP Edge AI-opslagserver biedt een Unified edge computing-platform dat gegevensopslag, virtualisatie, GPU- en I/O-versnelling en CPU-bronbeheer integreert. Dit stelt bedrijven in staat om AI-toepassingen en randapparatuur efficiënt op locatie te implementeren. Bedrijven kunnen QNAP's hypervisor app Virtualization Station of het containerbeheerplatform Container Station installeren op de QAI om flexibel lokale AI-inferentieservers en edge-opslagservers te bouwen die zijn afgestemd op specifieke gebruikssituaties, die hoge prestaties en lage latentie leveren.

Ondersteunt uiteenlopende edge AI-toepassingen:

  • ️Inferentie Small language model (SLM)
  • Inferentie Large language model (LLM)
  • Generatieve AI
  • Inferentie en fijnafstemming AI-model
  • Slimme productie en industriële automatisering
  • Slimme analyse van detailhandel en klanten
  • Slimme bewaking en video-analyse
Ondersteunt diverse edge AI-toepassingen

Verbeterd gegevensbeheer

Alle gegevens en applicaties worden op locatie gehost, waardoor de risico's die verbonden zijn aan de overdracht via de openbare cloud worden geëlimineerd en naleving wordt gegarandeerd.

Vereenvoudigde implementatie en eenvoudiger beheer

Voer opslag, VM's, GPU-werkbelastingen en apps uit op één QAI om de complexiteit tussen apparaten te minimaliseren.

Direct klaar voor gebruik

Dynamische resourcetoewijzing en hardwareversnelling zorgen voor soepele en efficiënte VM- en AI-bewerkingen.

Kostenefficiëntie

QNAP's licentievrije virtualisatieplatform vermindert de TCO op de lange termijn aanzienlijk.

Technische voordelen ten opzichte van traditionele architectuur

De QNAP Edge AI-opslagserver biedt flexibele toewijzing van systeembronnen, geavanceerde hardwareversnelling en Enterprise-grade gegevensbescherming — waardoor het een ideaal platform is voor edge computing.

Gerichte toewijzing van resources

Gebruik Virtualization Station om CPU-, geheugen- en netwerkbandbreedte toe te wijzen aan specifieke virtuele machines (VM's), waardoor bronconflicten worden voorkomen.

GPU-versnelling voor AI-werkbelastingen

Schakel GPU-doorvoer in om fysieke GPU's toe te wijzen aan VM's voor snellere AI-inferentie en grafische verwerking.

SR-IOV voor geoptimaliseerde netwerken

Biedt virtuele machines directe NIC-kanalen, waardoor de netwerklatentie en bandbreedte-overhead worden verminderd.

Hoogwaardige PCIe-doorvoer

Wijs grafische kaarten, netwerkkaarten of opslagcontrollers rechtstreeks toe aan VM's, waardoor de hardwareprestaties vrijwel identiek zijn als zonder VM.

Schaalbare opslaguitbreiding

Ondersteunt SAS / FC-opslaguitbreidingsbehuizing om te voldoen aan de toenemende eisen voor AI- en virtualisatie-opslag.

Bescherming van bedrijfsgegevens

Gebouwd op ZFS, ondersteunt RAID, snapshots, onveranderlijkheid van gegevens (WORM), data deduplicatie en SSD-optimalisatie.

Ontketen VM-prestaties met nauwkeurige toewijzing van resources

  • Geavanceerde versnellingstechnologie
    Passthrough-technologie

    Wijs fysieke GPU-, NIC- of andere PCIe-apparaatbronnen rechtstreeks toe aan aangewezen virtuele machines, waardoor de overhead van de hypervisor wordt geminimaliseerd voor stabielere prestaties en lagere latentie.

    • GPU passthrough
    • PCIe passthrough
  • Geoptimaliseerde resourcetoewijzing
    CPU-bronbeheer

    Met CPU-bronbeheer (binnenkort te ondersteunen) kunt u speciale CPU-threads toewijzen aan specifieke virtuele machines (CPU-isolatie), waardoor een stabiele en onafhankelijke VM-werking wordt gegarandeerd en tegelijkertijd de contentie van bronnen en prestatieschommelingen tussen VM's en andere toepassingen aanzienlijk worden verminderd.

Naadloos LLM’s op locatie uitvoeren op een QNAP QAI

Integreert virtualisatie, LLM (Large Language Model) en intuïtieve gebruikersinterface op één apparaat:

  • 1Toepassingscontainers implementeren

    Flexibel verschillende soorten toepassingen en diensten inzetten met QNAP Container Station, dat meerdere containergestuurde runtime-omgevingen ondersteunt zoals Docker, Kata en LXD.

  • 2GPU-versneld computing

    Configureer GPU-toegangsmachtigingen binnen de containeromgeving om containers toe te staan rechtstreeks gebruik te maken van de GPU van de QAI voor AI-inferentie of versnelling van videoverwerking.

  • 3Meerdere LLM's implementeren

    Met Ollama kunt u eenvoudig een verscheidenheid aan open-source large language-modellen (LLMS) implementeren, zoals Llama, DeepSeek, Qwen en Gemma, met de flexibiliteit om naar behoefte van model te wisselen of bij te werken.

  • 4Integreren met webgebaseerde interfaces

    Installeer open-source webinterfaces zoals Anything LLM of Open WebUI om verbinding te maken met taalmodellen zonder code te schrijven om aangepaste AI assistenten, slimme klantenservice bots, of interne zoekprogramma's te maken.

Transformeer uw QAI naar een VM back-upserver

Een enkele QNAP QAI kan dienen als virtualisatiehost en als centrale back-upserver.

  • 1Meerdere virtuele machines (VM's) uitvoeren

    Virtualization Station is de QNAP QuTS hero hypervisor-app die u in staat stelt om meerdere Windows® of Linux® virtuele machines te implementeren op één QAI.

  • 2Ondersteuning voor VM back-up

    Installeer Veeam® back-upsoftware op een onafhankelijke VM die draait op de QAI en configureer de QAI als back-updoel. Dit maakt gecentraliseerde opslag en beheer van back-upgegevens van verschillende werklasten mogelijk, waaronder VM's, fysieke servers, andere NAS-apparaten en cloudservices.

  • 3CPU-bronbeheer

    Voor back-uptaken van VM's zijn intensieve CPU-computerbronnen vereist. Via Virtualization Station kunt u CPU-bronnen efficiënt toewijzen om stabiele en ononderbroken back-upbewerkingen te garanderen.

Veelzijdige toepassingen voor uiteenlopende zakelijke behoeften

  • Enterprise AI kennishub

    Enterprise AI kennishub

    Combineer NAS, LLMs en RAG om een intern zoeksysteem met AI te bouwen, waardoor het ophalen, analyseren en de productiviteit van gegevens wordt verbeterd.

  • AI-chatbots

    AI-chatbots

    Gebruik LLM's om intelligente chatbots in te schakelen die sneller en nauwkeuriger reageren en de klantbetrokkenheid verbeteren.

  • Virtualisatieserver

    Virtualisatieserver

    Gebruik meerdere virtuele machines voor interne ontwikkelings- en testomgevingen voor AI-modellen.

  • VM back-up en gegevensbescherming

    VM back-up en gegevensbescherming

    Integreer Veeam® back-upoplossingen om de beveiliging van virtuele-machinegegevens te verbeteren.

  • AI-gegevensopslag en -back-up

    AI-gegevensopslag en -back-up

    Sla onbewerkte AI-gegevenssets op of gebruik deze als snelle opslag voor frequente gegevenstoegang in RAG-gebaseerde AI-workflows.

Aanbevolen model

Speciaal gebouwd voor edge AI-implementatie, levert de QNAP AI-serie NAS, in combinatie met een NVIDIA grafische kaart RTX 6000 of RTX 4000 Ada Generation, uitzonderlijke prestaties voor AI-inference, mediaverwerking met hoge resolutie en virtualisatie.

QAI-h1290FX

  • U.2 NVMe / SATA all-flash NAS met 12 schijfhouders
  • Aangedreven door AMD EPYC™ 7302P 16-core / 32-thread processor
  • 128GB DDR4 ECC RDIMM-geheugen
  • Vooraf geïnstalleerd met zes 3,84 TB U.2 NVMe SSDs
  • Beschikbaar met vooraf geïnstalleerde NVIDIA RTX 6000 Ada of RTX 4000 Ada GPU
  • Bevat exclusieve QAI-functies, zoals het Container Station met beheerde open-source AI-app-sjablonen voor snelle implementatie
QAI-h1290FX

Hulp nodig?

QNAP-experts staan klaar om u te helpen de ideale Edge AI-opslagserver voor uw bedrijf te ontwerpen.

Kies specificatie

      Toon meer Minder

      Deze website in andere landen/regio's:

      open menu
      back to top