QNAP Edge AI-lagringsserver

En allt i ett-datorplattform för Edge AI som integrerar lagring, virtualisering och datorkraft som hjälper företag att effektivt, säkert och kostnadseffektivt distribuera AI-tillämpningar lokalt för att påskynda smart omvandling i branschen.

Utmaningar som företag står inför i AI-eran

När efterfrågan på GenAI, LLM och edge computing ökar, får traditionell IT-infrastruktur flera flaskhalsar:

  • Stora säkerhetsrisker i molnet

    Över 90% av företagen nämner dataskydd som en huvudfråga vid AI-implementering. Molnbaserade distributioner utsätter data för potentiella läckor och efterlevnadsrisker.

  • Ökande distributionskostnader

    Staplade licensavgifter för molnmodeller, tokenanvändning, GPU-åtkomst, lagring och virtualiseringsplattformar driver upp den totala ägandekostnaden (TCO) avsevärt.

  • Fragmenterad infrastruktur

    Frånkopplade dator- och lagringssystem leder till tidskrävande integrering och komplicerat underhåll.

  • Instabil prestanda

    Delad infrastruktur får AI-modeller och virtualiseringstillämpningar att tävla om systemresurser och leder till fördröjningar och oförutsägbar prestanda.

  • Exploderande datavolymer

    AI och dataintensiva tillämpningar genererar enorma mängder data, vilket belastar traditionell lagringsskalbarhet och datahanteringsfunktioner.

Varför välja QNAP Edge AI-lagringsserver?

QNAP Edge AI-lagringsserver har en enhetlig plattform för edge computing som integrerar datalagring, virtualisering, GPU- och I/O-acceleration samt CPU-resurshantering. Den gör det möjligt för företag att effektivt distribuera AI-tillämpningar och gränsenheter lokalt. Företag kan installera QNAP:s hypervisor-app Virtualization Station eller behållarhanteringsplattform Container Station på QAI-enheten för att flexibelt skapa lokala AI-inferensservrar och gränslagringsservrar anpassade till specifika användningsfall, som levererar hög prestanda och kort svarstid.

Stöder många olika edge-AI-tillämpningar:

  • ️SLM-inferens (Small Language Model)
  • LLM-inferens (Large Language Model)
  • Generativ AI
  • AI-modellinferens och finjustering
  • Smart tillverkning och industriell automation
  • Smart detaljhandel och kundanalys
  • Smart övervakning och videoanalys
Stöder många olika edge-AI-tillämpningar

Förbättrad datakontroll

Alla data och alla program lagras lokalt, vilket eliminerar risker förknippade med överföring över offentliga moln och säkerställer regelefterlevnad.

Förenklad distribution och hantering

Kör lagring, virtuella datorer, GPU-arbetsbelastningar och appar på en enda QAI för att minimera komplexiteten mellan enheter.

Omedelbar prestandaberedskap

Dynamisk resursallokering och maskinvaruacceleration säkerställer smidiga och effektiva åtgärder för virtuella datorer och AI.

Kostnadseffektivitet

QNAP:s licensfria virtualiseringsplattform sänker avsevärt långsiktig TCO.

Tekniska fördelar jämfört med traditionell arkitektur

QNAP Edge AI-lagringserver har flexibel allokering av systemresurser, avancerad maskinvaruacceleration och dataskydd i företagsklass som gör den till en perfekt plattform för edge computing.

Dedikerad resursallokering

Använd Virtualization Station till att tilldela processor, minne och nätverksbandbredd till vissa virtuella datorer (VM) för att förhindra resurskonflikter.

GPU-acceleration för AI-arbetsbelastningar

Aktivera GPU-genomströmning för att allokera fysiska GPU:er till virtuella datorer för snabbare AI-inferens och grafikbearbetning.

SR-IOV för optimerat nätverk

Tillhandahåller direkta NIC-kanaler till virtuella datorer, vilket minskar nätverksfördröjning och bandbreddsbelastning.

PCIe-genomströmning med hög prestanda

Tilldela grafikkort, nätverkskort eller lagringsstyrenheter direkt till virtuella datorer för att uppnå nästan inbyggd maskinvaruprestanda.

Skalbar lagringsexpansion

Stöder SAS-/FC-lagringsexpansionskabinett för att uppfylla växande krav på AI- och virtualiseringslagring.

Företagsdataskydd

Byggt på ZFS och stöder RAID, ögonblicksbilder, dataoföränderlighet (WORM), datadeduplicering och SSD-optimering.

Frigör prestanda för virtuella datorer genom exakt resursallokering

  • Avancerad accelerationsteknik
    Genomströmningsteknik

    Tilldela fysiska GPU-, NIC- eller andra PCIe-enhetsresurser direkt till angivna virtuella datorer, vilket minimerar hypervisor-belastningen för stabilare prestanda och kortare svarstid.

    • GPU passthrough
    • PCIe passthrough
  • Optimerad resursallokering
    Hantering av processorresurser

    Hantering av processorresurser (stöds snart) gör det möjligt att tilldela angivna processortrådar till specifika virtuella maskiner (processorisolering) för att säkerställa stabil och oberoende VM-drift samtidigt som resurskonkurrens och prestandavariationer mellan virtuella datorer och andra tillämpningar minimeras avsevärt.

Kör effektivt lokala LLM:er på QNAP QAI

Integrerar virtualisering, stor språkmodell (LLM) och intuitivt användargränssnitt på en enhet:

  • 1Distribuera programbehållare

    Distribuera olika typer av program och tjänster flexibelt med QNAP Container Station som stöder många behållaranpassade körningsmiljöer såsom Docker, Kata och LXD.

  • 2GPU-accelererad datorbearbetning

    Konfigurera GPU-åtkomsträttigheter i behållarmiljön för att tillåta att behållare använder QAI-enhetens GPU direkt för AI-inferens eller videobearbetningsacceleration.

  • 3Distribuera många stora språkmodeller

    Ollama gör det enkelt att distribuera en mängd olika stora språkmodeller (LLM) med öppen källkod, såsom LLaMA, DeepSeek, Qwen och Gemma, med flexibilitet att vid behov byta eller uppdatera modeller.

  • 4Integrera med webbaserade gränssnitt

    Installera webbgränssnitt med öppen källkod, såsom Anything LLM eller Open WebUI, för att ansluta till språkmodeller utan att skriva kod för att skapa anpassade AI-assistenter, smarta kundtjänstrobotar eller interna sökverktyg.

Omvandla QAI-enheten till VM-säkerhetskopieringsserver

En enda QNAP QAI kan fungera som både virtualiseringsvärd och central säkerhetskopieringsserver.

  • 1Kör många virtuella datorer (VM)

    Virtualization Station är hypervisor-appen på QNAP QuTS hero som gör det möjligt att distribuera många virtuella datorer med Windows® eller Linux® på en enda QAI.

  • 2Stöd för VM-säkerhetskopiering

    Installera säkerhetskopieringsprogrammet Veeam® på en oberoende virtuell dator som körs på QAI-enheten och konfigurera QAI-enheten som säkerhetskopieringsmål. Det här möjliggör centraliserad lagring och hantering av säkerhetskopieringsdata från olika arbetsbelastningar, inklusive virtuella datorer, fysiska servrar, andra NAS-enheter och molntjänster.

  • 3Hantering av processorresurser

    Säkerhetskopieringsuppgifter i virtuella datorer kräver intensiva bearbetningsresurser. Virtualization Station fördelar effektivt processorresurser för att säkerställa stabila och oavbrutna säkerhetskopieringsåtgärder.

Mångsidiga program för olika företagsbehov

  • Kunskapshubb för företags-AI

    Kunskapshubb för företags-AI

    Kombinera NAS, LLM och RAG för att skapa ett internt AI-drivet söksystem som förbättrar datahämtning, analys och produktivitet.

  • AI-chatrobotar

    AI-chatrobotar

    Använd stora språkmodeller för att driva intelligenta chatrobotar som svarar snabbare, mer exakt och ökar kundengagemanget.

  • Virtualiseringsserver

    Virtualiseringsserver

    Kör flera virtuella datorer för utveckling av interna AI-modeller och testmiljöer.

  • Säkerhetskopiering av virtuella datorer och dataskydd

    Säkerhetskopiering av virtuella datorer och dataskydd

    Integrera Veeam® säkerhetskopieringslösningar för att öka säkerheten för virtuella datorers data.

  • Lagring och säkerhetskopiering av AI-data

    Lagring och säkerhetskopiering av AI-data

    Lagra råa AI-datauppsättningar eller använd som snabbt lagringsutrymme för frekvent dataåtkomst i RAG-baserade AI-arbetsflöden.

Rekommenderad modell

QNAP AI-seriens NAS, tillsammans med grafikkortet NVIDIA RTX 6000 eller RTX 4000 Ada Generation, är skapad särskilt för edge AI-distribution och levererar exceptionell prestanda för AI-inferens, högupplöst mediebearbetning och virtualisering.

QAI-h1290FX

  • U.2 NVMe/SATA all flash-NAS med 12 enhetsfack
  • Använder processorn AMD EPYC™ 7302P med 16 kärnor/32 trådar
  • 128 GB DDR4 ECC RDIMM-minne
  • Sex förinstallerade 3,84 TB U.2 NVMe SSD-enheter
  • Tillgänglig med förinstallerat NVIDIA RTX 6000 Ada eller RTX 4000 Ada GPU
  • Inkluderar QAI-exklusiva funktioner, såsom Container Station med utvalda AI-appmallar med öppen källkod för snabb distribution.
QAI-h1290FX

Behöver du hjälp?

QNAP-experter är redo att hjälpa dig utforma den perfekta Edge AI-lagringsservern för ditt företag.

Välj specifikation

      Visa fler Färre

      Denna webbplats i andra länder/regioner:

      open menu
      back to top