[Belangrijke Beveiliging Mededeling] Nep-Qfinder Pro-websites gedetecteerd. Meer informatie >

QNAP Edge AI-opslagserver

Een alles-in-één Edge AI-computerplatform integreert opslag, virtualisatie en computerkracht om bedrijven te helpen op efficiënte, veilige en kosteneffectieve wijze AI-toepassingen op locatie te implementeren, waardoor slimme transformatie in verschillende branches wordt versneld.

Uitdagingen waarmee ondernemingen in het AI-tijdperk worden geconfronteerd

Aangezien GenAI, LLM en edge-computing steeds meer eisen stellen, komen traditionele IT-infrastructuren in aanraking met diverse knelpunten:

  • Grote veiligheidsrisico's in de cloud

    Meer dan 90% van de bedrijven noemt gegevensbeveiliging als een van de belangrijkste aandachtspunten bij de implementatie van AI. Cloudgebaseerde implementaties stellen gegevens bloot aan potentiële lekken en risico's op het gebied van naleving.

  • Stijgende implementatiekosten

    Gestapelde licentiekosten voor cloudmodellen, tokengebruik, GPU-toegang, opslag en virtualisatieplatformen zorgen voor een aanzienlijke verhoging van de totale eigendomskosten (TCO).

  • Gefragmenteerde infrastructuur

    Losgekoppelde computer- en opslagsystemen leiden tot tijdrovende integratie en complex onderhoud.

  • Instabiele prestaties

    Gedeelde infrastructuur maakt dat AI-modellen en virtualisatietoepassingen concurreren om systeembronnen, wat leidt tot latentie en onvoorspelbare prestaties.

  • Exploderende gegevensvolumes

    AI- en gegevensintensieve toepassingen genereren enorme hoeveelheden gegevens, waardoor de traditionele mogelijkheden voor schaalbaarheid van opslag en gegevensbeheer onder druk komen te staan.

Waarom kiezen voor de QNAP Edge AI-opslagserver?

Een QNAP Edge AI-opslagserver biedt een Unified edge computing-platform dat gegevensopslag, virtualisatie, GPU- en I/O-versnelling en CPU-bronbeheer integreert. Dit stelt bedrijven in staat om AI-toepassingen en randapparatuur efficiënt op locatie te implementeren. Bedrijven kunnen QNAP's hypervisor app Virtualization Station of het containerbeheerplatform Container Station installeren op de QAI om flexibel lokale AI-inferentieservers en edge-opslagservers te bouwen die zijn afgestemd op specifieke gebruikssituaties, die hoge prestaties en lage latentie leveren.

Ondersteunt uiteenlopende edge AI-toepassingen:

  • ️Inferentie Small language model (SLM)
  • Inferentie Large language model (LLM)
  • Generatieve AI
  • Inferentie en fijnafstemming AI-model
  • Slimme productie en industriële automatisering
  • Slimme analyse van detailhandel en klanten
  • Slimme bewaking en video-analyse
Ondersteunt diverse edge AI-toepassingen

Verbeterd gegevensbeheer

Alle gegevens en applicaties worden op locatie gehost, waardoor de risico's die verbonden zijn aan de overdracht via de openbare cloud worden geëlimineerd en naleving wordt gegarandeerd.

Vereenvoudigde implementatie en eenvoudiger beheer

Voer opslag, VM's, GPU-werkbelastingen en apps uit op één QAI om de complexiteit tussen apparaten te minimaliseren.

Direct klaar voor gebruik

Dynamische resourcetoewijzing en hardwareversnelling zorgen voor soepele en efficiënte VM- en AI-bewerkingen.

Kostenefficiëntie

QNAP's licentievrije virtualisatieplatform vermindert de TCO op de lange termijn aanzienlijk.

Technische voordelen ten opzichte van traditionele architectuur

De QNAP Edge AI-opslagserver biedt flexibele toewijzing van systeembronnen, geavanceerde hardwareversnelling en Enterprise-grade gegevensbescherming — waardoor het een ideaal platform is voor edge computing.

QuTS hero besturingssysteem

Gebaseerd op ZFS voor hoge betrouwbaarheid, met zelfherstellende gegevens-integriteit, SSD-geoptimaliseerde prestaties, online deduplicatie, onveranderlijke WORM-bescherming en ZIL-beveiliging tegen stroomuitval.

Verbeterde Container Station

AI-ready met een bibliotheek van zorgvuldig geselecteerde sjablonen. Start populaire AI-tools en frameworks met één klik—geen complexe installatie vereist.

Eenvoudige GPU-versnelling

Schakel GPU-computing in door een NVIDIA® GPU of AI-versneller te selecteren uit een dropdownmenu. Eén GPU kan worden gedeeld door meerdere containers.

NVIDIA® professionele GPU's

NVIDIA RTX PRO™ Blackwell biedt tot 96 GB VRAM en 3× snellere AI-prestaties met FP4-precisie en DLSS 4—ideaal voor LLM's, generatieve AI en 3D-werkbelastingen.

>100 tokens/sec LLM-inferentie

Met een NVIDIA RTX PRO™ 6000 Blackwell Max-Q tonen QNAP-tests aan:

  • gpt-oss:20b (MXFP4): 120+ tokens/sec
  • gpt-oss:120b (MXFP4): ~100 tokens/sec
  • deepseek-r1:70b (q4_K_M): ~24 tokens/sec

Geoptimaliseerd voor RAG, chatbots en offline-inferentie.

Hoge PCIe-uitbreidbaarheid

Ondersteunt 25GbE/100GbE, Fibre Channel, SAS-interface en QNAP JBOD-uitbreiding. Bepaalde modellen bieden PCIe-passthrough voor vrijwel-native VM-prestaties.

Naadloos LLM’s op locatie uitvoeren op een QNAP QAI

Integreert virtualisatie, LLM (Large Language Model) en intuïtieve gebruikersinterface op één apparaat:

  • 1Toepassingscontainers implementeren

    Flexibel verschillende soorten toepassingen en diensten inzetten met QNAP Container Station, dat meerdere containergestuurde runtime-omgevingen ondersteunt zoals Docker, Kata en LXD.

  • 2GPU-versneld computing

    Configureer GPU-toegangsmachtigingen binnen de containeromgeving om containers toe te staan rechtstreeks gebruik te maken van de GPU van de QAI voor AI-inferentie of versnelling van videoverwerking.

  • 3Meerdere LLM's implementeren

    Met Ollama,vLLM,Llama.cpp kunt u eenvoudig een verscheidenheid aan open-source large language-modellen (LLMS) implementeren, zoals Llama, Gemma, gpt-oss, DeepSeek, Qwen, DeepSeek, Qwen en Gemma, met de flexibiliteit om naar behoefte van model te wisselen of bij te werken.

  • 4Integreren met webgebaseerde interfaces

    Installeer open-source webinterfaces zoals Anything LLM of Open WebUI om verbinding te maken met taalmodellen zonder code te schrijven om aangepaste AI assistenten, slimme klantenservice bots, of interne zoekprogramma's te maken.

Werken als een VM-omgeving of back-upserver

  • 1Meerdere virtuele machines (VM's) uitvoeren

    Virtualization Station is de QNAP QuTS hero hypervisor-app die u in staat stelt om meerdere Windows® of Linux® virtuele machines te implementeren op één QAI.

  • 2Ondersteuning voor VM back-up

    Installeer Veeam® back-upsoftware op een onafhankelijke VM die draait op de QAI en configureer de QAI als back-updoel. Dit maakt gecentraliseerde opslag en beheer van back-upgegevens van verschillende werklasten mogelijk, waaronder VM's, fysieke servers, andere NAS-apparaten en cloudservices.

  • 3CPU-bronbeheer

    Voor back-uptaken van VM's zijn intensieve CPU-computerbronnen vereist. Via Virtualization Station kunt u CPU-bronnen efficiënt toewijzen om stabiele en ononderbroken back-upbewerkingen te garanderen.

Veelzijdige toepassingen voor uiteenlopende zakelijke behoeften

  • Enterprise AI kennishub

    Enterprise AI kennishub

    Combineer NAS, LLMs en RAG om een intern zoeksysteem met AI te bouwen, waardoor het ophalen, analyseren en de productiviteit van gegevens wordt verbeterd.

  • AI-chatbots

    AI-chatbots

    Gebruik LLM's om intelligente chatbots in te schakelen die sneller en nauwkeuriger reageren en de klantbetrokkenheid verbeteren.

  • Virtualisatieserver

    Virtualisatieserver

    Implementeer virtuele machines om een breed scala aan interne bedrijfsomgevingen uit te voeren, zoals ERP-systemen, CMS-platforms en softwaretest-werkbelastingen.

  • VM back-up en gegevensbescherming

    VM back-up en gegevensbescherming

    Integreer Veeam® back-upoplossingen om de beveiliging van virtuele-machinegegevens te verbeteren.

  • AI-gegevensopslag en -back-up

    AI-gegevensopslag en -back-up

    Sla onbewerkte AI-gegevenssets op of gebruik deze als snelle opslag voor frequente gegevenstoegang in RAG-gebaseerde AI-workflows.

Aanbevolen model

Speciaal gebouwd voor edge AI-implementatie, levert de QNAP AI-serie NAS, in combinatie met een high-end NVIDIA grafische kaart, uitzonderlijke prestaties voor AI-inference, mediaverwerking met hoge resolutie en virtualisatie.

QAI-h1290FX

  • U.2 NVMe / SATA all-flash NAS met 12 schijfhouders
  • Aangedreven door AMD EPYC™ 7302P 16-core / 32-thread processor
  • 128GB DDR4 ECC RDIMM-geheugen
  • Beschikbaar met NVIDIA RTX PRO™ 6000 Blackwell Max-Q werkstation-GPU
  • Bevat exclusieve QAI-functies, zoals het Container Station met beheerde open-source AI-app-sjablonen voor snelle implementatie
QAI-h1290FX

Hulp nodig?

QNAP-experts staan klaar om u te helpen de ideale Edge AI-opslagserver voor uw bedrijf te ontwerpen.

Kies specificatie

      Toon meer Minder
      Deze website in andere landen/regio's:
      open menu
      back to top