[Wichtiger Sicherheit Hinweis] Gefälschte Qfinder Pro Websites entdeckt. Mehr erfahren >

QNAP Edge KI Speicherserver

Eine All-in-One-Edge-AI-Computing-Plattform vereint Speicher, Virtualisierung und Rechenleistung, um Unternehmen bei der effizienten, sicheren und kosteneffizienten Bereitstellung von KI-Anwendungen vor Ort zu unterstützen, und so die smarte Transformation in verschiedensten Branchen zu beschleunigen.

Herausforderungen, denen Unternehmen im KI-Zeitalter gegenüberstehen.

Mit dem zunehmenden Bedarf an GenAI, LLM und Edge Computing stoßen traditionelle IT-Infrastrukturen an mehrere Grenzen:

  • Hohe Sicherheitsrisiken in der Cloud

    Über 90% der Unternehmen geben an, dass Datensicherheit eine der größten Sorgen bei der Bereitstellung von KI ist. Cloud-basierte Bereitstellungen setzen Daten potenziellen Lecks und Compliance-Risiken aus.

  • Steigende Bereitstellungskosten

    Verschachtelte Lizenzgebühren für Cloud-Modelle, Token-Nutzung, GPU-Zugriff, Speicher und Virtualisierungsplattformen treiben die Gesamtkosten (TCO) erheblich in die Höhe.

  • Fragmentierte Infrastruktur

    Vom Netzwerk getrennte Rechen- und Speichersysteme führen zu zeitaufwendiger Integration und komplexer Wartung.

  • Instabile Leistung

    Gemeinsam genutzte Infrastrukturen führen dazu, dass KI-Modelle und Virtualisierungsanwendungen um Systemressourcen konkurrieren – was zu Latenzen und unvorhersehbarer Leistung führt.

  • Explodierende Datenvolumen

    KI- und datenintensive Anwendungen erzeugen enomre Datenmengen, die die Skalierbarkeit herkömmlicher Speicherlösungen und deren Datenmanagement-Fähigkeiten stark belasten.

Warum den QNAP Edge-KI-Speicherserver wählen?

Der QNAP Edge KI Speicherserver bietet eine einheitliche Edge Computing Plattform, die Datenspeicherung, Virtualisierung, GPU- und E/A-Beschleunigung sowie CPU-Ressourcenverwaltung integriert. Er ermöglicht Unternehmen, KI-Anwendungen und Edge Geräte effizient vor Ort bereitzustellen. Unternehmen können die Hypervisor App Virtualization Station oder die Container Verwaltungsplattform Container Station auf dem QAI installieren, um flexibel vor Ort KI Inferenzserver und Edge Speicherserver zu erstellen, die auf spezifische Anwendungsfälle zugeschnitten sind und eine hohe Leistung sowie niedrige Latenz bieten.

Unterstützt verschiedene Edge KI Anwendungen:

  • ️Small Language Model (SLM) Inferenz
  • Large Language Model (LLM) Inferenz
  • Generative KI
  • Inferenz und Feinabstimmung von KI Modellen
  • Intelligente Fertigung & Industrielle Automatisierung
  • Intelligenter Einzelhandel & Kundenanalytik
  • Intelligente Überwachung & Videoanalytik
Unterstützt verschiedene Edge KI Anwendungen

Verbesserte Datenkontrolle

Alle Daten und Anwendungen werden lokal betrieben, wodurch Risiken im Zusammenhang mit der Übertragung in die Public Cloud entfallen und die Einhaltung von Compliance-Vorgaben sichergestellt wird.

Vereinfachte Bereitstellung & Verwaltung

Betreiben Sie Speicher, virtuelle Maschinen, GPU-Workloads und Anwendungen auf einem einzigen QAI, um die Komplexität durch mehrere Geräte zu minimieren.

Sofortige Leistungsbereitschaft

Dynamische Ressourcenzuteilung und Hardwarebeschleunigung gewährleisten reibungslose und effiziente VM- und KI-Prozesse.

Kosteneffizienz

Die lizenzfreie Virtualisierungsplattform von QNAP reduziert die langfristigen Gesamtkosten (TCO) erheblich.

Technische Vorteile gegenüber traditioneller Architektur

Der QNAP Edge KI Speicherserver bietet eine flexible Zuteilung von Systemressourcen, fortschrittliche Hardwarebeschleunigung und unternehmensgerechten Datenschutz — was zu einer idealen Plattform für Edge Computing macht.

QuTS hero Betriebssystem

Basierend auf ZFS für hohe Zuverlässigkeit, mit selbstheilender Daten-Integrität, SSD-optimierter Leistung, Online-Deduplizierung, unveränderlichem WORM-Schutz und ZIL-Schutz bei Stromausfall.

Erweiterte Container Station

KI-bereit mit einer Bibliothek kuratierter Vorlagen. Starten Sie beliebte KI-Tools und Frameworks mit einem Klick – keine komplexe Einrichtung erforderlich.

Einfache GPU-Beschleunigung

Aktivieren Sie GPU-Computing, indem Sie eine NVIDIA® GPU oder einen KI-Beschleuniger aus einem Dropdown-Menü auswählen. Eine einzelne GPU kann über mehrere Container hinweg geteilt werden.

NVIDIA® professionelle GPUs

NVIDIA RTX PRO™ Blackwell bietet bis zu 96 GB VRAM und 3× schnellere KI-Leistung mit FP4-Präzision und DLSS 4 – ideal für LLMs, generative KI und 3D-Workloads.

>100 Token/Sek. LLM-Inferenz

Mit einer NVIDIA RTX PRO™ 6000 Blackwell Max-Q zeigen QNAP-Tests:

  • gpt-oss:20b (MXFP4): 120+ Token/Sek.
  • gpt-oss:120b (MXFP4): ~100 Token/Sek.
  • deepseek-r1:70b (q4_K_M): ~24 Token/Sek.

Optimiert für RAG, Chatbots und Offline-Inferenz.

Hohe PCIe-Erweiterbarkeit

Unterstützt 25GbE/100GbE, Fibre Channel, SAS-Schnittstelle und QNAP JBOD-Erweiterung. Ausgewählte Modelle bieten PCIe-Passthrough für nahezu native VM-Leistung.

Nahtloses Ausführen von lokalen LLMs auf QNAP QAI

Integriert Virtualisierung, Large Language Model (LLM) und eine intuitive Benutzeroberfläche auf einem Gerät:

  • 1Anwendungscontainer bereitstellen

    Stellen Sie flexibel verschiedene Arten von Anwendungen und Diensten mit QNAP Container Station bereit, die mehrere containerisierte Laufzeitumgebungen wie Docker, Kata und LXD unterstützt.

  • 2GPU-beschleunigte Berechnungen

    Konfigurieren Sie GPU-Zugriffsberechtigungen innerhalb der Container-Umgebung, damit Container direkt auf die GPU des QAI zugreifen können – zur Beschleunigung von KI-Inferenzen oder Videoverarbeitung.

  • 3Bereitstellung mehrerer LLMs

    Mit Ollama,vLLM,Llama.cpp können Sie ganz einfach eine Vielzahl von Open-Source Large Language Models (LLMs) wie Llama, Gemma, gpt-oss, DeepSeek, Qwen, DeepSeek, Qwen und Gemma bereitstellen, wobei Sie die Flexibilität haben, Modelle nach Bedarf zu wechseln oder zu aktualisieren.

  • 4 Integration webbasierter Schnittstellen

    Installieren Sie Open Source Webschnittstellen wie Anything LLM oder Open WebUI, um eine Verbindung zu Sprachmodellen herzustellen, ohne Code schreiben zu müssen, um benutzerdefinierte KI-Assistenten, intelligente Kundenservice-Bots oder interne Suchwerkzeuge zu erstellen.

Als VM-Umgebung oder Backup-Server betreiben

  • 1Mehrere virtuelle Maschinen (VMs) ausführen

    Virtualization Station ist die Hypervisor App für QNAP QuTS hero und ermöglicht es Ihnen, mehrere virtuelle Windows® oder Linux® Maschinen auf einem einzigen QAI bereitzustellen.

  • 2Unterstützung für VM Sicherung

    Installieren Sie die Veeam® Sicherungssoftware in einer unabhängigen VM, die auf dem QAI läuft, und konfigurieren Sie das QAI als Sicherungsziel. Dies ermöglicht eine zentrale Speicherung und Verwaltung von Sicherungsdaten aus verschiedenen Workloads, einschließlich VMs, physischen Servern, anderen NAS Geräten und Cloud-Diensten.

  • 3Verwaltung der CPU Ressourcen

    VM- Sicherungsaufgaben erfordern intensive CPU Rechenressourcen. Mit Virtualization Station können Sie CPU Ressourcen effizient zuweisen, um stabile und unterbrechungsfreie Sicherungsvorgänge sicherzustellen.

Vielseitige Anwendungen für diverse Geschäftsanforderungen

  • KI Wissenszentrum für Unternehmen

    KI Wissenszentrum für Unternehmen

    Kombinieren Sie NAS, LLMs und RAG, um ein internes KI-gestütztes Suchsystem aufzubauen — zur Verbesserung der Datenabfrage, Analyse und Produktivität.

  • KI Chatbots

    KI Chatbots

    Nutzen Sie LLMs, um intelligente Chatbots zu betreiben, die schneller und genauer reagieren und das Kundenengagement verbessern.

  • Virtualisierungsserver

    Virtualisierungsserver

    Setzen Sie virtuelle Maschinen ein, um eine Vielzahl interner Unternehmensumgebungen wie ERP-Systeme, CMS-Plattformen und Software-Test-Workloads auszuführen.

  • VM Sicherung & Datensicherung

    VM Sicherung & Datensicherung

    Integrieren Sie Veeam® Backup Lösungen, um die Sicherheit der Daten virtueller Maschinen zu erhöhen.

  • KI Datenspeicher & Sicherung

    KI Datenspeicher & Sicherung

    Speichern Sie KI Rohdatensätze oder stellen Sie einen High-Speed Speicher für häufigen Datenzugriff in RAG-basierten KI Workflows bereit.

Empfohlenes Modell

Das speziell für die Edge KI Bereitstellung entwickelte NAS der QNAP KI Serie bietet in Kombination mit einer NVIDIA High-End-Grafikkarte, eine außergewöhnliche Leistung für KI Inferenz, die Verarbeitung hochauflösender Medien sowie Virtualisierung.

QAI-h1290FX

  • 12-Bay U.2 NVMe / SATA All-Flash NAS
  • Unterstützt von AMD EPYC™ 7302P 16-Core / 32-Thread Prozessor
  • 128 GB DDR4 ECC RDIMM Arbeitsspeicher
  • Erhältlich mit NVIDIA RTX PRO™ 6000 Blackwell Max-Q Workstation-GPU
  • Beinhaltet exklusive QAI Funktionen, wie Container Station mit kuratierten Open-Source KI App-Vorlagen für eine schnelle Bereitstellung
QAI-h1290FX

Benötigen Sie Unterstützung?

QNAP Experten stehen bereit, um Ihnen dabei zu helfen, den idealen Edge KI Speicherserver für Ihr Unternehmen zu entwerfen.

Wählen Sie die Spezifikation

      Mehr anzeigen Weniger
      Diese Seite in anderen Ländern / Regionen:
      open menu
      back to top