QNAP Edge KI Speicherserver

Eine All-in-One-Edge-AI-Computing-Plattform vereint Speicher, Virtualisierung und Rechenleistung, um Unternehmen bei der effizienten, sicheren und kosteneffizienten Bereitstellung von KI-Anwendungen vor Ort zu unterstützen, und so die smarte Transformation in verschiedensten Branchen zu beschleunigen.

Herausforderungen, denen Unternehmen im KI-Zeitalter gegenüberstehen.

Mit dem zunehmenden Bedarf an GenAI, LLM und Edge Computing stoßen traditionelle IT-Infrastrukturen an mehrere Grenzen:

  • Hohe Sicherheitsrisiken in der Cloud

    Über 90% der Unternehmen geben an, dass Datensicherheit eine der größten Sorgen bei der Bereitstellung von KI ist. Cloud-basierte Bereitstellungen setzen Daten potenziellen Lecks und Compliance-Risiken aus.

  • Steigende Bereitstellungskosten

    Verschachtelte Lizenzgebühren für Cloud-Modelle, Token-Nutzung, GPU-Zugriff, Speicher und Virtualisierungsplattformen treiben die Gesamtkosten (TCO) erheblich in die Höhe.

  • Fragmentierte Infrastruktur

    Vom Netzwerk getrennte Rechen- und Speichersysteme führen zu zeitaufwendiger Integration und komplexer Wartung.

  • Instabile Leistung

    Gemeinsam genutzte Infrastrukturen führen dazu, dass KI-Modelle und Virtualisierungsanwendungen um Systemressourcen konkurrieren – was zu Latenzen und unvorhersehbarer Leistung führt.

  • Explodierende Datenvolumen

    KI- und datenintensive Anwendungen erzeugen enomre Datenmengen, die die Skalierbarkeit herkömmlicher Speicherlösungen und deren Datenmanagement-Fähigkeiten stark belasten.

Warum den QNAP Edge-KI-Speicherserver wählen?

Der QNAP Edge KI Speicherserver bietet eine einheitliche Edge Computing Plattform, die Datenspeicherung, Virtualisierung, GPU- und E/A-Beschleunigung sowie CPU-Ressourcenverwaltung integriert. Er ermöglicht Unternehmen, KI-Anwendungen und Edge Geräte effizient vor Ort bereitzustellen. Unternehmen können die Hypervisor App Virtualization Station oder die Container Verwaltungsplattform Container Station auf dem QAI installieren, um flexibel vor Ort KI Inferenzserver und Edge Speicherserver zu erstellen, die auf spezifische Anwendungsfälle zugeschnitten sind und eine hohe Leistung sowie niedrige Latenz bieten.

Unterstützt verschiedene Edge KI Anwendungen:

  • ️Small Language Model (SLM) Inferenz
  • Large Language Model (LLM) Inferenz
  • Generative KI
  • Inferenz und Feinabstimmung von KI Modellen
  • Intelligente Fertigung & Industrielle Automatisierung
  • Intelligenter Einzelhandel & Kundenanalytik
  • Intelligente Überwachung & Videoanalytik
Unterstützt verschiedene Edge KI Anwendungen

Verbesserte Datenkontrolle

Alle Daten und Anwendungen werden lokal betrieben, wodurch Risiken im Zusammenhang mit der Übertragung in die Public Cloud entfallen und die Einhaltung von Compliance-Vorgaben sichergestellt wird.

Vereinfachte Bereitstellung & Verwaltung

Betreiben Sie Speicher, virtuelle Maschinen, GPU-Workloads und Anwendungen auf einem einzigen QAI, um die Komplexität durch mehrere Geräte zu minimieren.

Sofortige Leistungsbereitschaft

Dynamische Ressourcenzuteilung und Hardwarebeschleunigung gewährleisten reibungslose und effiziente VM- und KI-Prozesse.

Kosteneffizienz

Die lizenzfreie Virtualisierungsplattform von QNAP reduziert die langfristigen Gesamtkosten (TCO) erheblich.

Technische Vorteile gegenüber traditioneller Architektur

Der QNAP Edge KI Speicherserver bietet eine flexible Zuteilung von Systemressourcen, fortschrittliche Hardwarebeschleunigung und unternehmensgerechten Datenschutz — was zu einer idealen Plattform für Edge Computing macht.

Dedizierte Ressourcenzuteilung

Verwenden Sie Virtualization Station, um CPU, Arbeitsspeicher und Netzwerkbandbreite bestimmten virtuellen Maschinen (VMs) zuzuweisen und Ressourcenkonflikte zu vermeiden.

GPU Beschleunigung für KI Workloads

Aktivieren Sie GPU-Passthrough, um physischen GPUs direkt virtuellen Maschinen zuzuweisen – für schnelle KI-Inferenz und Grafikverarbeitung.

SR-IOV für optimierte Netzwerkleistung

Bietet virtuellen Maschinen direkte NIC Kanäle, wodurch Netzwerklatenz und Bandbreiten-Overhead reduziert werden.

Leistungsstarkes PCIe Passthrough

Weisen Sie VMs direkt Grafikkarten, Netzwerkkarten oder Speichercontroller zu, um eine nahezu native Hardwareleistung zu erreichen.

Skalierbare Speichererweiterung

Unterstützt SAS/FC Speichererweiterungsgehäuse, um den wachsenden Anforderungen an KI- und Virtualisierungsspeicher gerecht zu werden.

Unternehmensgerechter Datenschutz

Basierend auf ZFS, unterstützt RAID, Snapshots, Datenunveränderlichkeit (WORM), Daten-Deduplizierung und SSD-Optimierung.

Entfesseln Sie die VM-Leistung mit präziser Ressourcenzuteilung

  • Erweiterte Beschleunigungstechnologie
    Passthrough-Technologie

    Weisen Sie physische GPU, NIC oder andere PCIe Geräteressourcen direkt bestimmten virtuellen Maschinen zu, um den Overhead des Hypervisors zu minimieren und eine stabilere Leistung sowie geringere Latenz zu gewährleisten.

    • GPU-Passthrough
    • PCIe-Passthrough
  • Optimierte Ressourcenzuteilung
    CPU Ressourcenverwaltung

    Mit der CPU Ressourcenverwaltung (wird in Kürze unterstützt) können Sie bestimmten virtuellen Maschinen dedizierte CPU-Threads zuweisen (CPU-Isolation), was einen stabilen und unabhängigen VM-Betrieb gwährleistet und gleichzeitig Ressourcenkonflikte sowie Leistungsschwankungen zwischen VMs und anderen Anwendungen deutlich reduziert.

Nahtloses Ausführen von lokalen LLMs auf QNAP QAI

Integriert Virtualisierung, Large Language Model (LLM) und eine intuitive Benutzeroberfläche auf einem Gerät:

  • 1Anwendungscontainer bereitstellen

    Stellen Sie flexibel verschiedene Arten von Anwendungen und Diensten mit QNAP Container Station bereit, die mehrere containerisierte Laufzeitumgebungen wie Docker, Kata und LXD unterstützt.

  • 2GPU-beschleunigte Berechnungen

    Konfigurieren Sie GPU-Zugriffsberechtigungen innerhalb der Container-Umgebung, damit Container direkt auf die GPU des QAI zugreifen können – zur Beschleunigung von KI-Inferenzen oder Videoverarbeitung.

  • 3Bereitstellung mehrerer LLMs

    Mit Ollama können Sie ganz einfach eine Vielzahl von Open-Source Large Language Models (LLMs) wie LLaMA, DeepSeek, Qwen und Gemma bereitstellen, wobei Sie die Flexibilität haben, Modelle nach Bedarf zu wechseln oder zu aktualisieren.

  • 4 Integration webbasierter Schnittstellen

    Installieren Sie Open Source Webschnittstellen wie Anything LLM oder Open WebUI, um eine Verbindung zu Sprachmodellen herzustellen, ohne Code schreiben zu müssen, um benutzerdefinierte KI-Assistenten, intelligente Kundenservice-Bots oder interne Suchwerkzeuge zu erstellen.

Verwandeln Sie Ihr QAI in einen VM Sicherungsserver

Ein einzelnes QNAP QAI kann sowohl als Virtualisierungs-Host als auch als zentraler Sicherungsserver dienen.

  • 1Mehrere virtuelle Maschinen (VMs) ausführen

    Virtualization Station ist die Hypervisor App für QNAP QuTS hero und ermöglicht es Ihnen, mehrere virtuelle Windows® oder Linux® Maschinen auf einem einzigen QAI bereitzustellen.

  • 2Unterstützung für VM Sicherung

    Installieren Sie die Veeam® Sicherungssoftware in einer unabhängigen VM, die auf dem QAI läuft, und konfigurieren Sie das QAI als Sicherungsziel. Dies ermöglicht eine zentrale Speicherung und Verwaltung von Sicherungsdaten aus verschiedenen Workloads, einschließlich VMs, physischen Servern, anderen NAS Geräten und Cloud-Diensten.

  • 3Verwaltung der CPU Ressourcen

    VM- Sicherungsaufgaben erfordern intensive CPU Rechenressourcen. Mit Virtualization Station können Sie CPU Ressourcen effizient zuweisen, um stabile und unterbrechungsfreie Sicherungsvorgänge sicherzustellen.

Vielseitige Anwendungen für diverse Geschäftsanforderungen

  • KI Wissenszentrum für Unternehmen

    KI Wissenszentrum für Unternehmen

    Kombinieren Sie NAS, LLMs und RAG, um ein internes KI-gestütztes Suchsystem aufzubauen — zur Verbesserung der Datenabfrage, Analyse und Produktivität.

  • KI Chatbots

    KI Chatbots

    Nutzen Sie LLMs, um intelligente Chatbots zu betreiben, die schneller und genauer reagieren und das Kundenengagement verbessern.

  • Virtualisierungsserver

    Virtualisierungsserver

    Führen Sie mehrere virtuelle Maschinen für die interne Entwicklung und Testumgebungen von KI-Modellen aus.

  • VM Sicherung & Datensicherung

    VM Sicherung & Datensicherung

    Integrieren Sie Veeam® Backup Lösungen, um die Sicherheit der Daten virtueller Maschinen zu erhöhen.

  • KI Datenspeicher & Sicherung

    KI Datenspeicher & Sicherung

    Speichern Sie KI Rohdatensätze oder stellen Sie einen High-Speed Speicher für häufigen Datenzugriff in RAG-basierten KI Workflows bereit.

Empfohlenes Modell

Das speziell für die Edge KI Bereitstellung entwickelte NAS der QNAP KI Serie bietet in Kombination mit einer NVIDIA RTX 6000 oder RTX 4000 Ada Generation Grafikkarte eine außergewöhnliche Leistung für KI Inferenz, die Verarbeitung hochauflösender Medien sowie Virtualisierung.

QAI-h1290FX

  • 12-Bay U.2 NVMe / SATA All-Flash NAS
  • Unterstützt von AMD EPYC™ 7302P 16-Core / 32-Thread Prozessor
  • 128 GB DDR4 ECC RDIMM Arbeitsspeicher
  • Sechs 3,84 TB U.2 NVMe SSDs vorinstalliert
  • Verfügbar mit vorinstallierter NVIDIA RTX 6000 Ada oder RTX 4000 Ada GPU
  • Beinhaltet exklusive QAI Funktionen, wie Container Station mit kuratierten Open-Source KI App-Vorlagen für eine schnelle Bereitstellung
QAI-h1290FX

Benötigen Sie Unterstützung?

QNAP Experten stehen bereit, um Ihnen dabei zu helfen, den idealen Edge KI Speicherserver für Ihr Unternehmen zu entwerfen.

Wählen Sie die Spezifikation

      Mehr anzeigen Weniger

      Diese Seite in anderen Ländern / Regionen:

      open menu
      back to top