QNAP Edge AI 스토리지 서버

올인원 Edge AI 컴퓨팅 플랫폼은 스토리지, 가상화 및 컴퓨팅 성능을 통합하여 기업이 온프레미스 AI 애플리케이션을 효율적이고 안전하며 비용 효율적으로 배포할 수 있도록 지원하여 산업 전반의 스마트 혁신을 가속화합니다.

AI 시대에 기업이 직면한 과제

GenAI, LLM 및 엣지 컴퓨팅 수요가 급증함에 따라 기존 IT 인프라는 여러 가지 병목 현상에 직면하고 있습니다.

  • 높은 클라우드 보안 위험

    90% 이상의 기업이 AI 배포 시 데이터 보안을 최우선 과제로 꼽습니다. 클라우드 기반 배포는 잠재적인 유출 및 규정 준수 위험에 데이터를 노출시킵니다.

  • 급증하는 배포 비용

    클라우드 모델, 토큰 사용량, GPU 액세스, 스토리지 및 가상화 플랫폼에 대한 라이선스 비용이 누적되어 총소유비용(TCO)이 크게 증가합니다.

  • 단편화된 인프라

    연결되지 않은 컴퓨팅 및 스토리지 시스템은 시간 소모적인 통합과 복잡한 유지 관리로 이어집니다.

  • 불안정한 성능

    공유 인프라로 인해 AI 모델과 가상화 애플리케이션이 시스템 리소스를 두고 경쟁하여 지연 시간과 예측 불가능한 성능을 초래합니다.

  • 폭발하는 데이터 양

    AI 및 데이터 집약적인 애플리케이션은 방대한 데이터를 생성하여 기존 스토리지 확장성과 데이터 관리 기능에 부담을 줍니다.

QNAP Edge AI 스토리지 서버를 선택해야 하는 이유는 무엇일까요?

QNAP Edge AI 스토리지 서버는 데이터 스토리지, 가상화, GPU 및 I/O 가속, CPU 리소스 관리를 통합하는 통합 엣지 컴퓨팅 플랫폼을 제공합니다. 기업이 온프레미스에서 AI 애플리케이션과 엣지 장치를 효율적으로 배포할 수 있도록 지원합니다. 기업은 QNAP의 하이퍼바이저 앱인 Virtualization Station 또는 컨테이너 관리 플랫폼인 Container Station을 QAI에 설치하여 특정 사용 사례에 맞춰 고성능과 낮은 지연 시간을 제공하는 온프레미스 AI 추론 서버와 엣지 스토리지 서버를 유연하게 구축할 수 있습니다.

다양한 edge AI 애플리케이션 지원:

  • ️소규모 언어 모델(SLM) 추론
  • 대규모 언어 모델(LLM) 추론
  • 생성적 AI
  • AI 모델 추론 및 미세 조정
  • 스마트 제조 및 산업 자동화
  • 스마트 리테일 및 고객 분석
  • 스마트 영상보안 및 비디오 분석
다양한 edge AI 애플리케이션 지원

향상된 데이터 제어

모든 데이터와 애플리케이션은 온프레미스에 호스팅되므로 퍼블릭 클라우드 전송과 관련된 위험을 제거하고 규정 준수를 보장합니다.

간소화된 배포 및 관리

단일 QAI에서 스토리지, VM, GPU 워크로드 및 앱을 실행하여 장치 간 복잡성을 최소화합니다.

즉각적인 성능 준비

동적 리소스 할당 및 하드웨어 가속을 통해 원활하고 효율적인 VM 및 AI 운영을 보장합니다.

비용 효율적

QNAP의 라이선스 없는 가상화 플랫폼은 장기적인 TCO를 크게 절감합니다.

기존 아키텍처 대비 기술적 이점

QNAP Edge AI 스토리지 서버는 유연한 시스템 리소스 할당, 고급 하드웨어 가속 및 엔터프라이즈급 데이터 보호 기능을 제공하여 엣지 컴퓨팅에 이상적인 플랫폼입니다.

전용 리소스 할당

Virtualization Station을 사용하여 특정 가상 머신(VM)에 CPU, 메모리 및 네트워크 대역폭을 할당하여 리소스 충돌을 방지합니다.

AI 워크로드를 위한 GPU 가속

GPU 패스스루를 활성화하여 물리적 GPU를 VM에 할당함으로써 AI 추론 및 그래픽 처리 속도를 높입니다.

최적화된 네트워킹을 위한 SR-IOV

가상 머신에 직접 NIC 채널을 제공하여 네트워크 지연 시간과 대역폭 오버헤드를 줄입니다.

고성능 PCIe 패스스루

그래픽 카드, 네트워크 카드 또는 스토리지 컨트롤러를 VM에 직접 할당하여 네이티브 하드웨어 성능에 근접합니다.

확장 가능한 스토리지 확장

증가하는 AI 및 가상화 스토리지 수요를 충족하기 위해 SAS/FC 스토리지 확장 인클로저를 지원합니다.

엔터프라이즈 데이터 보호

ZFS 기반으로 RAID, 스냅샷, 데이터 불변성(WORM), 데이터 중복 제거 및 SSD 최적화를 지원합니다.

정밀한 리소스 할당으로 VM 성능 극대화

  • 고급 가속 기술
    패스스루 기술

    물리적인 GPU, NIC 또는 기타 PCIe 장치 리소스를 지정된 가상 머신에 직접 할당하여 하이퍼바이저 오버헤드를 최소화하고 더욱 안정적인 성능과 낮은 지연 시간을 제공합니다.

    • GPU 패스스루
    • PCIe 패스스루
  • 최적화된 리소스 할당
    CPU 리소스 관리

    CPU 리소스 관리(지원 예정)를 통해 특정 가상 머신에 전용 CPU 스레드를 할당(CPU 격리)하여 VM과 다른 애플리케이션 간의 리소스 경합 및 성능 변동을 크게 줄이는 동시에 안정적이고 독립적인 VM 운영을 보장할 수 있습니다.

QNAP QAI에서 온프레미스 LLM을 원활하게 실행하세요

가상화, 대용량 언어 모델(LLM), 직관적인 UI를 하나의 장치에 통합합니다.

  • 1애플리케이션 컨테이너 배포

    Docker, Kata, LXD와 같은 여러 컨테이너화된 런타임 환경을 지원하는 QNAP Container Station을 사용하여 다양한 유형의 애플리케이션과 서비스를 유연하게 배포할 수 있습니다.

  • 2GPU 가속 컴퓨팅

    컨테이너 환경 내에서 GPU 액세스 권한을 구성하여 컨테이너가 AI 추론 또는 비디오 처리 가속에 QAI의 GPU를 직접 활용할 수 있도록 합니다.

  • 3여러 LLM 배포

    Ollama를 사용하면 LLaMA, DeepSeek, Qwen, Gemma와 같은 다양한 오픈 소스 대용량 언어 모델(LLM)을 쉽게 배포할 수 있으며, 필요에 따라 모델을 전환하거나 업데이트할 수 있는 유연성을 제공합니다.

  • 4 웹 기반 인터페이스와 통합

    Anything LLM 또는 Open WebUI와 같은 오픈 소스 웹 인터페이스를 설치하여 사용자 지정 AI 어시스턴트, 스마트 고객 서비스 봇 또는 내부 검색 도구를 개발하기 위한 코드를 작성하지 않고도 언어 모델에 연결할 수 있습니다.

QAI를 VM 백업 서버로 전환

단일 QNAP QAI는 가상화 호스트와 중앙 백업 서버 역할을 모두 수행할 수 있습니다.

  • 1여러 가상 머신(VM) 실행

    Virtualization Station은 QNAP QuTS hero 하이퍼바이저 앱으로, 단일 QAI에 여러 Windows® 또는 Linux® 가상 머신을 배포할 수 있도록 지원합니다.

  • 2VM 백업 지원

    QAI에서 실행되는 독립 VM에 Veeam® 백업 소프트웨어를 설치하고 해당 QAI를 백업 대상으로 구성합니다. 이를 통해 VM, 물리적 서버, 기타 NAS 장치 및 클라우드 서비스를 포함한 다양한 워크로드의 백업 데이터를 중앙에서 저장하고 관리할 수 있습니다.

  • 3CPU 리소스 관리

    VM 백업 작업에는 CPU 컴퓨팅 리소스가 많이 필요합니다. Virtualization Station을 통해 CPU 리소스를 효율적으로 할당하여 안정적이고 중단 없는 백업 작업을 보장할 수 있습니다.

다양한 비즈니스 요구 사항에 맞는 다재다능한 애플리케이션

  • 엔터프라이즈 AI 지식 허브

    엔터프라이즈 AI 지식 허브

    NAS, LLM, RAG를 결합하여 내부 AI 기반 검색 시스템을 구축하여 데이터 검색, 분석 및 생산성을 향상시킵니다.

  • AI 챗봇

    AI 챗봇

    LLM을 사용하여 더 빠르고 정확하게 응답하고 고객 참여를 개선하는 지능형 챗봇을 구축합니다.

  • 가상 서버

    가상 서버

    사내 AI 모델 개발 및 테스트 환경을 위해 여러 가상 머신을 실행합니다.

  • VM 백업 및 데이터 보호

    VM 백업 및 데이터 보호

    Veeam® 백업 솔루션을 통합하여 가상 머신 데이터의 보안을 강화합니다.

  • AI 데이터 스토리지 및 백업

    AI 데이터 스토리지 및 백업

    RAG 기반 AI 워크플로에서 원시 AI 데이터 세트를 저장하거나 빈번한 데이터 액세스를 위한 고속 스토리지 역할을 합니다.

추천 모델

엣지 AI 배포를 위해 특화된 QNAP AI 시리즈 NAS는 NVIDIA RTX 6000 또는 RTX 4000 Ada Generation 그래픽 카드와 함께 AI 추론, 고해상도 미디어 처리 및 가상화에 대해 뛰어난 성능을 제공합니다.

QAI-h1290FX

  • 12베이 U.2 NVMe / SATA 올플래시 NAS
  • AMD EPYC™ 7302P 16코어 / 32스레드 프로세서로 구동됨
  • 128GB DDR4 ECC RDIMM 메모리
  • 6개의 3.84TB U.2 NVMe SSD가 사전 설치됨
  • 사전 설치된 NVIDIA RTX 6000 Ada 또는 RTX 4000 Ada GPU로 제공됨
  • Container Station와 같은 QAI 전용 기능을 포함하며, 빠른 배포를 위한 오픈 소스 AI 앱 템플릿이 큐레이션되어 제공됩니다.
QAI-h1290FX

도움이 필요하신가요?

QNAP 전문가가 귀사의 비즈니스에 가장 적합한 Edge AI 스토리지 서버를 설계할 수 있도록 도와드립니다.

사양 선택

      더 보기 적게 보기

      다른 국가/지역 사이트:

      open menu
      back to top