[중요보안안내] 가짜Qfinder Pro웹사이트가 감지되었습니다. 자세히 알아보기 >

QNAP Edge AI 스토리지 서버

올인원 Edge AI 컴퓨팅 플랫폼은 스토리지, 가상화 및 컴퓨팅 성능을 통합하여 기업이 온프레미스 AI 애플리케이션을 효율적이고 안전하며 비용 효율적으로 배포할 수 있도록 지원하여 산업 전반의 스마트 혁신을 가속화합니다.

AI 시대에 기업이 직면한 과제

GenAI, LLM 및 엣지 컴퓨팅 수요가 급증함에 따라 기존 IT 인프라는 여러 가지 병목 현상에 직면하고 있습니다.

  • 높은 클라우드 보안 위험

    90% 이상의 기업이 AI 배포 시 데이터 보안을 최우선 과제로 꼽습니다. 클라우드 기반 배포는 잠재적인 유출 및 규정 준수 위험에 데이터를 노출시킵니다.

  • 급증하는 배포 비용

    클라우드 모델, 토큰 사용량, GPU 액세스, 스토리지 및 가상화 플랫폼에 대한 라이선스 비용이 누적되어 총소유비용(TCO)이 크게 증가합니다.

  • 단편화된 인프라

    연결되지 않은 컴퓨팅 및 스토리지 시스템은 시간 소모적인 통합과 복잡한 유지 관리로 이어집니다.

  • 불안정한 성능

    공유 인프라로 인해 AI 모델과 가상화 애플리케이션이 시스템 리소스를 두고 경쟁하여 지연 시간과 예측 불가능한 성능을 초래합니다.

  • 폭발하는 데이터 양

    AI 및 데이터 집약적인 애플리케이션은 방대한 데이터를 생성하여 기존 스토리지 확장성과 데이터 관리 기능에 부담을 줍니다.

QNAP Edge AI 스토리지 서버를 선택해야 하는 이유는 무엇일까요?

QNAP Edge AI 스토리지 서버는 데이터 스토리지, 가상화, GPU 및 I/O 가속, CPU 리소스 관리를 통합하는 통합 엣지 컴퓨팅 플랫폼을 제공합니다. 기업이 온프레미스에서 AI 애플리케이션과 엣지 장치를 효율적으로 배포할 수 있도록 지원합니다. 기업은 QNAP의 하이퍼바이저 앱인 Virtualization Station 또는 컨테이너 관리 플랫폼인 Container Station을 QAI에 설치하여 특정 사용 사례에 맞춰 고성능과 낮은 지연 시간을 제공하는 온프레미스 AI 추론 서버와 엣지 스토리지 서버를 유연하게 구축할 수 있습니다.

다양한 edge AI 애플리케이션 지원:

  • ️소규모 언어 모델(SLM) 추론
  • 대규모 언어 모델(LLM) 추론
  • 생성적 AI
  • AI 모델 추론 및 미세 조정
  • 스마트 제조 및 산업 자동화
  • 스마트 리테일 및 고객 분석
  • 스마트 영상보안 및 비디오 분석
다양한 edge AI 애플리케이션 지원

향상된 데이터 제어

모든 데이터와 애플리케이션은 온프레미스에 호스팅되므로 퍼블릭 클라우드 전송과 관련된 위험을 제거하고 규정 준수를 보장합니다.

간소화된 배포 및 관리

단일 QAI에서 스토리지, VM, GPU 워크로드 및 앱을 실행하여 장치 간 복잡성을 최소화합니다.

즉각적인 성능 준비

동적 리소스 할당 및 하드웨어 가속을 통해 원활하고 효율적인 VM 및 AI 운영을 보장합니다.

비용 효율적

QNAP의 라이선스 없는 가상화 플랫폼은 장기적인 TCO를 크게 절감합니다.

기존 아키텍처 대비 기술적 이점

QNAP Edge AI 스토리지 서버는 유연한 시스템 리소스 할당, 고급 하드웨어 가속 및 엔터프라이즈급 데이터 보호 기능을 제공하여 엣지 컴퓨팅에 이상적인 플랫폼입니다.

QuTS hero운영 체제

높은 신뢰성을 위해 ZFS 기반으로 구축되었으며, 자체 복구데이터무결성, SSD 최적화 성능, 온라인 중복 제거, 불변 WORM 보호 및 ZIL 전원 손실 보호 기능을 제공합니다.

강화된Container Station

엄선된 템플릿 라이브러리로 AI-Ready. 인기 AI 도구와 프레임워크를 한 번의 클릭으로 실행—복잡한 설정이 필요 없습니다.

간편한 GPU 가속

NVIDIA® GPU 또는 AI 액셀러레이터를 드롭다운에서 선택하여 GPU 컴퓨팅을 활성화하세요. 하나의 GPU를 여러컨테이너에서 공유할 수 있습니다.

NVIDIA® 프로페셔널 GPU

NVIDIA RTX PRO™ Blackwell은 최대 96GB VRAM과 FP4 정밀도 및 DLSS 4를 활용한 3배 빠른 AI 성능을 제공하여 LLM, 생성형 AI, 3D 작업에 이상적입니다.

>100 토큰/초 LLM 추론

NVIDIA RTX PRO™ 6000 Blackwell Max-Q 사용 시 QNAP 테스트 결과:

  • gpt-oss:20b (MXFP4): 120+ 토큰/초
  • gpt-oss:120b (MXFP4): 약 100 토큰/초
  • deepseek-r1:70b (q4_K_M): 약 24 토큰/초

RAG, 챗봇, 오프라인 추론에 최적화됨.

높은 PCIe 확장성

25GbE/100GbE, 파이버 채널, SAS 인터페이스 및 QNAP JBOD확장을 지원합니다. 일부 모델은 거의 네이티브 VM 성능을 위한 PCIe 패스스루를 제공합니다.

QNAP QAI에서 온프레미스 LLM을 원활하게 실행하세요

가상화, 대용량 언어 모델(LLM), 직관적인 UI를 하나의 장치에 통합합니다.

  • 1애플리케이션 컨테이너 배포

    Docker, Kata, LXD와 같은 여러 컨테이너화된 런타임 환경을 지원하는 QNAP Container Station을 사용하여 다양한 유형의 애플리케이션과 서비스를 유연하게 배포할 수 있습니다.

  • 2GPU 가속 컴퓨팅

    컨테이너 환경 내에서 GPU 액세스 권한을 구성하여 컨테이너가 AI 추론 또는 비디오 처리 가속에 QAI의 GPU를 직접 활용할 수 있도록 합니다.

  • 3여러 LLM 배포

    Ollama, vLLM, Llama.cpp 를 사용하면 Llama, Gemma, gpt-oss, DeepSeek, Qwen, DeepSeek, Qwen, Gemma와 같은 다양한 오픈 소스 대용량 언어 모델(LLM)을 쉽게 배포할 수 있으며, 필요에 따라 모델을 전환하거나 업데이트할 수 있는 유연성을 제공합니다.

  • 4 웹 기반 인터페이스와 통합

    Anything LLM 또는 Open WebUI와 같은 오픈 소스 웹 인터페이스를 설치하여 사용자 지정 AI 어시스턴트, 스마트 고객 서비스 봇 또는 내부 검색 도구를 개발하기 위한 코드를 작성하지 않고도 언어 모델에 연결할 수 있습니다.

VM 환경 또는 백업 서버로 운영

  • 1여러 가상 머신(VM) 실행

    Virtualization Station은 QNAP QuTS hero 하이퍼바이저 앱으로, 단일 QAI에 여러 Windows® 또는 Linux® 가상 머신을 배포할 수 있도록 지원합니다.

  • 2VM 백업 지원

    QAI에서 실행되는 독립 VM에 Veeam® 백업 소프트웨어를 설치하고 해당 QAI를 백업 대상으로 구성합니다. 이를 통해 VM, 물리적 서버, 기타 NAS 장치 및 클라우드 서비스를 포함한 다양한 워크로드의 백업 데이터를 중앙에서 저장하고 관리할 수 있습니다.

  • 3CPU 리소스 관리

    VM 백업 작업에는 CPU 컴퓨팅 리소스가 많이 필요합니다. Virtualization Station을 통해 CPU 리소스를 효율적으로 할당하여 안정적이고 중단 없는 백업 작업을 보장할 수 있습니다.

다양한 비즈니스 요구 사항에 맞는 다재다능한 애플리케이션

  • 엔터프라이즈 AI 지식 허브

    엔터프라이즈 AI 지식 허브

    NAS, LLM, RAG를 결합하여 내부 AI 기반 검색 시스템을 구축하여 데이터 검색, 분석 및 생산성을 향상시킵니다.

  • AI 챗봇

    AI 챗봇

    LLM을 사용하여 더 빠르고 정확하게 응답하고 고객 참여를 개선하는 지능형 챗봇을 구축합니다.

  • 가상 서버

    가상 서버

    ERP 시스템, CMS 플랫폼, 소프트웨어 테스트작업등 다양한 내부 엔터프라이즈 환경을 실행하기 위해가상 머신(VM)를 배포하세요.

  • VM 백업 및 데이터 보호

    VM 백업 및 데이터 보호

    Veeam® 백업 솔루션을 통합하여 가상 머신 데이터의 보안을 강화합니다.

  • AI 데이터 스토리지 및 백업

    AI 데이터 스토리지 및 백업

    RAG 기반 AI 워크플로에서 원시 AI 데이터 세트를 저장하거나 빈번한 데이터 액세스를 위한 고속 스토리지 역할을 합니다.

추천 모델

엣지 AI 배포를 위해 특별히 설계된 QNAP AI 시리즈NAS는 NVIDIA 고급 그래픽 카드와 함께 AI 추론, 고해상도 미디어 처리 및가상화을 위한 탁월한 성능을 제공합니다.

QAI-h1290FX

  • 12베이 U.2 NVMe / SATA 올플래시 NAS
  • AMD EPYC™ 7302P 16코어 / 32스레드 프로세서로 구동됨
  • 128GB DDR4 ECC RDIMM 메모리
  • NVIDIA RTX PRO™ 6000 Blackwell Max-Q 워크스테이션 GPU 사용 가능
  • Container Station와 같은 QAI 전용 기능을 포함하며, 빠른 배포를 위한 오픈 소스 AI 앱 템플릿이 큐레이션되어 제공됩니다.
QAI-h1290FX

도움이 필요하신가요?

QNAP 전문가가 귀사의 비즈니스에 가장 적합한 Edge AI 스토리지 서버를 설계할 수 있도록 도와드립니다.

사양 선택

      더 보기 적게 보기
      다른 국가/지역 사이트:
      open menu
      back to top