NFS over RDMA · QuTS hero · TS-h1290FX

GPU가 기다릴 필요 없습니다
귀하의스토리지을(를) 기다리다

I/O 대기 시간 1밀리초마다 값비싼 GPU 컴퓨팅 파워가 낭비됩니다.
NFS over RDMA가 적용된 TS-h1290FX는스토리지성능이 컴퓨팅 속도를 따라가도록 보장합니다.

100× 레이턴시감소
85% CPU 부하 감소
100Gbps 라인 속도에 가까운 처리량
<5% GPU 대기 시간
스크롤

GPU가 얼마나 많은 시간을
데이터을(를) 기다리는 데 쓰나요?

AI 트레이닝 비용은 GPU 시간에 따라 결정되지만, 전체 컴퓨팅 시간의 40% 이상이스토리지 I/O 병목 현상으로 낭비됩니다.

01

TCP 스택의 숨겨진 비용

모든데이터읽기마다 CPU는 TCP 패킷 분할, 체크섬 계산, 커널 컨텍스트스위치를 처리해야 합니다. 이러한 오버헤드는 AI 컴퓨팅 가치에는 기여하지 않지만 CPU 자원의 최대 99%를 조용히 소모합니다.

CPU 사용량 ≥ 99%
02

메모리 복사의 4배 비용

기존 NFS 경로에서는 동일한데이터가 GPU에 도달하기 전에 커널 버퍼와 사용자 공간 사이에서 4~6번 복사되어야 합니다. 복사할 때마다레이턴시가 추가되고, 레이턴시의 미세초가 늘어날수록 컴퓨팅 파워가 감소합니다.

레이턴시 100~500 μs
03

GPU 유휴 시간의 실제 비용

8×H100 클러스터를 예로 들면, 클라우드 비용이 시간당 $24를 초과합니다. I/O 병목 현상으로 GPU 활용률이 60%로 떨어지면 시간당 거의 $10이 완전히 낭비됩니다.

GPU 유휴 > 40%
04

규모가 커질수록 병목 현상은 더 심해집니다

단일 GPU에서는 가까스로 관리할 수 있지만, 4, 8, 16개의 GPU가 동시에 동일한스토리지에서 읽기를 수행하면 기존 TCP NFS 경합레이턴시이 기하급수적으로 악화됩니다.

멀티 노드 동시성 한계점

두 가지 경로,
완전히 다른 결과

NFS over RDMA는 기존 프로토콜의 단순한 수정이 아니라, 스토리지에서 GPU 메모리까지 전체데이터경로를 근본적으로 재구성합니다.

기존 NFS over TCP 성능 병목 현상
애플리케이션이 읽기 요청을 발행 AI 트레이닝 작업이 다음 배치의데이터를 요청
커널 모드 진입 — 컨텍스트스위치 #1 앱이 커널로스위치; CPU는 모든 레지스터 상태를 저장/복원해야 하며, 1~10 μs가 소요됩니다.
전체 TCP/IP 스택 처리 TCP 분할, 재전송, 체크섬 계산이 CPU에서 실행되며 오프로드할 수 없습니다.
NIC이데이터를 전송함 데이터가 캡슐화되어 네트워크로 전송됩니다.
커널로 복귀 — 컨텍스트스위치 #2 수신 측이 다시 커널 모드로 진입하여 두 번째 컨텍스트스위치가 발생합니다.
데이터가 4~6회 복사됨 커널 버퍼 → DMA 버퍼 → 사용자 공간; 각 복사마다 CPU 및 메모리 대역폭이 소모됩니다.
애플리케이션이 마침내데이터를 획득 대기 중 GPU는 완전히 유휴 상태로 남아 있습니다.
엔드 투 엔드레이턴시100 – 500 μs
CPU 사용량≈ 99%
GPU 대기 비율> 40%
NFS over RDMA (RoCE) TS-h1290FX
애플리케이션이 읽기 요청을 보냄 AI 트레이닝 작업이 다음데이터배치를 요청합니다.
커널 바이패스 — HCA와 직접 통신 애플리케이션이 OS 커널을 우회하여 RDMA NIC(HCA)와 직접 통신하므로 컨텍스트스위치가 제거됩니다.
하드웨어순방향 오류 정정(FEC)전체 프로토콜 처리 HCA가 모든 네트워크 프로토콜 연산을 하드웨어 레벨에서 수행하여, CPU를 AI 연산에 완전히 할당할 수 있습니다.
제로-카피 직접 메모리 쓰기 데이터가NAS NVMe 드라이브에서 AI 서버의 애플리케이션 메모리로 직접 기록되어 중간 복사가 필요하지 않습니다.
데이터준비 완료, GPU가 즉시 연산 시작 전체데이터경로에 커널스위치, 중복 복사, 프로토콜 스택 CPU 소모가 없습니다.
엔드 투 엔드레이턴시1 – 2 μs
CPU 사용량≈ 15%
GPU 대기 비율< 5%

숫자로 보는
TS-h1290FX의 성능

랜덤 읽기 816K
4K 랜덤 읽기 IOPS
트레이닝데이터 I/O 대기 제거
최대 용량 737TB
12 × 61.44 TB NVMe U.2
PCIe Gen 4 올플래시어레이
최대 메모리 1 TB
DDR4 ECC RDIMM 3200 MHz
8슬롯 × 128 GB
CPU 16코어
AMD EPYC™ 7302P
최대 3.3 GHz 부스트
내장네트워킹 2×25G
SFP28 + 2×2.5GbE
4× PCIe Gen 4 확장 슬롯
확장 가능 100G
QNAP QXG-100G2SF 설치
풀스피드 RDMA 연결용
ZFS 스냅샷
거의 무제한의 스냅샷 복원 지점
WORM 불변성과 결합
전력 효율 24/7
올플래시저전력 설계
지속적인 생산 라인 분석 지원

차이점 확인
명확하게

사양 항목 QNAP TS-h1290FX 경쟁사 A (SATA NAS) 경쟁사 B (엔터프라이즈 AFA)
CPU AMD EPYC™ 7302P 16코어 / 3.3 GHz 가장 강력함 Intel Xeon D-1541 8코어 / 2.7 GHz 하이엔드 Intel 시리즈
스토리지인터페이스 NVMe PCIe Gen 4 ×4 U.2 가장 빠름 SATA 6 Gb/s NVMe / SAS / FC
NVMe 슬롯 12 × 2.5" U.2 PCIe Gen 4 네이티브 서포트없음 (어댑터필요)지원되지 않음 48 × 2.5" NVMe
NFS over RDMA ✓ 완전히 최적화된네이티브 서포트 네이티브 ✗ 지원되지 않음 지원되지 않음 △ 부분적으로 지원됨
내장네트워킹 2× 25GbE SFP28 + 2× 2.5GbE 2× 10GbE + 4× 1GbE 다수의 25/100GbE (구성에 따라 다름)
PCIe 확장 4× PCIe Gen 4 Gen 4 2× PCIe Gen 3 고밀도 멀티 슬롯
최대 메모리 1TB DDR4 ECC 3200 MHz 64GB DDR4 2666 MHz 1,280 GB
ZFS 파일 시스템 ✓ QuTS hero네이티브 통합 벤더에 따라 다름
S3 Object 스토리지 ✓ QuObjects (Object Lock 포함) 벤더에 따라 다름
멀티 테넌트 격리 ✓ NFS 공유 + ZFS 스냅샷 격리 제한적 지원 지원됨

사용자
및 해결하는 문제

🤖

AI / LLM 모델 학습

여러 GPU 노드가 수백 GB의 학습 데이터를 병렬로 읽습니다. 기존 NFS에서는 I/O 대기 시간이 연산 시간보다 길어집니다. RDMA는데이터전송이 GPU 수요를 따라가도록 보장합니다.

GPU 활용률 향상 40% → >95%
단일 에폭 학습 시간 30~60% 단축
스토리지 CPU 부하 99% → 15%
🏥

스마트 헬스케어 영상 AI

병리 슬라이드 및 3D DICOM 이미지는 종종 기가바이트 단위입니다. AI 보조 진단이 읽기에서 지연되면 임상적 이점이 크게 저하됩니다. 저지연스토리지은 진단 AI가 최대 효율로 작동하도록 지원합니다.

이미지 전처리 가속 속도 저하 없는 멀티 패스 병렬 처리
보고서 생성 대기 응답 시간이 크게 단축됨
데이터무결성 ZFS 자가 치유 보호

반도체 수율 빅데이터분석

생산 라인은 초당 방대한 프로세스데이터를 생성합니다. AI 모델은 주요 수율 변수를 찾기 위해 과거데이터를 실시간으로 분석해야 합니다. I/O 레이턴시는 분석 지연으로 이어지며, 결국 수율 손실로 이어집니다.

과거데이터검색 속도 밀리초 → 마이크로초 접근
24/7 연속 분석 올플래시저전력 지원
TCO 엔터프라이즈 성능을 위한 간소화된 하드웨어

궁금한 모든 것,
여기에서 확인하세요

RDMA는 특수 네트워크스위치가 필요한가요? 기존데이터센터 아키텍처를 사용할 수 있나요?
NFS over RDMA(RoCE v2)는 표준 이더넷 네트워크에서 동작하지만, 손실 없는 이더넷 환경을 위해 PFC(Priority Flow Control)를 지원하는스위치가 필요합니다. 대부분의 최신 엔터프라이즈급스위치(예: Mellanox/NVIDIA Spectrum, Cisco Nexus, Arista 시리즈)는 이 기능을 지원합니다. QNAP은 기존 환경이 호환되는지도움말확인을 위한 네트워크 설계 조언을 제공할 수 있습니다.
NFS over RDMA와 기존 NFS over TCP 간의 실제레이턴시차이는 얼마나 되나요?
실험실 조건에서 NFS over TCP의 종단 간레이턴시는 일반적으로 100~500마이크로초(μs) 범위이며, 병목 현상은 주로 커널 컨텍스트스위치및 메모리 복사에서 발생합니다. NFS over RDMA는레이턴시를 1~2μs로 압축할 수 있어 약 100배의 개선 효과가 있습니다. 빈번한 소규모 랜덤 읽기가 많은 AI 학습 시나리오에서는 이 차이가 GPU 활용도 향상과 전체 학습 시간 단축으로 직결됩니다.
ZFS의 공간 효율성은 어떤가요? 압축 및 중복제거가 AI 학습 데이터셋에 효과적인가요?
ZFS는 실시간 LZ4/Zstandard 압축과 블록 수준 중복 제거 기능을 기본적으로 제공합니다. 유사한 샘플이 대량 포함된 이미지 학습 세트의 경우, 압축률이 보통 1.3~2배에 달하며, 텍스트 기반 데이터셋(예: 토크나이즈된 말뭉치)에서는 압축 효과가 더욱 큽니다. 중복 제거는 여러 모델 체크포인트 버전을 저장할 때 특히 적합하여, 대량의 저장 공간을 절약할 수 있습니다. ZFS에서 압축은 하드웨어 지원을 받아 I/O 성능에 미치는 영향이 매우 적습니다.
GPU가 4개뿐인데, TS-h1290FX에 투자할 가치가 있을까요?
고성능 GPU(H100/A100 등) 4개의 시간당 컴퓨팅 비용은 이미 상당히 높습니다. 소규모 클러스터에서도스토리지 I/O로 인해 GPU 활용률이 70% 미만으로 떨어진다면, 컴퓨팅 비용의 30% 이상이 낭비되고 있다는 의미입니다. TS-h1290FX에 대한 투자는 일반적으로 몇 개월에서 1년 이내에 ROI를 달성하며, 이는 GPU 활용률 증가로 인한 성능 향상이 전적으로 기여합니다. 구체적인 TCO 계산이 필요하시면 영업팀에 문의해 주세요.
TS-h1290FX는 여러 팀이 동시에 사용할 수 있는 멀티 테넌시를 지원하나요?
완벽하게 지원됩니다. TS-h1290FX는 여러 개의 독립적인 NFS 공유, 개별 사용자 계정, 네트워크 분리를 구성할 수 있습니다. ZFS 데이터셋 및 스냅샷 메커니즘과 결합하여 각 팀 또는 부서별로 독립적인스토리지 공간, 백업 전략, 액세스 제어를 구축할 수 있어관리형서비스 제공업체(MSP) 또는 대기업 내부 다부서 환경에 이상적입니다.
순수 클라우드 AI 학습 플랫폼과 비교할 때, 온프레미스 TS-h1290FX의 장점은 무엇인가요?
클라우드 플랫폼의 주요 과제는 과도한데이터전송 요금(egress 비용), 민감한 학습데이터에 대한 규제 준수 위험, 예측 불가능한 장기 컴퓨팅 비용 등이 있습니다. TS-h1290FX는 고속 온프레미스스토리지을 제공하여데이터가 시설을 벗어나지 않도록 보장하며, RDMA를 활용해 고급 클라우드스토리지의 I/O 성능을 구현합니다. 성능, 데이터주권, TCO 간 완벽한 균형을 제공합니다.
TS-h1290FX를 기존 MLOps 작업방식(예: Kubernetes, Kubeflow)에 통합할 수 있나요?
네. TS-h1290FX는 표준 NFS v4.1 마운트를 제공하며, Kubernetes는 PersistentVolume(PV)을 통해 직접 사용할 수 있습니다. RDMA를 지원하는 Kubernetes 노드에서는 RDMA Device Plugin과 연동하여 RDMA 기반의 고속 NFS 연결을 쉽게 구현할 수 있습니다. 또한 QuObjects에서 제공하는 S3 호환 엔드포인트를 통해 S3 프로토콜을 사용하는 MLOps 툴체인(예: MLflow artifact store 또는 DVC remote 스토리지)에 원활하게 통합할 수 있습니다.
모델 체크포인트의 백업 및 재해 복구는 어떻게 처리하나요?
TS-h1290FX는 다계층 보호 전략을 제공합니다: ZFS 스냅샷을 매시간 자동 실행하도록 예약하여 세분화된 복원 지점을 제공하고, 다른 ZFS NAS와 페어링 시 SnapSync를 통해 오프사이트 재해 복구를 위한 실시간 블록 수준 동기화를 지원합니다. 장기 보관을 위해 Hybrid Backup Sync(HBS 3)는데이터를 클라우드(AWS S3, Azure Blob, B2 등)로 백업할 수 있습니다. 이 3중 보호 체계는 RTO/RPO 요구사항에 따라 유연하게 구성할 수 있습니다.
TS-h1290FX는 S3 오브젝트스토리지프로토콜을 지원하나요?
지원됩니다. QuObjects를 설치하면 TS-h1290FX가 온프레미스 S3 호환 객체스토리지엔드포인트로 동작하며, Object Lock(WORM) 불변스토리지을 지원합니다. 이를 통해 AI에서 하이브리드작업방식이 가능합니다: 학습 단계에서는 NFS over RDMA를 통한 고속 데이터셋 읽기, 추론 단계에서는 S3 프로토콜을 통한 모델 버전 및 분석 결과의 안전한스토리지및 관리가 가능합니다.

GPU 대기 시간 제거

TS-h1290FX × NFS over RDMA — 온프레미스 AI 학습을 위한스토리지인프라

제품 페이지 보기 영업팀에 문의