제품
클라우드 제품으로
AI 혁신 가속화
고성능 컴퓨팅, 스토리지 및 오케스트레이션으로
AI 워크로드를 지원하며 복잡성 없이 확장 가능합니다.

H200B200병렬 파일 스토리지관리형 쿠버네티스관찰 가능성
NVIDIA DGX H200
HBM3e와 초대형 메모리 대역폭을 활용해 인프라 복잡성 없이 고성능이 요구되는 생성형 AI 및 과학 연산 워크로드를 가속하세요.
예비 용량
H200
어떤 규모에서나 손쉬운 모델 학습
각 GPU 프로필은 GPU, CPU, 메모리, 로컬 스토리지를 묶어 사전 구성된 컴퓨팅 패키지입니다. 각 패키지는 GPU 개수에 비례하여 규모가 조정됩니다. 워크로드에 맞는 프로필을 선택하시면 필요한 환경이 프로비저닝 됩니다.
더욱 향상된 성능
NVIDIA Hopper 아키텍처를 기반으로 하는 H200은 4.8TB/s 대역폭의 141GB HBM3e 메모리를 탑재하여 H100의 거의 두 배에 달하는 용량을 제공합니다. 이를 통해 더 빠른 학습, 대규모 모델 지원, AI 및 HPC 워크로드에서 더 높은 효율성을 제공합니다.
AI의 미래를 가속화하세요
DGX급 컴퓨팅부터 병렬 파일 스토리지까지, CIC는 차세대 모델을 더욱 빠르고, 스마트하고, 안전하게 학습, 미세 조정 및 배포할 수 있는 인프라 기반을 제공합니다.
전문가와 상담하기