GB200 NVL72, 고속 연산과 대용량 처리 환경이 필요한 차세대 워크로드에 최적화
엔비디아와 코어위브가 차세대 AI 모델 훈련과 추론의 속도를 대폭 끌어올릴 ‘GB200 NVL72’ 시스템을 상용화하며 본격적인 서비스에 돌입했다. 이번 발표를 통해 코어위브는 엔비디아 그레이스 블랙웰 아키텍처를 기반으로 한 AI 슈퍼컴퓨팅 시스템을 가장 먼저 온라인 상에서 고객에게 제공한 클라우드 서비스 기업으로 이름을 올렸다.
GB200 NVL72는 총 72개의 블랙웰 GPU와 36개의 그레이스 CPU를 NV링크로 연결한 랙 스케일의 고성능 AI 컴퓨팅 플랫폼이다. 이는 AI 에이전트, 대규모 언어 모델, 영상 생성 모델 등 고속 연산과 대용량 처리 환경이 필요한 차세대 워크로드에 최적화한 설계로, 단일 인스턴스에서 최대 11만 개 GPU까지 확장이 가능한 네트워크 환경도 함께 제공한다.
이미 코히어, IBM, 미스트랄 AI 등 글로벌 AI 기업들이 GB200 NVL72를 기반으로 자사 모델을 훈련하고 추론하며 성능 향상 효과를 입증하고 있다. 코히어는 자사의 AI 플랫폼 ‘노스(North)’에서 블랙웰 기반 환경으로 전환한 후 1000억 개 파라미터 모델 훈련에서 기존 호퍼 GPU 대비 최대 3배 빠른 속도를 기록했다. 대용량 통합 메모리, FP4 정밀도, 72개 GPU 간 NV링크 연동 효과 등이 성능 향상의 핵심 배경으로 꼽힌다.
IBM은 엔터프라이즈용 오픈소스 AI 모델 시리즈인 ‘그래니트(Granite)’를 GB200 NVL72 환경에서 훈련하고 있다. IBM은 왓슨x 오케스트레이트와 같은 솔루션에 그래니트 모델을 연계해 기업 워크플로우를 자동화하는 데 활용하며, IBM의 스토리지 스케일 시스템까지 통합해 AI에 최적화된 데이터 인프라 환경도 함께 제공하고 있다.
오픈소스 모델 생태계를 주도하는 프랑스 기반의 미스트랄 AI는 블랙웰 GPU 1000여 개를 도입해 자사 대형 언어 모델 개발 속도를 끌어올리고 있다. 미스트랄은 “최적화 없이도 기존 대비 두 배의 성능 향상을 실현했다”며, GB200 NVL72가 추론과 학습 모두에 새로운 가능성을 열고 있다고 평가했다.
코어위브는 이번 상용화를 통해 AI 팩토리 시대를 위한 본격적인 인프라 전환을 선언했다. 수천 개의 블랙웰 GPU가 실시간으로 원시 데이터를 인텔리전스로 전환하고 있으며, 고객들은 이를 통해 대규모 모델 훈련부터 개인화한 AI 에이전트 개발까지 전 범위에 걸쳐 안정적이고 확장 가능한 컴퓨팅 환경을 활용할 수 있게 됐다.
헬로티 서재창 기자 |