SKT, 테스트 결과에 따라 리벨리온의 서버 도입을 점진적으로 확대할 계획 밝혀 리벨리온이 SK텔레콤과 손잡고 국산 AI 반도체의 상용화를 위한 본격적인 테스트에 착수했다. 양사는 리벨리온의 AI 반도체 ‘아톰(ATOM)’을 기반으로, SKT의 주요 AI 서비스에 대한 적용 가능성을 검증하고 있으며, 연내 성능 강화 모델인 ‘아톰 맥스(ATOM-Max)’의 상용화를 목표로 하고 있다. 테스트 대상 서비스는 SKT의 생성형 AI 플랫폼 ‘에이닷(A.)’ 기반의 전화 통화요약 서비스를 비롯해 PASS 앱 내 스팸 필터링과 금융비서, AI 개발 플랫폼 ‘엑스칼리버(X-Caliber)’ 등이다. 이들 서비스는 SKT 자체 개발 LLM인 ‘에이닷엑스(A.X)’를 기반으로 운영되며, 국내 기술로 개발된 AI 모델과 AI 반도체가 맞물려 ‘국산 LLM + 국산 NPU’라는 완전한 주권형 AI, 즉 ‘소버린 AI’ 실현의 가능성을 보여주고 있다. SKT는 테스트 결과에 따라 리벨리온의 서버 도입을 점진적으로 확대할 계획이며, 안정성과 에너지 효율성이 확보되면 실서비스 도입이 본격화될 전망이다. 특히, 6월 출시 예정인 아톰 맥스는 대규모 AI 추론 서비스에 최적화된 하드웨
MI355X GPU 기반으로 하는 제타스케일 AI 슈퍼클러스터를 OCI 상에서 제공 오라클과 AMD가 클라우드 기반 대규모 AI 훈련 및 추론 워크로드에 대응하기 위해 손을 맞잡았다. 양사는 오라클 클라우드 인프라스트럭처(OCI)에 AMD의 최신 GPU인 Instinct MI355X를 도입할 계획을 23일 공식 발표했다. 이번 협력은 생성형 AI, LLM 등 점차 고도화되는 AI 워크로드 수요에 대응하기 위한 인프라 고도화 전략의 일환이다. 오라클은 MI355X GPU를 기반으로 하는 제타스케일 AI 슈퍼클러스터를 OCI 상에서 제공한다. 해당 클러스터는 최대 131,072개의 MI355X GPU로 구성될 수 있으며, 고처리량과 초저지연을 위한 RDMA 기반 클러스터 네트워크 아키텍처를 채택해 대규모 AI 훈련, 추론, 미세조정 작업을 효율적으로 처리할 수 있다. MI355X GPU는 전 세대 대비 최대 2.8배 향상된 처리량과 3배에 달하는 컴퓨팅 성능을 제공하며, 288GB HBM3 고대역폭 메모리와 최대 8TB/s의 메모리 대역폭을 지원한다. 새로운 4비트 부동 소수점(FP4) 연산 기능은 대용량 모델의 비용 효율적 배포에 적합하며, 고속 추론 환경을
GB200 NVL72, 고속 연산과 대용량 처리 환경이 필요한 차세대 워크로드에 최적화 엔비디아와 코어위브가 차세대 AI 모델 훈련과 추론의 속도를 대폭 끌어올릴 ‘GB200 NVL72’ 시스템을 상용화하며 본격적인 서비스에 돌입했다. 이번 발표를 통해 코어위브는 엔비디아 그레이스 블랙웰 아키텍처를 기반으로 한 AI 슈퍼컴퓨팅 시스템을 가장 먼저 온라인 상에서 고객에게 제공한 클라우드 서비스 기업으로 이름을 올렸다. GB200 NVL72는 총 72개의 블랙웰 GPU와 36개의 그레이스 CPU를 NV링크로 연결한 랙 스케일의 고성능 AI 컴퓨팅 플랫폼이다. 이는 AI 에이전트, 대규모 언어 모델, 영상 생성 모델 등 고속 연산과 대용량 처리 환경이 필요한 차세대 워크로드에 최적화한 설계로, 단일 인스턴스에서 최대 11만 개 GPU까지 확장이 가능한 네트워크 환경도 함께 제공한다. 이미 코히어, IBM, 미스트랄 AI 등 글로벌 AI 기업들이 GB200 NVL72를 기반으로 자사 모델을 훈련하고 추론하며 성능 향상 효과를 입증하고 있다. 코히어는 자사의 AI 플랫폼 ‘노스(North)’에서 블랙웰 기반 환경으로 전환한 후 1000억 개 파라미터 모델 훈련에서 기