
오라클은 전 세계 AI 혁신 기업들이 AI 모델의 훈련 및 AI 추론과 애플리케이션 배포를 위해 오라클 클라우드 인프라스트럭처 AI 인프라스트럭처(OCI AI Infrastructure)와 OCI 슈퍼클러스터를 활용하고 있다고 밝혔다.
파이어웍스AI(Fireworks AI), 헤드라(Hedra), 누멘타(Numenta), 소니옥스(Soniox)를 비롯해 수백 개의 선도적인 AI 혁신 기업들이 AI 워크로드 실행 위치에 대한 제어, 컴퓨트 인스턴스 선택권, 확장성, 고성능, 비용 효율성 등의 이유로 OCI를 선택하고 있다.
산업 전반에서 AI 도입이 빠르게 확산됨에 따라 AI 기업들은 신속하고 경제적인 GPU 인스턴스 확장을 지원하는 안전하고 검증된 고가용성 클라우드 및 AI 인프라를 필요로 한다. AI 기업들은 OCI AI 인프라스트럭처를 통해 AI 훈련 및 추론, 디지털 트윈, 대규모 병렬 HPC 애플리케이션 등에 필요한 고성능 GPU 클러스터와 확장성 높은 컴퓨팅 파워에 접근할 수 있다.
크리스 간돌포 오라클 OCI 및 AI 부문 수석 부사장은 “OCI는 다양한 규모의 훈련 및 추론 요구사항을 충족시켜 주며, AI 혁신 기업들이 선호하는 클라우드 플랫폼으로 빠르게 자리매김했다”며 “OCI AI 인프라스트럭처는 초고속 네트워크, 최적화된 스토리지, 최첨단 GPU를 제공해 AI 기업의 차세대 혁신을 돕는다”고 강조했다.
파이어웍스 AI는 텍스트와 이미지, 오디오, 임베딩, 멀티모달 형식의 100개 이상의 최첨단 오픈 모델을 서비스하는 고성능 생성형 AI 애플리케이션 플랫폼으로, 개발자와 기업이 최적화된 생성형 AI 애플리케이션을 구축할 수 있도록 지원한다.
파이어웍스 AI는 엔비디아 호퍼(NVIDIA Hopper) GPU로 가속화된 OCI 컴퓨트(OCI Compute) 베어메탈 인스턴스와 AMD MI300X GPU를 탑재한 OCI 컴퓨트를 활용해 플랫폼에서 매일 2조 건 이상의 추론 토큰을 처리하고 글로벌 서비스 확장을 지원한다.
린 치아오 파이어웍스 AI 공동 창립자 겸 CEO는 “파이어웍스AI는 OCI AI 인프라스트럭처를 통해 개발자들이 원하는 초고속 응답 시간과 실제 생산 환경에 적용 가능한 수준의 안정성을 제공할 수 있다”며 “우리는 AI 워크로드를 효율적으로 처리하고 다운타임을 최소화하며 AI 애플리케이션이 대규모로 원활하게 실행되도록 지원해 고객들이 기본 인프라에 대해 걱정하지 않고 혁신에 집중할 수 있도록 한다”고 말했다.
헬로티 이창현 기자 |