알리바바 클라우드는 8일 온라인으로 열린 ‘스프링 론치 2025(Spring Launch 2025)’에서 글로벌 고객을 위한 신규 AI 모델, 개발 플랫폼, 인프라 업그레이드를 대거 발표하며 전 세계 AI 혁신을 가속화하겠다는 의지를 밝혔다. 셀리나 위안 알리바바 클라우드 인텔리전스 글로벌 사업 부문 회장은 “전 세계 기업들의 디지털 전환 수요에 대응하기 위해 일련의 PaaS 서비스와 AI 기술 업데이트를 발표했다”며 “이번 업그레이드를 통해 더욱 안전한 고성능의 서비스를 제공하고, 기업이 AI 중심의 세상에서 보다 빠르게 혁신과 확장을 해나가도록 지원하겠다”고 밝혔다. 이어 “클라우드와 AI가 글로벌 성장의 핵심 기반이 되는 추세에 따라 고객의 진화하는 필요에 부응해 핵심 제품을 지속 강화해 나갈 것”이라고 강조했다. 이번 온라인 이벤트에서 알리바바 클라우드는 자사의 기초 모델 접근성을 확대하고 인프라 제품을 업그레이드함으로써 글로벌 고객을 위한 새로운 서비스를 발표했다. 해당 모델들은 싱가포르 지역의 가용 영역을 통해 제공되며 알리바바 클라우드의 독자적인 초거대 언어 모델(LLM) 시리즈 ‘Qwen’의 최신 모델들을 포함한다. 대표 모델로는 대규모 Mix
기존 요금 정책에 비해 인퍼런스 작업 비용 50% 절감 알리바바 클라우드가 개인과 기업에 모델 구축 및 인퍼런스를 위한 비용 효율적인 솔루션을 제공하기 위해 설계된 PAI(Platform for AI, AI컴퓨팅용 플랫폼)-EAS(Elastic Algorithm Service, 탄력적 알고리즘 서비스)의 서버리스 버전을 공개했다. 알리바바 클라우드는 지난 1월 31일 싱가포르에서 개최된 AI & 빅데이터 서밋에서 더 많은 자사 제품에 벡터 엔진 기술을 통합할 계획을 밝혔다. 벡터 엔진 기술이 통합되는 제품에는 데이터 웨어하우스 홀로그레스, 검색 서비스 엘라스틱서치 및 오픈서치 등이 있으며, 이번 기술 통합은 기업이 다양한 대규모 언어 모델(LLM)에 더욱 쉽게 접근하고 맞춤형 생성형 AI 애플리케이션을 구축하는 것을 가능하게 한다. 이번에 공개된 PAI-EAS 플랫폼은 사용자들이 필요에 따라 컴퓨팅 리소스를 활용하는 것을 가능하게 해 물리적 또는 가상 서버의 관리와 유지를 감독할 필요가 없어진다. 또한, 사용한 컴퓨팅 자원에 대한 비용만 청구되므로 기존 요금 정책에 비해 인퍼런스 작업 비용을 50% 절감한다. 현재 베타 테스팅 중인 이 서버리스 버전은