씨이랩(Xiilab)은 엔비디아(NVIDIA)의 차세대 AI 컴퓨팅 서버 ‘DGX B300’을 도입하며 AI 인프라 고도화에 본격 나섰다고 28일 밝혔다. 이번 도입은 씨이랩의 AI 연구개발 및 산업 적용 역량을 한층 강화하기 위한 전략적 투자로, 차세대 AI 기술의 실증과 상용화를 가속화할 전망이다. DGX B300은 엔비디아의 최신 블랙웰(Blackwell) GPU 아키텍처를 기반으로 한 초고성능 AI 서버로, 대규모 멀티모달 모델과 초거대 비전-언어 모델(VLM)의 학습 및 추론에 최적화된 인프라 솔루션이다. 이전 세대 대비 추론 성능은 11배, 학습 성능은 4배 이상 향상돼 복잡한 AI 모델의 안정적 운용을 지원한다. 씨이랩은 이번 도입을 통해 사내 AI 테스트베드를 새롭게 구축하고, 자체 GPU 클러스터 관리 솔루션 ‘아스트라고(AstraGo)’의 운영 효율과 자원 관리 고도화를 추진한다. 특히 DGX B300의 고속 NVLink 네트워크와 확장 메모리 아키텍처를 활용해 모델 학습·추론·튜닝 단계를 통합 운영함으로써 AI 모델 개발 주기를 대폭 단축시킬 계획이다. 이 같은 인프라 고도화를 통해 씨이랩은 R&D부터 테스트베드, 운영까지 이어지는
알리바바 클라우드가 글로벌 시장조사 기관 옴디아(Omdia)의 ‘2025 아시아 및 오세아니아 지역 생성형 AI 클라우드 대표 기업’ 보고서에서 ‘리더(Leader)’로 선정됐다. 이번 평가에서 알리바바 클라우드는 총 9개 항목 중 7개에서 최고 등급인 ‘고급(Advanced)’을 기록하며 리더 그룹 가운데 가장 많은 고급 등급을 획득한 기업으로 꼽혔다. 해당 보고서는 생성형 AI 모델, 인프라, 개발 플랫폼, 보안, 배포 역량 등 핵심 역량을 종합 평가해 아시아·오세아니아 지역 클라우드 기업의 기술 수준을 비교했다. 옴디아는 알리바바 클라우드가 기초 모델부터 애플리케이션, 인프라에 이르기까지 풀스택 생성형 AI 기술을 제공하고 있으며 글로벌 AI 시장에서 강력한 입지를 확보하고 있다고 분석했다. 특히 알리바바 클라우드의 대표 솔루션인 모델 스튜디오(Model Studio)와 AI 플랫폼 PAI는 사용자가 생성형 AI 애플리케이션을 직관적으로 구축하고 배포할 수 있는 환경을 제공하며 PAI-링준 인텔리전트 컴퓨팅 서비스를 통해 고도화된 연산 자원을 지원한다. 회사는 또한 오픈소스 AI 확산에도 적극적으로 참여하고 있으며 Qwen 모델은 4억 건 이상의 다운로