알리바바 클라우드가 새로운 엔드투엔드 멀티모달 AI 모델 ‘Qwen2.5-Omni-7B’를 공개했다. Qwen2.5-Omni-7B는 텍스트, 이미지, 음성, 영상 등 다양한 입력 정보를 실시간으로 처리하며, 자연스러운 텍스트 응답과 음성 출력을 동시에 지원하는 이 모델은 모바일 기기와 노트북 등 엣지 디바이스에 최적화된 멀티모달 AI의 새로운 기준을 제시한다. 이번에 공개된 Qwen2.5-Omni-7B는 70억 개 파라미터 규모의 컴팩트한 구조에도 불구하고, 고성능 멀티모달 처리 능력을 제공한다. 실시간 음성 상호작용, 음성 기반 명령 수행, 시청각 데이터 통합 해석 등에서 우수한 성능을 발휘하며, 시각 장애인을 위한 실시간 음성 안내, 동영상 기반 요리 가이드, 지능형 고객 응대 시스템 등 다양한 실용적 활용이 가능하다. 알리바바 클라우드는 해당 모델을 허깅페이스(Hugging Face), 깃허브(GitHub), 모델스코프(ModelScope) 등 주요 오픈소스 플랫폼을 통해 공개했으며, 자사의 멀티모달 챗봇 서비스 ‘큐원 챗(Qwen Chat)’에서도 활용할 수 있도록 했다. 알리바바 클라우드는 현재까지 총 200개 이상의 생성형 AI 모델을 오픈소스로
시각 정보 실시간 인식 후 음성 기반 AI 서비스 제공 시어스랩이 AI 기반 웨어러블 디바이스 ‘에이아이눈(AInoon)’의 사전 예약 판매를 3월 31일부터 시작한다. 국내를 시작으로 3개월간 예약 접수를 받고, 오는 7월부터 전 세계로 제품 발송을 시작할 계획이다. 에이아이눈은 일반 안경 형태의 디자인에 AI 기능을 결합한 스마트 안경으로, 착용자 주변의 시각 정보를 실시간으로 인식하고 이를 바탕으로 음성 기반 AI 서비스를 제공하는 것이 가장 큰 특징이다. 예를 들어, 운동기구를 바라보며 사용법을 물으면 해당 기기의 종류를 인식하고 AI가 사용법을 음성으로 안내해주는 방식이다. 외국어 간판이나 메뉴도 실시간으로 번역해 음성으로 알려주는 기능도 포함돼 있다. 제품은 45g의 가벼운 무게와 일반 안경과 유사한 디자인으로 착용감을 높였고, 1600만 화소 카메라를 내장해 Full HD 사진과 영상 촬영이 가능하다. 오픈이어 스피커를 통해 음악 감상과 전화 통화도 지원한다. 이처럼 여가, 업무, 여행, 요리, 운동 등 다양한 일상 속에서 ‘손과 눈이 되어주는’ AI 어시스턴트 역할을 한다는 점에서 주목된다. 시어스랩은 “PC나 스마트폰에 국한됐던 AI 활용 경
OpenAI 12 Days 발표 분석 및 AI 모델 개발 동향 총망라… AI 트렌드 및 인사이트 제공해 AI3가 지난 27일 서울시 강남구 코엑스 스타트업브랜치에서 ‘Generative AI Trend Conference 2025(이하 생성형 AI 트렌드 컨퍼런스 2025)’를 개최했다. 생성형 AI 트렌드 컨퍼런스 2025는 OpenAI가 발표한 새 기능을 집중 리뷰하고 생성형 AI 전문가들이 분석한 생성형 AI 동향과 전망을 다뤘다. 현재 생성형 AI를 활발히 활용하고 있는 현업인 뿐 아니라 AI 트렌드에 관심을 두는 누구나에게 열린 교육의 장으로 온·오프라인을 포함해 무료로 이번 행사를 마련했다. OpenAI는 지난 12월 5일부터 '12 Days of OpenAI'라는 이름으로 새로운 이벤트와 기술업데이트 사항을 실시간 라이브 형태로 연달아 발표해 AI 기술의 현재와 미래를 제시했다. 이에 표철민 AI3 대표이사는 지난 2주간 OpenAI가 발표한 내용을 번역하고 분석한 내용을 전달하면서 OpenAI의 동향과 전망을 밝혔다. 이번 발표는 생성형 AI, 자연어 처리, 음성 AI, 그리고 새로운 업무 환경 구축 등 다양한 주제를 포괄하며 업계 주목을 받았