한국과학기술원(KAIST)은 전기·전자공학부 노용만 교수 연구팀의 박세진 박사과정생이 장시간 음성 생성이 가능한 음성언어모델(SLM·Spoken Language Model) ‘스피치SSM’을 개발했다고 3일 밝혔다. 이번 연구는 권위 있는 국제머신러닝학회(ICML) 논문 중 1%만 받을 수 있는 구두 발표 대상으로 선정됐다. SLM은 대형언어모델(LLM)과 달리 텍스트가 아닌 음성을 학습함으로써 텍스트에 담을 수 없는 사람의 억양·감정 등 비언어적 정보까지 이해해 정보를 생성하는 기술이다. 텍스트 기반 언어 모델의 한계를 넘어서는 차세대 기술로 주목받고 있지만, 장시간 일관된 음성을 생성하기 어려워 팟캐스트, 오디오북, 음성비서 등에는 적용하기 어려웠다. 음성 정보를 담기 위해 ‘음성 토큰’(음성을 잘게 쪼갠 데이터) 형태로 만드는데, 음성 토큰이 많아질수록 고해상도를 유지하기 위한 메모리 소비가 급증하기 때문이다. 앞의 정보를 집중해 기억하는 메모리의 길이에 한계가 있어, 장시간 이용할 경우 주제의 일관성이 무너지는 문제가 있었다. 연구팀은 최근 정보에 집중하는 ‘어텐션 층’(attention layer)에 전체 이야기의 흐름, 즉 장기적인 맥락을 오래 기
[첨단 헬로티] 인공지능(AI) 전문 기업 AITRICS(에이아이트릭스)는 국제 머신러닝 학회인 ‘ICML(International Conference on Machine Learning) 2019’에 논문 7편이 채택됐다고 10일 밝혔다. ICML은 이달 10일부터 15일까지 캘리포니아 롱비치, 롱비치 컨벤션센터에서 개최 중인 국제 머신러닝 학회 중 하나로, 매년 인공지능 분야의 다양한 머신러닝 알고리즘의 이론적 기반에 관한 내용을 다루고 있어서 관련 분야의 연구자들에게 새로운 이론적 접근 방법을 제시하고 있다. 올해는 총 3천 424편의 논문이 제출됐으며 그 중 774편이 채택됐다. AITRICS는 이번에 ‘Set Transformer: A Framework for Attention-based Permutation-Invariant Neural Networks’ 논문을 통해 3차원 물체 인식이나 소수샷 분류 등 객체 집합을 입력 데이터로 받는 문제들에 적합한 알고리즘인 세트-트랜스포머(Set Transformer)를 제안했다. AITRICS는 “세트-트랜스포머는 기존의 트랜스포머(Transformer)