배너
닫기

일반뉴스

배너

오픈AI, 이용자와 실시간으로 대화하는 'GPT-4o' 공개

URL복사

 

이용자와 실시간 음성 대화를 진행함으로써 질문 및 답변 요청할 수 있어

 

오픈AI가 13일(현지시간) 보고 듣고 말하는 새로운 AI 모델을 공개했다.

 

오픈AI의 미라 무라티 최고기술책임자(CTO)는 이날 라이브 행사를 통해 'GPT-4o(GPT-포오)'라는 이름의 이 새 AI 모델을 공개하고, 시연을 선보였다. GPT-4o는 주로 텍스트를 통해 대화할 수 있었던 기존 모델과 달리 이용자와 실시간 음성 대화를 통해 질문하고 답변을 요청할 수 있는 AI 모델이다. 새 모델의 'o'는 모든 것이라는 '옴니(omni)'를 뜻한다. 

 

이 모델은 텍스트는 물론, 청각과 시각으로도 추론하고 이를 말하는 한층 똑똑해진 음성 어시스턴트다. 특히, 이용자 질문에 곧바로 답이 제공된다. GPT-4o의 응답 시간은 최소 232밀리초, 평균 320밀리초로, 이는 인간의 응답시간과 비슷하다고 오픈AI는 설명했다.

 

이전 모델인 GPT-3.5는 평균 2.8초, GPT-4가 응답에 5.4초가 걸렸다. GPT-4o는 사람처럼 대화가 가능하고, 답 제공 중에 끼어들어도 대화는 계속 이어진다. 이날 시연에서 휴대전화로 '내가 좀 긴장한 상태인데 어떻게 진정할 수 있을까'라고 묻자, '숨을 깊이 들이마시라'는 음성 답이 돌아왔다.

 

'잠을 잘 자지 못하는 친구를 위해 잠자리 이야기를 들려달라'고 하자, 이 AI 모델은 다양한 목소리와 감정, 톤으로 바꿔가며 이야기를 들려줬다. 다른 시연에서는 종이에 적힌 수학 문제(3x+1=4)를 보여주고 답을 말하지 말고 풀어달라고 하자, 시각 기능을 이용해 단계별 과정을 제공했다.

 

실시간 번역 기능도 담았다. 오픈AI는 GPT-4o 모델이 기존 GPT-4 터보보다 두 배 더 빠르고 비용은 2분의 1 수준이라고 설명했다. GPT-4 터보는 지난해 11월 선보인 최신 버전이다. 또한, 새 모델로 한국어 등 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐다.

 

오픈AI는 이날부터 개발자들이 새 모델을 사용해 애플리케이션을 구축할 수 있도록 자사 API를 통해 이용할 수 있다고 언급했다. 무료로 제공되지만 기존 유료 구독자는 무료 이용자보다 5배 많은 질문을 할 수 있고, 이날 시연된 AI 음성 모드는 몇 주 안에 공개될 예정이다.

 

무라티 CTO는 "사용 편의성에 관해 우리가 정말로 큰 진전을 이뤘다고 생각하는 것은 이번이 처음"이라고 말했다. 샘 올트먼 최고경영자(CEO)는 지난 10일 자신의 엑스에 이날 발표를 예고하며 "나에게는 새 모델이 마법처럼 느껴졌다"고 썼다. 샘 올트먼 CEO는 이날 트위터에 10여년전 개봉된 AI와 감정을 나눈다는 영화 '그녀'를 뜻하는 'her'라고 적었다. GPT-4o가 영화를 현실로 만들어주고 있다는 것을 의미하는 것으로 보인다. 

 

오픈AI의 이날 발표는 AI를 둘러싼 또 한번의 치열한 경쟁을 예고하고 있다. 오픈AI의 이날 발표는 구글의 연례 개발자 회의(I/O)를 하루 앞두고 나왔다. 구글이 어떤 내용을 발표할 것인지는 알려지지 않았지만, AI 모델인 제미나이의 업그레이드 관련 내용이 담겨 있을 것으로 예상되고 있다. 

 

애플은 내달 연례 세계 개발자 회의(WWDC)에서 AI 전략을 발표할 예정이다. AI 경쟁에서 뒤처졌다는 평가를 받아온 애플은 자사의 음성 비서인 시리(Siri)에 생성형 AI를 탑재할 것으로 전해졌다. 

 

헬로티 서재창 기자 |










배너









주요파트너/추천기업