우리는 LLM 시대를 살고 있다 AI 기술의 급속한 발전 가운데, 대규모 언어 모델(Large Language Models, LLM)은 특히 눈에 띄는 진보를 이루고 있다. 지난 2022년 11월 등장한 GPT-3.5와 같은 모델이 자연어 처리를 혁신하며, 다양한 산업에서 영향력을 확대하고 있음을 의미한다. LLM은 방대한 양의 텍스트 데이터를 학습해 언어의 구조와 의미를 이해하고, 이를 바탕으로 자연스러운 텍스트를 생성할 수 있는 AI 모델이다. 초기 모델에서 최근 GPT-4o에 이르기까지 LLM은 더 많은 데이터와 복잡한 알고리즘을 통해 정확하고 다양한 언어 생성 및 이해 능력을 증명하고 있다. 챗GPT가 주목받았던 이유 중 하나는 사용자가 원하는 답변을 신속히 생성해낸다는 점이었다. 이 같은 관점에서 LLM은 고객 서비스에 적합한 기술이라는 평가를 받고 있다. 특히 AI 챗봇과 가상 어시스턴트는 고객 지원을 혁신하고 있다. 이들은 사용자 질문에 즉각적으로 반응하며, 특히 비대면 서비스가 중요해진 현 시대에 24시간 고객 지원을 제공함으로써 서비스의 접근성과 효율성을 높이고 있다. 자동화한 콘텐츠 생성 기능도 LLM의 주요 강점이다. 사용자는 LLM을 활
두 모델, 동급의 오픈소스 모델 중 최고 수준의 성능인 것으로 평가받아 메타가 다양한 목적으로 사용 가능한 최신 대규모 언어모델(LLM) ‘라마 3(Llama 3)’를 오픈소스로 공개했다. 메타의 차세대 대규모 언어모델 라마3는 사전훈련과 미세조정을 마친 80억 개(8B)와 700억 개(70B) 매개변수 모델 두 가지로 공개됐다. 이 두 모델은 현재 동급의 오픈소스 모델 중 최고 수준의 성능인 것으로 평가받는다. ‘대규모 다중작업 언어 이해(MMLU)’를 포함한 다양한 업계 표준 벤치마크에서 높은 성적을 받았으며 추론과 코드 생성, 지시 수행에 있어 전보다 성능이 크게 개선됐다. 라마3의 성능 향상은 모델의 사전 훈련과 사후 훈련 과정을 고도화함으로써 이뤄졌다. 사전 훈련을 위해 데이터셋의 양을 늘리고, 필터링 과정을 거쳐 고품질 데이터만을 선별했다. 라마3는 15조 이상의 토큰으로 훈련되었으며, 이는 라마2 대비 7배 이상 많으며 코드량은 4배 더 많다. 라마3의 사전 훈련에는 일상적인 질문부터 과학, 기술, 공학, 수학(STEM) 분야, 코딩, 역사 지식에 이르기까지 다양한 분야의 데이터셋이 사용되었다. 이를 통해 모델이 보다 여러 영역에서 활용될 수 있
1000억 개 이상 매개변수와 2조 개 이상 토큰 사전 학습 능력 갖춰 텐센트가 지난 7일 중국 선전에서 개최된 연례 컨퍼런스 ‘글로벌 디지털 에코시스템 서밋’에서 자체 개발한 초거대 AI 모델 '훈위안(Hunyuan)'을 공개했다. 중국 기업들은 이제 텐센트의 클라우드 플랫폼을 통해 훈위안에 접속하며, 기업의 특정 니즈에 맞춰 세밀하게 조정해 사용한다. 훈위안은 1000억 개 이상의 매개변수와 2조 개 이상의 토큰 사전 학습 능력을 갖췄으며, 우수한 중국어 처리 능력과 고급 논리 추론 기능에 더불어 안정적인 작업 실행 능력을 보유하고 있다. 이 AI 모델은 이미지 생성, 텍스트 인식, 카피라이팅, 고객 서비스 등 다양한 기능을 지원해 금융, 공공 서비스, 소셜 미디어, 전자 상거래, 물류 운송, 게임 등의 주요 산업에서 중요한 역할을 할 것으로 기대되고 있다. 기업은 지난 6월 첫 출시된 텐센트의 서비스형 모델(MaaS)을 기반으로 자체 고유의 거대 모델을 훈련하는 것에서 나아가 자체 비즈니스를 위한 강력한 맞춤형 AI 도구를 구축하게 됐다. 현재 텐센트의 MaaS는 20개의 주요 산업군에 걸쳐 총 50개 이상의 솔루션이 포함된 거대 AI 모델을 기업에 제