챗봇 개발, QA(품질보증), 자연어 생성 등 다양한 분야에 활용 기대돼 엔씨소프트는 대형언어모델(LLM) 'Llama-VARCO LLM'을 공개했다고 26일 밝혔다. 라마 바르코 LLM은 엔씨소프트가 오픈소스 언어모델 'Llama 3.1'을 기반으로 한국어 성능을 향상시킨 튜닝 모델이다. 라마 바르코 LLM의 특징은 '소규모·고성능'으로, 한국어 LLM의 사고력을 측정하는 'Logickor' 벤치마크에서 파라미터 100억 개 이하의 동급 공개 모델 중 1위의 성능을 기록했다. 라마 바르코 LLM은 챗봇 개발, QA(품질보증), 자연어 생성 등 다양한 분야에서 활용할 수 있다. 엔씨소프트는 이번에 공개한 LLM을 인공지능(AI) 모델 공유 플랫폼 '허깅페이스'를 통해 오픈소스로 제공할 방침이다. 헬로티 서재창 기자 |
한국과학기술원(KAIST)은 산업및시스템공학과 박찬영 교수 연구팀이 네이버와 공동으로 ‘협업 필터링’(Collaborative filtering)을 통해 대형언어모델(LLM)의 상품 추천 성능을 획기적으로 높일 수 있는 기술을 개발했다고 17일 밝혔다. LLM은 챗GPT와 같이 사람의 개입 없이 임무를 수행할 수 있는 생성형 AI의 기반이 되는 기술이다. 최근 전자상거래 플랫폼 등에서 LLM을 이용한 상품 추천 서비스가 주목받고 있다. ‘영화 극한직업, 범죄도시1, 범죄도시2를 봤을 때 다음 시청할 영화는 무엇인가?’라고 소비자가 상품 이름을 텍스트로 나열해 LLM에 입력하면 답을 제시하는 방식으로 작동한다. 하지만 기존 서비스는 LLM이 추천을 목적으로 학습·설계돼 있지 않아 저조한 성능을 보인다. 상품 추천을 위해 ‘파인 튜닝’(사전 학습된 LLM을 특정 작업이나 데이터셋에 맞게 최적화하는 과정)을 거쳐야 하지만 학습과 추론에 시간과 비용이 많이 든다는 한계가 있다. 연구팀은 LLM을 직접 학습하는 대신 사용자와 비슷한 상품을 소비한 다른 사용자들에 대한 정보를 활용하는 ‘협업 필터링’ 방식으로 신경망을 경량화했다. 협업 필터링은 유사 사용자 기반 추천,
시스코가 연례 네트워크 및 보안 행사인 ‘시스코 라이브 2024(Cisco LIVE 2024)’를 미국 라스베이거스에서 개최했다. 2일부터 6일까지 열리는 이번 행사에서 시스코는 전체 포트폴리오에 걸쳐 인공지능(AI) 기반 기능이 한층 더 강화된 네트워킹, 보안, 가시성 솔루션을 공개했다. 이 솔루션은 고객이 전체 디지털 발자국(Digital Footprint)을 연결 및 보호하고 디지털 회복탄력성을 구축하는 데 필요한 가시성과 인사이트를 제공한다. 시스코는 AI가 단지 ‘새롭게 부상한 기술적 터닝포인트’가 아니라, ‘전체 조직을 연결하고 보호하며 기업의 성장과 확장을 지원하고, 모두를 위한 포용적인 미래를 가능하게 하는 디지털 회복탄력성의 원천’이라고 강조했다. 척 로빈스 시스코 회장 겸 최고경영자는 “시스코는 인프라와 데이터의 연결 방식, 기업 보호를 혁신하는 독보적인 위치에 있으며, AI 시대에 엔터프라이즈 고객에게 알맞은 전략적 파트너”라고 소개했다. 또한 시스코 인베스트먼트는 안전하고 신뢰할 수 있는 AI 솔루션을 개발하고 확장하기 위해 10억 달러(약 1조 3,700억 원) 규모의 글로벌 AI 투자 펀드를 조성한다고 발표했다. 시스코는 고객 준비도
데이터브릭스가 표준 벤치마크에서 모든 오픈소스 모델을 능가하는 범용 대형언어모델(LLM) DBRX를 출시했다고 28일 밝혔다. DBRX는 모든 기업을 위해 맞춤형 고성능 LLM의 학습과 튜닝을 보편화한다. DBRX는 바로 사용 가능하며 전 세계 조직은 비용 효율적으로 자체 맞춤형 LLM을 구축, 교육 및 서비스할 수 있다고 데이터브릭스는 전했다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “데이터브릭스는 데이터와 AI를 보편화하겠다는 사명 아래 모든 기업에 데이터 인텔리전스를 제공해 그들이 보유 중인 데이터를 이해하고 이를 활용하여 자체적인 AI 시스템을 구축할 수 있도록 지원하고 있다”고 말했다. 그는 이어 “새롭게 선보인 DBRX는 최신 업계 벤치마크에서 오픈소스 모델을 능가하고 대부분의 벤치마크에서 GPT-3.5를 뛰어넘는 수준”이라며 “우리는 독점 모델을 오픈소스 모델로 대체하는 추세가 고객 기반 전반에 걸쳐 가속화될 것으로 기대하고 있다”고 밝혔다. 또한 “DBRX는 전문가 혼합 아키텍처를 사용하기 때문에 초당 토큰 전송 속도가 매우 빠르며 비용 효율적”이라며 “DBRX는 오픈소스 LLM의 새로운 기준을 제시하며 기업이 자체 데이터를 기반으로
보험업계가 급변하는 시장 환경에 대응하여 인슈어테크(InsurTech)를 이용한 디지털 전환에 속도를 내고 있다. 글로벌 시장 조사 업체 그랜드뷰리서치에 따르면 전 세계 인슈어테크 시장은 현재 빠른 성장세를 보이며, 앞으로 5년 간 약 609억 8000만 달러 규모로 확대될 전망이다. 특히 인슈어테크 분야에서는 AI 기술의 도입 및 활성화가 주목을 받고 있다. 이러한 트렌드 속에, 헬스케어 데이터 양방향 플랫폼 기업 레몬헬스케어는 인공지능(AI) 대형언어모델(LLM)을 기반으로 한 ‘AI 분석 숨은 보상금 찾기’ 서비스를 선보였다. 이 서비스는 환자가 실손보험 외의 보장성 보험에서 숨어있는 보상금의 수령 가능성을 파악할 수 있도록 돕는다. 또한 SK텔레콤은 보맵과 협력하여 PASS앱 내에서 AI를 활용한 ‘PASS 금융비서 보험분석’ 서비스를 시작했다. 이 서비스는 고객의 보험 관련 데이터를 분석하여 필요 없는 보험은 줄이고 필요한 보험을 추천한다. 올해 안에 보험 업무에 공공마이데이터의 활용이 가능해짐에 따라, 인슈어테크 플랫폼의 확장이 기대된다. 이를 통해 소비자는 행정‧공공기관에 산재한 개인 정보를 데이터 형태로 받거나 제3자에게 전송할 수 있게 될 예
노이즈 환경에서도 고객 질문에 맞춰 답변 제공하는 AI 컨시어지 서비스 제공 인티그리트는 1일 다양한 고객 서비스와 비지니스 현장에서 생성형 AI 기술을 적용해 맞춤형 대화 검색과 다양한 언어로 정보 안내, 고객 상담, 결재까지 제공하는 신개념의 생성형 AI 하드웨어 ‘V스텔라’를 상용화 한다고 밝혔다. 스텔라는 오픈AI의 'GPT-4'와 메타의 '라마' 등 대형언어모델(LLM)을 연동하고 온 디바이스 AI 비전 기술을 통합해 높은 노이즈 환경에서도 고객의 질문이나 요청에 맞춰 최적의 답변을 제공하는 AI 컨시어지 서비스를 제공한다. AI 시장의 큰 변화를 가져온 GPT, 라마, 달리 등의 생성형 AI 플랫폼의 등장으로 개인용 서비스와 비지니스 환경에서 생산성과 효율이 높아지지만, 실제 기업의 고객과 함께하는 서비스 현장에서 AI를 연결하기 위한 장치나 방법은 공백으로 남아 있다. V스텔라는 백화점이나 쇼핑몰, 호텔의 체크인 카운터, 병원, 무인 스토어나 은행 데스크에서 사람을 대신해 음성 대화로 AI를 검색하고 기업의 AI를 연결해 고객에게 심층적인 전문 정보까지 저비용으로 많은 가치를 제공하는 ‘비지니스 어카운트’와 ‘인포메이션 컨트롤러' 역할을 제공한다
생성형 AI, AI 비전, AICC, AI 데이터 등 AI 공동 사업 추진 인공지능(AI) 소프트웨어 업체 코난테크놀로지와 SK텔레콤(이하 SKT)가 AI 기술 고도화에 뜻을 함께했다. 양사는 지난 2022년 10월 AI 기술협력 및 전략적 파트너십을 체결한 데 이어 앞으로도 함께 협력해 AI 사업을 위한 협력체계를 공고히 할 계힉이다. 이번 업무협약(MOU)을 통해 생성형 AI, AI 비전, 인공지능 고객센터(AICC), AI 데이터 등을 고도화할 방침이다. 김영섬 코난테크놀로지 대표이사는 “양사 간 공동 사업 기회 발굴을 위해 최선을 다할 것”이라며 “앞으로도 AI 시장 선도에 역량을 집중할 계획”이라고 전했다. 한편, 코난테크놀로지는 지난해 8월 거대언어모델(LLM) ‘코난 LLM’을 출시하고, 과학기술정보통신부 주관 대한민국 초거대 AI 출정식에서 AI 기술을 선보인 바 있다. 헬로티 최재규 기자 |
응용처별 최신 반도체 설계 현황과 비전 공유 및 이미지센서 등 발표 삼성전자가 5일(현지시간) 미국 실리콘밸리 미주총괄에서 ‘삼성 시스템LSI 테크 데이 2023’을 개최했다. 삼성전자는 초지능화(Hyper-Intelligence)·초연결성(Hyper-Connected)·초데이터(Hyper-Data)를 가능하게 할 주요 응용처별 최신 반도체 설계 현황과 비전을 공유했다. 삼성전자는 고객사와 파트너사 관계자 300여명이 참석한 가운데, 시스템 반도체 설계 분야 글로벌 전문가, 석학들과 함께 생성형 AI·대형 언어 모델(LLM, Large Language Model) 기술에 대한 심도 깊은 논의를 진행했다. 삼성전자 시스템LSI사업부 박용인 사장은 “데이터를 생성하고 처리하는 생성형 AI가 올해 가장 중요한 기술 트렌드로 자리 잡으며 더 고도화된 기반 기술 확보의 필요성이 대두되고 있다”며 “삼성전자는 고성능 IP부터 장단거리 통신 솔루션, 인간의 오감을 모방한 센서 기반 ‘시스템LSI 휴머노이드’를 구현하며 생성형 AI에서 더 발전된 ‘선행적 AI(Proactive AI)’ 시대를 열 것이다”고 밝혔다. 삼성전자는 이번 행사에서 AMD(Advanced Micr
MI300X 칩이 최대 192GB 메모리 탑재해 거대 AI 모델에 장착할 수 있음을 강조 AMD는 13일(현지시간) 새로운 인공지능(AI) 칩을 선보이며 이 부문 시장을 장악한 엔비디아에 도전장을 내밀었다. AMD는 이날 'MI300X'라는 이름의 최첨단 AI GPU를 공개하고, 올해 말부터 본격 출시한다고 밝혔다. GPU는 챗GPT 개발사 오픈AI와 같은 기업이 최첨단 AI 프로그램을 구축하는 데 들어가는 칩으로, 엔비디아가 전 세계 시장의 80% 이상을 차지하고 있다. AMD는 새로운 MI300X 칩이 대형 언어 모델(LLM)과 다른 최첨단 AI 모델을 위해 설계됐다고 설명했다. 리사 수 최고경영자(CEO)는 "LLM의 중심에는 GPU가 있고, GPU는 생성 AI를 가능하게 한다"고 말했다. AMD는 MI300X 칩이 최대 192GB의 메모리를 탑재해 큰 AI 모델에 장착할 수 있다고 강조했다. 경쟁 제품인 엔비디아 H100의 120GB 메모리를 능가한다는 것이다. 수 CEO는 "MI300X 칩은 엔비디아 H100 대비 2.4배의 메모리 밀도와 1.6배 이상의 대역폭을 제공한다"라고 말했다. 이어 AI는 회사의 "가장 크고 전략적인 장기 성장 기회"라며
마이크로소프트(MS)가 현지시간 20일 직원 경험 플랫폼 마이크로소프트 비바에 인공지능(AI) 비서 '코파일럿'을 탑재한다고 발표했다. 비바는 마이크로소프트 365와 팀즈를 기반으로 다양한 비바 앱을 통해 직원의 참여, 학습, 웰빙, 지식 발견 등을 돕는 통합 솔루션이다. 코파일럿이 탑재된 비바는 직원의 참여와 생산성을 동시에 지원, 비즈니스 성과 창출과 직원의 성장을 가속화한다. 비바 코파일럿은 지난달 공개된 마이크로소프트 365 코파일럿을 기반으로 구축됐다. 대형언어모델(LLM)과 마이크로소프트 그래프, 비바 앱의 데이터를 결합해 완전히 새로운 방식으로 리더가 직원을 잘 이해하고 참여시키도록 돕는다. 하이브리드 업무는 유연성을 제공하지만 직원이 회사의 우선순위를 명확히 파악하는 데 어려움을 줄 수 있다. 시장조사기관 포레스터에 따르면, 직원 50%는 목표에 대한 명확한 이해가 목적의식을 높이고 열심히 일할 수 있는 동기 부여가 된다고 답했다. 그러나 명확성을 제공하는 것은 여전히 어려운 과제로, 조직의 목표를 이해하는 직원은 39%에 불과했다. 목표 설정을 돕는 ‘비바 골’ 앱에 코파일럿이 적용됐다. ‘비바 골 코파일럿’은 리더에게 OKR(Objectiv
두 빅테크 기업이 부딪혔다. 주인공은 바로 구글과 마이크로소프트(이하 MS)며, 그들의 전장은 AI 챗봇이다. 시작은 MS의 막강한 지원을 등에 업은 오픈AI의 챗GPT였으나, 현재 구글과 MS의 경쟁은 마치 가위바위보 싸움을 보는 듯하다. 두 기업은 앞다퉈 개선된 AI 챗봇 기술 발표에 나서고 있다. 이뿐 아니라 국내외 빅테크 기업들도 후발주자로서 AI 챗봇 개발에 뛰어들고 있다. MS의 기막힌 복안, AI 챗봇에 있었다 챗GPT는 작년 11월 출시 이후 2개월여 만에 월간 활성 이용자(MAU)가 1억 명을 넘어서는 등 말 그대로 태풍의 중심에 있다. 오픈AI가 개발한 챗GPT는 AI 챗봇 시장의 강자로 우뚝 선 셈이다. 이에 구글 역시 AI 챗봇 ‘바드’를 출시하며 팽팽한 힘겨루기를 시작했다. 챗GPT와 바드 뒤에는 각각 마이크로소프트와 구글이라는 거대 기업의 막대한 투자가 수반되며, 두 AI 챗봇 경쟁은 심화할 것으로 보인다. MS는 챗GPT를 기반으로 또 한 번의 도약을 기대하고 있다. MS는 세계 최대 소프트웨어 기업이지만, 1990년대 이후 하향세를 겪었다. 시장 점유율을 고려했을 때 클라우드 서비스는 아마존에, 검색 엔진은 구글에 미치지 못하고
마이크로소프트가 현지시간 16일 마이크로소프트 365 코파일럿을 공개, 자사 업무 생산성 도구 전반에 차세대 AI 기술을 적용한다. 이는 대형언어모델(LLM)과 비즈니스 데이터, 마이크로소프트 365 앱을 결합해 사용자의 창의성, 생산성, 스킬 향상 등을 돕는다. 사티아 나델라(Satya Nadella) 마이크로소프트 CEO 겸 이사회 의장은 "오늘 우리는 컴퓨팅과 상호 작용하는 방식의 발전 과정에서 중요한 발걸음을 내딛었으며, 이는 우리가 일하는 방식을 근본적으로 바꾸고 생산성 증대의 새로운 물결을 일으킬 것"이라며, "오늘 공개한 업무용 코파일럿은 사람들에게 더 큰 자율성을 부여하고, 가장 보편적인 인터페이스인 자연어로 기술에 더 쉽게 접근할 수 있도록 한다”고 말했다. 코파일럿은 대형언어모델 기반의 정교한 처리 및 조정 엔진이다. 마이크로소프트는 두 가지 방식으로 코파일럿을 자사 생산성 도구에 결합한다. 먼저 워드, 엑셀, 파워포인트, 아웃룩, 팀즈 등 일상적으로 사용되는 마이크로소프트 365 앱에 코파일럿이 내장된다. 또 코파일럿은 새로운 기능인 비즈니스챗에도 적용된다. 비즈니스챗은 대형언어모델, 마이크로소프트 365 앱, 사용자 데이터가 만나 이전에
트랜스포머 계열 AI 모델에 대한 AI 반도체 최적화 및 서비스 솔루션 공동 개발 추진 퓨리오사AI가 AI 플랫폼 ‘허깅페이스’와 협력해 차세대 AI 반도체 개발을 가속화한다. 양사는 챗GPT와 같은 초거대 언어 모델뿐 아니라 비전, 음성 등 다양한 어플리케이션 영역에 걸쳐 트랜스포머 계열의 인공지능 모델을 차세대 AI 반도체에 최적화하고 이를 효율적으로 서비스하는 솔루션을 공동 개발 중이다. 퓨리오사AI의 차세대 AI 반도체 출시 시점에 맞춰 글로벌 AI 기업 대상의 비즈니스도 함께 추진할 계획이다. 허깅페이스는 챗GPT 와 같은 AI 모델의 근간이 되는 트랜스포머를 대중화시킨 플랫폼으로, 허깅페이스 트랜스포머 라이브러리는 일평균 100만 이상의 다운로드를 기록하고 있다. 구글, 마이크로소프트 등 전 세계 1만3000개 이상의 기업 고객이 허깅페이스를 사용 중이다. 퓨리오사AI가 개발 중인 차세대 AI 반도체는 챗GPT 등 트랜스포머 계열의 대규모 언어모델을 지원하는 인퍼런스 칩이다. 대량의 데이터를 한 번에 처리하도록 3세대 고대역폭메모리 D램 ‘HBM3’을 탑재할 예정이다. 현재 디자인 설계를 마쳤고, 2024년 상반기에 5nm 선단 공정에서 양산하는
컴퓨팅 영역 연구원, 개발자 및 업계 리더가 650개 이상의 세션 제공할 예정 엔비디아가 3월 20일부터 23일까지 가상으로 GTC 2023 콘퍼런스를 개최한다고 발표했다. 이번 콘퍼런스에서는 창립자이자 CEO인 젠슨 황(Jensen Huang)의 기조연설을 비롯해 생성 AI, 메타버스, 대형 언어 모델, 로보틱스, 클라우드 컴퓨팅 등의 최신 발전을 다룰 예정이다. GTC 2023에서는 모든 컴퓨팅 영역의 연구원, 개발자 및 업계 리더들이 650개 이상의 세션을 제공하며, 25만 명 이상이 등록할 것으로 예상된다. 또한, 젠슨 황과 오픈AI 공동 설립자인 일리야 수츠케버(Ilya Sutskever)와의 대담을 포함해 아니라 딥마인드의 데미스 허사비스(Demis Hassabis), 스태빌리티 AI의 이마드 모스타크(Emad Mostaque)등의 대담이 진행된다. 젠슨 황은 "AI 역사상 지금이 가장 놀라운 순간이다. 새로운 AI 기술과 빠르게 확산되는 채택은 과학과 산업을 변화시키고 수천 개의 새로운 기업을 위한 새로운 지평을 열고 있다. 이것은 우리의 가장 중요한 GTC가 될 것”이라고 말했다. 더불어 젠슨 황의 기조연설은 3월 21일 화요일 밤 12시(한국