바이브컴퍼니(이하 바이브)가 2024 대한민국 정부 박람회에 참가해 RAG 기술 기반 AI 솔루션을 선보였다. 이번 박람회는 디지털 플랫폼 정부의 성과와 현황을 공유하고 향후 방향성을 모색하는 자리로, 13일부터 15일까지 광주광역시 김대중컨벤션센터에서 진행됐다. 바이브가 박람회에서 소개한 바이브 서치(VAIV Search)는 데이터베이스 내 문서에서 관련 정보를 검색한 후 이를 바탕으로 답변을 생성하는 검색 증강 생성 기술 기반 검색 솔루션이다. 바이브는 검색 정확도를 높이기 위해 LLM 학습, 결과 재순위화, 도메인에 따른 UX 기술 개발을 적용해 활용성을 강화했다. 바이브 서치는 내부에서 운영해 보안 문제에서 자유로운 사내 구축형 솔루션이다. 내·외부 문서와 결합한 자연어 의미 검색, 고객 상담 챗봇, 리포트 작성 등 다양한 업무에 활용되고 현재 국회도서관과 외교부를 포함한 기관 및 기업에 도입됐다. 바이브는 이외에도 이번 박람회에서 빅데이터 분석 서비스 ‘썸트렌드 클라우드(Cloud)’, AI 챗봇 솔루션 ‘바이브 챗봇(Chatbot)’, 인공지능 기반 이슈 요약 서비스 ‘바이브 뉴스다이제스트(NewsDigest)’ 등 다양한 서비스를 소개했다. 바이
채팅상담, 문서 등 다양한 데이터 학습하고 답변을 생성해 상담 업무 자동화 실현 루나소프트-엠비아이솔루션이 자사 상담 솔루션을 ‘해피톡’으로 통합하고 인공지능(AI) 고객상담 시스템 고도화에 나선다고 13일 밝혔다. 이번 솔루션 통합은 엠비아이솔루션이 자체 개발한 AI 엔진인 ‘hAI(happytalk AI, 해피톡 AI)’ 출시 및 기능 업그레이드에 따른 결정이다. 지난해 10월 M&A 계약을 체결한 루나소프트와 엠비아이솔루션은 양사 대표 고객상담 솔루션인 ‘루나톡’과 ‘해피톡’을 별도로 서비스해 오다 올해 상반기 hAI 출시를 기점으로 솔루션 통합 절차에 속도를 내고 있다. 루나톡과 해피톡이 각각 제공해 온 채팅상담과 챗봇, 콜 서비스 등을 해피톡으로 일원화하고 여기에 hAI를 전면 탑재해 AI 고객상담 솔루션으로 고도화할 예정이다. hAI는 거대언어모델(LLM)과 검색증강생성(RAG) 기술 기반의 CS 특화 생성형 AI 엔진이다. 채팅상담 내용이나 문서 등 다양한 데이터를 학습하고 이를 토대로 답변을 생성해 상담 업무를 자동화한다. 현재 해피톡에서 서비스 중인 QA 챗봇에 우선 적용해 기존 챗봇보다 정교한 응대가 가능하도록 했다. QA 챗봇은 질
최적인 RAG 파이프라인 정의 및 실행해 기존 방식 대비 성능 높여 인텔리시스는 거대언어모델(Large Language Model, LLM)을 활용한 서비스 개발에 필수적인 검생증강생성(Retrieval Augmented Generation, RAG)을 노코드 기반으로 자동 구축할 수 있는 솔루션 ‘레그빌더(Rag Builder)’를 출시했다고 밝혔다. RAG는 거대언어모델이 답변을 생성하기 전에 사전 학습한 데이터뿐 아니라, 기업 내의 신뢰할 수 있는 주요 정보를 참조하도록 하는 프로세스로, 막대한 리소스가 소요되는 학습 과정을 거치지 않고도 LLM 서비스에 있어서 치명적인 할루시네이션 현상을 완화시키고, 정확한 지식 활용으로 답변 투명성을 제공해 최근 생성형 AI 분야에서 가장 주목받는 기술이다. 인텔리시스 이상구 대표는 “RAG는 정보자원을 지식 단위로 분할하는 청킹부터, 각 청크(지식 단위)를 벡터화 하는 임베딩, 사용자 질문에 근거가 되는 청크를 찾아내는 의미 검색, 이를 이용해 정확한 답변을 생성하게 하는 증강 생성에 이르는 여러 단계의 파이프라인을 거치는데, 각각의 단계에서 어떤 기술적 전략을 선택하는지에 따라 답변의 정확도가 크게 차이가 난다”
범용·언어 모델, 안전 장치 및 안전성 모델, 혼합 전문가 모델로 분류돼 IBM은 오늘 연례 '테크익스체인지(TechXchange)' 행사에서 가장 진보된 자사 인공지능(AI) 모델 제품군인 '그래니트(Granite) 3.0'을 발표했다. IBM의 3세대 그래니트 플래그십 언어 모델은 많은 학술 및 산업 벤치마크에서 비슷한 크기의 다른 모델을 능가하거나 동등한 성능을 보이며, 뛰어난 성능, 투명성, 안전성을 입증했다. IBM 그래니트 모델은 오픈소스 AI에 대한 IBM의 의지를 바탕으로 아파치 2.0 라이선스 하에 공개돼 특정 모델에 대한 비종속성은 물론, 성능 및 비용 효율성 측면에 있어 기업 고객과 커뮤니티에 독보적인 가치를 제공할 것으로 예상된다. 이번에 발표된 IBM의 그래니트 3.0 제품군은 범용·언어 모델, 안전 장치 및 안전성 모델, 혼합 전문가 모델로 분류된다. 범용·언어 모델은 그래니트 3.0 8B 인스트럭트, 그래니트 3.0 2B 인스트럭트, 그래니트 3.0 8B 베이스, 그래니트 3.0 2B 베이스로 분류된다. 안전 장치 및 안전성 모델은 그래니트 가디언 3.0 8B, 그래니트 가디언 3.0 2B으로, 혼합 전문가 모델은 그래니트 3.0
벡터 데이터베이스 기술 활용해 LLM 서비스에 필수적인 RAG 시스템 지원 디노티시아는 최근 베슬에이아이와 전략적 업무 협약(MOU)을 체결했다고 발표했다. 이번 협약은 AI 및 벡터 데이터베이스 기술 분야에서 양사의 첨단 기술을 융합해 차세대 AI 솔루션 개발 및 시장 경쟁력 강화를 목표로 한다. 디노티시아는 벡터 데이터베이스 시스템과 하드웨어 가속기 개발에서 독보적인 기술력을 보유하며, 베슬에이아이는 확장성과 안정성이 뛰어난 LLMOps(Large Language Machine Operations) 솔루션을 통해 대규모 AI 서비스 운영과 관리를 효율화하는 기술을 제공한다. 이번 MOU을 통해 양사는 벡터 데이터베이스 기술을 활용해 LLM 서비스에 필수적인 RAG(Retrieval Augmented Generation) 시스템을 지원한다. 특히, 디노티시아의 벡터 데이터베이스가 베슬에이아이의 LLMOps 플랫폼에 통합됨으로써 AI 모델의 실시간 처리 능력이 대폭 향상될 것으로 기대된다. 양사는 이번 협약을 바탕으로 다양한 분야에서 긴밀히 협력할 계획이다. 이를 통해 기술 정보의 상호 공유와 공동 연구 개발을 촉진하고, 벡터 데이터베이스와 LLMOps 솔루
주요 대학 및 기술기업과 협력해 벡터 데이터베이스 개발에 박차 디노티시아는 최신 AI 서비스의 필수 요소로 주목받는 검색증강생성(RAG)의 핵심 기술인 벡터 데이터베이스 기술 개발 및 사업화에 박차를 가하고 있다. 디노티시아는 과학기술정보통신부가 지원하고 전문기관인 정보통신기획평가원이 주관하는 SW컴퓨팅산업원천기술개발사업 중 ‘초거대 AI모델의 장기 기억 저장을 위한 벡터 DB개발’ 과제(이하 과기부 과제)를 통해 세계 최고 성능과 정확도를 가지는 국산 벡터 데이터베이스 공개 소프트웨어를 개발한다고 밝혔다. 또한, 산업통상자원부에서 지원하고 한국산업기술평가관리원이 전문기관으로 수행하는 소재부품기술개발(이종기술융합형) 사업의 ‘LLM을 위한 벡터 데이터베이스 가속기 개발’ 과제(이하 산자부 과제)를 통해 세계 최초로 벡터 데이터 연산에 특화된 반도체 칩을 개발한다. 각각 과제는 4년 88억 원(총 과제 금액), 3년 73억 원(총 과제 금액)이다. RAG는 대규모 언어 모델(LLM)을 사용하는 인공지능에 실시간 정보를 반영하고 개인화 서비스를 가능하게 하며, 할루시네이션을 줄여주고 장기 기억 기능을 더해주는 필수 기술이다. 이 모든 과정의 중심에는 디노티시아가
다양한 오픈소스 및 상용 모델 선택 가능 및 용도에 따라 변형해 IBM은 기업이 고품질, 고성능의 다양한 파운데이션 모델을 폭넓게 이용하고, 자사의 필요에 따라 맞춤형으로 배포하도록 하기 위한 노력의 일환으로 왓슨x에서 미스트랄 라지(Mistral Large) 모델을 제공한다고 발표했다. 인공지능(AI) 개발자를 위한 IBM의 기업용 AI 스튜디오인 왓슨x는 IBM의 그래니트(Granite) 모델 외에도 다양한 오픈소스 및 상용 모델 선택이 가능하며, 이를 용도에 따라 변형하거나 비즈니스 솔루션 및 애플리케이션과 통합해 사용할 수 있다. IBM은 이미 왓슨x 내에서 기업 환경에 적용할 수 있는 소규모 모델인 Mixtral-8x7B를 제공하고 있다. 이 모델은 IBM이 최적화한 모델로, 주어진 시간 동안 처리할 수 있는 데이터의 양이 기존 모델보다 50% 증가했다. 이번에 새롭게 추가된 미스트랄 라지는 서비스형 소프트웨어(SaaS)로 먼저 제공된다. 이제 왓슨x 고객은 추론과 다국어 기능이 필요한 복잡한 전사적 작업을 처리하도록 최적화한 미스트랄 AI의 가장 강력한 모델을 활용할 수 있다. 검색증강생성(RAG) 전문화를 통해 더 장시간의 채팅 상호작용과 대용량
인텔은 국제 올림픽 위원회(IOC)와의 생성형 AI 검색 증강 생성(RAG) 솔루션 관련한 협력 내용을 발표했다. 이번 발표는 인텔 가우디 AI 가속기와 인텔 제온 프로세서를 활용한 개방형 AI 시스템 및 플랫폼으로 개발자와 기업이 당면한 과제를 어떻게 효과적으로 해결할 수 있는지에 대한 방법을 제시하고 있다. 인텔 데이터 센터 및 AI(DCAI) 그룹 총괄인 저스틴 호타드(Justin Hotard) 수석 부사장은 “IOC와의 파트너십을 통해 인텔이 AI 접근성을 높이기 위해 어떤 노력을 하는지 확인할 수 있다”며 “인텔은 혁신과 창의성을 장려하며, 가시적인 결과를 끌어내는 맞춤형 AI 솔루션을 구축할 수 있도록 개방된 경쟁의 장을 조성하고 있다. 인텔은 개방형 협력 생태계를 수용함으로써, 선수들을 지원하는 방법을 혁신하고 고객과 함께 새로운 가능성을 열어가고 있다”고 말했다. 올림픽 기간 동안 다양한 언어와 문화를 가진 약 1만1000명의 선수가 경기장을 탐색하고 규칙과 지침을 준수할 수 있도록 지원하기 위해 IOC는 인텔과 협력해 ‘애슬리트365’ 챗봇을 공동 개발했다. 해당 챗봇은 인텔 가우디 가속기와 제온 프로세서로 구동되는 RAG 솔루션으로, 선수의
RAG 솔루션, 벨라 큐나 통합으로 인한 검색 능력 극대화로 신뢰성 확보 인공지능(AI)이 전 산업 영역에 걸쳐 도입되며 혁신을 가속화하는 가운데, 단순 질의응답을 넘어 과업을 수행하거나 이용자의 사용 패턴을 학습해 편의를 제공하는 ‘AI 에이전트’가 서비스 경쟁력 확보의 핵심으로 부상하고 있다. AI 에이전트는 인공지능이 문제 해결을 위한 의사결정을 자율적으로 판단하고 수행하는 기술로 개개인을 위한 최적화한 서비스 제공이 가능하다. 대기업부터 스타트업까지 고객 만족도를 높이고자 AI 기반 서비스 제공에 박차를 가하는 가운데, AI 역량 강화로 마치 개인 비서와 같은 맞춤형 서비스를 제공하며 학업 및 업무, 상담, 돌봄 등 다양한 영역에서 성장 동력을 확보하고 있는 기업들의 움직임이 주목된다. 스켈터랩스는 자체 개발한 AI 에이전트인 ‘벨라 에이전트'를 활용해 다양한 산업 분야의 인공지능 전환(AX)을 지원하며 업무 효율을 높이고 있다. 벨라 에이전트는 단순한 질의응답을 넘어 사용자가 목표를 제시하면 인공지능이 사용자가 필요로 하는 다양한 도구와 데이터를 자율적으로 판단하고 신속하게 활용해 과업을 수행하는 챗봇 형식의 솔루션이다. 벨라 에이전트는 LLM의 한
딥네츄럴은 6월 19일부터 21일까지 서울 삼성동 코엑스에서 열리는 '제 13회 스마트테크코리아 2024(STK 2024)'에 참가해 자사의 최신 랭노드 엔터프라이즈(LangNode Enterprise) 솔루션을 선보인다. 스마트테크코리아는 국내 최대 미래 기술 전문 전시회다. AI를 중심으로 상품, 서비스의 제조 생산부터 유통과 물류, 소비의 과정에 적용되는 빅데이터와 클라우드, 로봇, 메타버스 등 최첨단 기술과 솔루션을 집중 조명하며 국내외 많은 참관객과 바이어가 참석한다. 딥네츄럴은 비즈니스 환경에 최적화한 LLMOps 솔루션을 제공하는 AI 스타트업으로, 고품질 언어 데이터 구축부터 파인튜닝, 양자화를 통한 성능 최적화, 효율적인 어플리케이션 개발 및 운영까지, LLM 적용의 전 과정을 지원한다. 올해 2월 MWC 2024에서 처음 선보인 랭노드는 LLM RAG 기반 AI 에이전트를 노코드로 개발, 테스트, 배포하는 솔루션이다. 개발자와 기획자가 함께 협업하며 LLM 기반 에이전트를 제작하고 빠르게 비즈니스에 적용할 수 있어 LLM을 도입하려는 기업에는 필수적이라는 반응이다. 특히, 이번 전시에서 선보이는 랭노드 엔터프라이즈는 데이터 보안이 중요한 은
AI가 문제 해결 위한 의사결정을 자율적으로 판단하고 과업 수행 스켈터랩스가 자체 개발한 AI 에이전트인 ‘벨라 에이전트'를 활용해 교육 분야의 AI 전환(AX)을 돕는 서비스를 제공한다고 19일 밝혔다. 벨라 에이전트는 사용자가 목표를 제시하면 인공지능이 문제 해결을 위한 의사결정을 자율적으로 판단하고 과업을 수행하는 챗봇 형식의 시스템이다. 기업용 LLM 브랜드인 ‘벨라(BELLA)’의 운영 툴에 접목돼 있으며, AI 에이전트에 RAG(검색 증강 생성) 기술을 통합해 LLM의 한계로 꼽히는 최신성과 정확도를 높인 것이 특징이다. 교육 특화 AI 에이전트는 실제 교육 현장에서 학생과 교직원의 학업 및 행정 업무 편의를 돕기 위해 설계됐다. 교육기관은 안내하고자 하는 정보가 담긴 문서를 업로드하면 해당 데이터를 기반으로 질의응답 가능한 챗봇 서비스를 이용할 수 있으며, 과업 수행까지 가능하다. 신규 정보가 발생하거나 내용 변경이 필요할 경우 챗봇에 대한 추가 개발없이 관련 문서만 교체하면 돼 편리하고 비용 효율적이다. 문서 업로드 및 관리는 백오피스 도구와 API를 통해 제공된다. 교내 ERP 시스템과의 연동도 지원한다. 연동 시 다양한 정보 제공은 물론 간
AI 통합검색 솔루션 '코난 서치'와 문서생성 AI '코난 LLM' 소개할 예정 코난테크놀로지가 19일부터 21일까지 3일간 코엑스에서 개최되는 ‘인공지능&빅데이터쇼 2024’에 참가해 높은 수준의 검색 기술력을 선보이고, RAG 발표도 진행한다. 이번 행사에서 코난테크놀로지는 ‘검색과 생성의 완벽한 조화, RAG’을 주제로 AI 통합검색 솔루션 '코난 서치'와 문서생성 AI '코난 LLM'을 소개한다고 밝혔다. 코난 서치는 사용자가 입력한 검색어가 정확히 일치하지 않아도 검색 이면의 의도를 이해해 원하는 정보를 빠르고 정확하게 찾아준다. 코난테크놀로지는 코난 서치가 이미 2000여 고객사에서 성능을 검증 받았다고 밝혔다. 서울특별시 외 지방자치단체 100여 곳, 행정안전부 외 공공행정기관 500여 곳, 그리고 1400여 곳의 기업에서 코난 서치를 통해 업무 효율을 높이고 진화한 검색을 경험했다고 언급했다. 현재 온프레미스로 제공 중인 코난 서치는 연내 클라우드(SaaS) 버전 출시를 목표로 개발 중이다. 지난해 출시된 코난 LLM은 뛰어난 문서 생산성과 높은 보안성으로 기업과 기관의 생성 AI 수요에 부합한다. 특히 생성형 AI가 근거 있는 답변을
시놀로지(Synology)는 글로벌 고객 서비스를 혁신하기 위해 AI를 전체 프로세스에 통합해 지원 제공의 효율성과 품질을 향상 시킬 것 이라고 30일 밝혔다. 빈센트 차이 기술 서비스 책임자는 “시놀로지는 제품 사용 문의, 중요한 트러블 슈팅 및 복잡한 제품 도입에 대한 자문서비스를 포함하는 포괄적인 기술 지원을 제공한다”며 “새로운 AI 지원의 도입으로 기본적인 문의에 대한 응답 시간을 대폭 단축해 기술 지원 엔지니어가 즉각적인 주의가 필요한 복잡한 사례를 해결하는 데 집중할 수 있도록 하는 것이 목표”라고 말했다. 시놀로지는 검색-증강 생성(RAG, Retrieval-Augmented Generation) 아키텍처를 활용해 AI 지원은 익명화된 기술 자료, 또한 시놀로지에서 전 세계 수백만 고객에게 서비스를 제공한 경험을 통해 얻은 트러블 슈팅 데이터에 액세스할 수 있다. 추가 연계 및 강화 학습 프로세스를 수행하며 고품질의 유용한 응답 제공과 스스로 자동화 발전이 보장된다. 빈센트 차이는 “시놀로지의 1세대 AI 고객 서비스 지원의 도입으로 고객이 훨씬 빠르게 지원을 받을 수 있으며 최대 20배까지 개선된 보다 최적화된 서비스 경험을 제공받을 수 있다
RAG 기술 성능 측정해 순위를 매겨, 기업에 적합한 솔루션을 비교 도입하도록 지원 올거나이즈가 RAG 리더보드인 '알리(Alli) RAG 리더보드'를 공개한다고 29일 밝혔다. RAG(Retrieval Augmented Generation, 검색증강생성)란 생성형 AI의 환각 현상을 최소화하는 대안으로 주목받는 기술이다. 사전 학습한 데이터만을 활용하는 게 아닌, 기업 내부 데이터 등 이미 존재하는 데이터에서 답을 찾아낸다. 이들 답변 중 질문 및 검색어의 맥락을 고려한 후 가장 적절한 대답을 제공하는 식이다. 올거나이즈의 RAG 리더보드는 RAG 기술의 성능을 측정해 순위를 매겨, 기업 AI 실무자가 가장 적절한 솔루션을 비교 도입할 수 있도록 돕는다. 올거나이즈의 알리 RAG 리더보드는 금융, 공공, 의료, 법률, 커머스의 5개 분야에 대한 한국어 RAG 성능을 평가한다. 답변 유사도 및 정확도를 판단하는 5개의 평가 툴로 RAG 성능을 평가해 신뢰도를 높이고 오차를 줄였다. 우선 각 분야별로 2~300페이지의 문서를 업로드한 후, 분야마다 사용자가 할 법한 질문 60개를 생성했다. 질문별로 RAG가 답변을 생성하면, 5개의 평가 툴 중 3개 이상에서
엔비디아가 생성형 AI를 통해 HPC(고성능 컴퓨팅) 작업을 가속화하며 코드 생성, 기상, 유전학, 재료 과학 분야의 연구를 지원하고 있다고 16일 밝혔다. 생성형 AI는 국가와 기업 연구소에서 비즈니스와 과학을 위한 HPC을 가속화하며 기반을 다지고 있다. 샌디아 국립 연구소(Sandia National Laboratories)는 세계 최대 규모의 슈퍼컴퓨터에서 사용하도록 설계된 병렬 프로그래밍 언어인 코코스(Kokkos)로 코드를 자동으로 생성하는 야심찬 시도를 하고 있다. 여러 국립 연구소의 연구진들이 개발한 이 특수 언어는 수만 대의 프로세서에서 작업을 수행하는 데 필요한 미묘한 부분까지도 처리할 수 있다. 샌디아 국립 연구소의 연구진들은 검색 증강 생성(retrieval-augmented generation, RAG)을 사용해 코코스 데이터베이스를 생성하고 AI 모델과 연결하고 있다. 이들은 다양한 RAG 접근 방식을 실험하면서 초기 테스트에서 긍정적인 결과를 보여주고 있다. 과학자들이 평가하게 될 RAG 옵션 중에는 네모 리트리버(NeMo Retriever)와 같은 클라우드 기반 서비스도 있다. 로버트 훅스트라 샌디아 국립 연구소의 익스트림 스케일