베슬AI가 AI 에이전트와 외부 도구 연동을 지원하는 오픈소스 툴콜링 플랫폼 ‘하이퍼포켓(Hyperpocket)’을 출시했다고 4일 밝혔다. 하이퍼포켓은 AI 에이전트가 다양한 외부 툴과 쉽게 연결되도록 지원하는 플랫폼이다. 플러그앤플레이 방식으로 개발돼 깃허브 URL만으로 즉시 연동이 가능하며, 랭체인, 라마인덱스 등 여러 API 및 서드파티 툴과 손쉽게 통합할 수 있다. 또한, 보안 인증 시스템을 내장하고, 파이썬을 포함한 다중 언어를 지원해 확장성과 비용 부담을 줄인 것이 특징이다. 베슬AI는 멀티 에이전트 시대에 접어들면서 기업의 경쟁력을 결정하는 요소로 외부 데이터와의 연계 및 AI 시스템 간의 협업이 중요해질 것으로 내다봤다. 이에 하이퍼포켓을 통해 API 통합 과정을 단순화하고, 기업이 손쉽게 AI 에이전트 시스템을 구축하도록 지원할 계획이다. 이와 관련해 베슬AI는 지난 2월 6일 실리콘밸리에서 열린 AI 네트워킹 행사 ‘라마 라운지(Llama Lounge)’에서 하이퍼포켓을 처음 공개했다. 구글 딥마인드, IBM, 엔비디아 등 주요 AI 기업 관계자 및 개발자, 투자자 400여 명이 참석한 가운데 보안 인증 시스템과 툴 통합 기능이 주목받았다
지난 1월, 인공지능(AI) 업계에 엄청난 파란을 일으킨 기업이 등장했다. 그 이름은 바로 딥시크(DeepSeek). 이제는 중국 AI 기술력을 상징하는 얼굴이 됐다고 해도 과언이 아니다. 딥시크가 공개한 대규모언어모델(LLM) ‘R1’은 저렴한 비용으로 오픈AI의 ‘챗GPT-4’를 상회하는 성능을 보였다는 점에서 충격을 몰고 왔다. 다만, R1이 활용되기에 앞서 다양한 국가에서는 개발 비용과 성능, 보안에 대한 의구심이 확대되며, 현재 사용 제한 조치가 논의되고 있다. 미 증시 뒤흔든 딥시크 파급력 지난 한 달, 중국의 AI 스타트업인 딥시크의 등장은 AI 업계의 가장 큰 이슈였다. 무엇보다 주목받았던 것은 R1의 압도적인 가성비였다. 딥시크가 공개한 보고서에 따르면, 딥시크-R1의 전신인 딥시크-V3 개발 비용은 557만6000달러(약 78억8000만 원)인 것으로 알려졌다. 이는 엔비디아의 ‘H800 GPU’를 시간당 2달러에 2개월 동안 빌린 비용에 해당한다. 이는 오픈AI의 투자비용 대비 약 5.6%에 불과한 금액이다. 또한, 메타가 최신 AI 모델인 ‘라마 3’에 ‘H100’으로 훈련한 비용의 10분의 1 수준이다. 심지어 H800은 미국의 AI
티맥스소프트가 오픈소스의 통합 관리, 모니터링 등을 지원하는 ‘하이퍼프레임 매니저(HyperFrame Manager)’를 업데이트했다고 13일 밝혔다. 업데이트된 하이퍼프레임 매니저는 오픈소스 SW를 관제하는 기능 전반이 강화돼, 기존보다 오픈소스 환경을 더욱 간편하게 관리할 수 있게 했다. 티맥스소프트가 엄선한 오픈소스 미들웨어와 전문 컨설팅, 기술 및 보안 지원 서비스를 제공하는 솔루션인 ‘하이퍼프레임’과 함께 고객의 오픈소스 활용 역량과 시스템 환경을 안정적으로 지원할 수 있다. 이 제품은 오픈소스를 통합 관리하고 실시간 모니터링해 시스템 안정성을 유지해 준다. 하나의 플랫폼에서 관제할 수 있어 분산된 시스템의 복잡성을 줄이고 운영 효율성을 높여준다. 사용자 친화적인 인터페이스를 적용했고 편리하게 설치하고 연동할 수 있다. 하이퍼프레임 매니저는 지난 2023년 한국정보통신기술협회(TTA)가 주관하는 굿 소프트웨어(GS) 인증 1등급을 획득해 제품의 신뢰성, 경쟁력 등을 검증받은 바 있다. 티맥스소프트는 28년간 상용SW 비즈니스로 갖춰온 기술력과 노하우, 빅딜 경험 등 견고한 경쟁우위를 통해 앞으로 크게 확대될 오픈소스 수요에도 면밀하게 대응한다는 방침
우리 대부분은 이미 커넥티드 홈에서 살고 있지만, 통합 연결 표준인 매터(Matter) 도입이 가속화됨에 따라 진정한 스마트 홈의 꿈이 현실화하고 있다. 우리 대부분은 어떤 방식으로든 연결된 주거 환경에서 살고 있다. 2022년 미국 인구조사 데이터에 따르면, 91% 이상의 사람들이 가정용 인터넷을 이용하고 있는 것으로 나타났다. 하지만, 커넥티드 홈과 스마트 홈은 그 차원이 다르다. 컴퓨터나 TV를 인터넷에 연결해 웹 서핑을 하거나 넷플릭스를 시청하는 것과, 집 안의 모든 기기와 가전제품을 인터넷에 연결하여 원격 및 자동 제어를 가능하게 하는 스마트 홈 환경은 분명히 차이가 있다. 이러한 완벽하게 통합된 스마트 홈을 설정하고, 관리하는 것은 현재로서는 상당히 까다롭거나 불가능한 경우가 많다. 이전에는 서로 다른 공급업체의 스마트 홈 기기들이 서로 호환되지 않았기 때문이다. 특정 생태계를 기반으로 설계된 제품들은 다른 생태계에서는 제대로 동작하기 어렵다. 예를 들어, ‘브랜드 A’의 스마트 조명을 ‘브랜드 B’의 디지털 음성비서로 설정하거나 제어할 수 없다. 이러한 문제들이 수백 개의 브랜드와 수십 가지 유형의 기기에서 발생한다면, 소비자들은 스마트 홈에 대
LLM 에이전트 성능을 종합적으로 평가해 올거나이즈는 국내 최초로 LLM의 에이전트 역량을 평가하는 ‘올인원 벤치마크(All-in-One Benchmark)’를 공개한다고 3일 밝혔다. 문제 해결을 위해 자율적으로 행동하는 에이전트의 중요성이 커짐에 따라 지난해 공개한 ‘금융 전문 LLM 리더보드’에서 한 발 나아가 새로운 LLM 평가 플랫폼을 제시한 것이다. 올인원 벤치마크는 LLM의 에이전트 성능을 종합적으로 평가하는 플랫폼으로, 수요 기업은 이를 통해 에이전트 역할을 수행하기에 가장 적합한 LLM을 선택한다. LLM이 에이전트 역할을 수행하기 위해서는 도메인 별 지식뿐 아니라 문제 해결을 위한 툴을 선택 및 활용할 수 있는 능력, 대화의 맥락 이해, 수집된 정보 활용 등 다양한 능력이 요구된다. 공개된 벤치마크를 활용해 LLM을 다각도로 분석하며, 평가 결과를 한눈에 볼 수 있도록 대시보드 형태로 제공한다. 사용자는 플랫폼 내에서 올거나이즈의 자체 소형언어모델(sLLM)을 비롯한 ‘챗GPT’, ‘엑사원’, ‘큐원’, ‘딥시크’ 등 12개의 LLM의 평가 결과를 확인할 수 있다. 에이전트 성능을 종합적으로 평가하는 데는 세 가지 벤치마크가 활용된다. 다양
IBM은 최근 ‘인공지능(AI)의 투자수익(ROI)’ 보고서를 발표하고 기업들이 장기적인 관점에서 AI에 투자하고 있으며 향후 ROI와 혁신을 도모하기 위해 오픈소스 도구를 사용하는 데 관심이 높아지고 있다고 밝혔다. 해당 보고서는 글로벌 리서치 기업 모닝 컨설트와 로페즈 리서치가 한국을 포함한 전세계 2400명 이상의 IT 의사결정권자(ITDM)를 대상으로 조사한 결과다. 응답자의 85%는 2024년에 계획한 AI 전략을 실행했다고 답했는데 거의 절반에 달하는 47%는 이미 AI 투자에서 긍정적인 ROI를 얻고 있는 것으로 나타났다. 33%는 손익분기점을 넘겼다고 답했고 14%만이 마이너스 ROI를 기록 중이라고 답했다. 기업들이 AI 프로젝트가 성공적으로 진행되고 있다고 인식하는 데는 전통적인 ROI 지표가 아닌 다른 지표를 통해 분석하는 경우가 많은 것으로 나타났다. 응답자들은 AI 투자로 인한 ROI를 계산할 때 가장 중요하게 생각하는 세 가지 지표로 소프트웨어 개발 속도 향상(25%), 혁신 속도 향상(23%), 생산성 개선으로 인한 시간 절약(22%)을 선택했다. 금전적/정량화 가능한 비용 절감은 15%로 4위에 그쳤다. 또 응답자의 31%는 혁신
기업들의 생성 AI 도입이 가속화되고 있다. 챗GPT와 같은 생성 AI 서비스의 인기가 높아지며 유료 고객을 대상으로 고객 데이터 학습을 지원하는 서비스도 활발히 제공되고 있다. 그러나 최근 기업들은 클로즈드 모델 대신 오픈소스 모델을 파인튜닝해 각자 기업 목표에 최적화한 맞춤형 서비스를 구축하는 방식으로 전환하고 있다. 파인튜닝은 라마(Llama), 미스트럴(Mistral), 퀜(Qwen)과 같은 오픈소스 모델을 특정 데이터로 재학습해 기업 내부 데이터나 특정 업무 관련 정보를 반영한 AI 서비스를 구축하는 기술이다. 이 기술의 강점은 투명성과 소유권에 있다. 기업은 모델의 내부 구조를 이해함으로써 신뢰성 높은 AI 서비스를 설계할 수 있으며 외부 서비스의 정책이나 비용 변동에 영향 받지 않고 안정적으로 AI 서비스를 운영할 수 있다. 이러한 흐름 속에서 기업 프렌들리에이아이는 지난 10월 오픈소스 모델을 활용한 기업 맞춤형 AI 개발 서비스 ‘프렌들리 파인튜닝’을 출시했다고 18일 밝혔다. 이 서비스를 통해 기업은 비용 효율적인 오픈소스 모델을 최적화해 사내 업무와 서비스에 효과적으로 도입할 수 있으며 이 과정에서 발생하는 높은 GPU 비용과 실무적 부담
그동안의 비즈니스 행보와 AI 기술 및 연구 성과 공유해 메타가 10일 ‘메타의 AI 미디어 브리핑’ 행사를 개최하고, 오픈소스 대규모 언어모델인 ‘Llama(라마)’를 중심으로 한 AI 기술 및 오픈소스 접근 방식과 메타 인공지능 연구소 FAIR(Fundamental AI Research)의 연구 내용을 발표했다. 이번 행사는 그간 메타가 오픈소스 선두주자로서 걸어온 행보와 AI 기술 및 연구 성과를 공유하기 위해 마련됐다. 마노하 팔루리(Manohar Paluri) 메타 생성형 AI 부사장과 메타 FAIR 연구팀, 장광선 한국과학기술정보연구원(KISTI) 선임연구원이 발표자로 나선 가운데, 라마의 성과 및 오픈소스 접근 방식, 국내 라마 활용 사례, FAIR의 최신 연구 내용 등이 소개됐다. 이날 첫 발표자로 나선 마노하 팔루리 부사장은 라마가 일궈낸 그간의 성과와 커뮤니티 주도의 혁신을 촉진하는 핵심 기술로서의 역할을 공유했다. 메타는 최근 발표한 Llama 3.2 모델을 포함해 총 4번의 성공적인 배포를 마쳤으며, AI 커뮤니티 내에서의 영향력을 키워나가고 있다. 구체적으로 현재까지 라마 모델은 4억 회 이상 다운로드됐으며, 이는 작년 대비 10배 증
알리바바 클라우드가 압사라 컨퍼런스에서 새롭게 출시한 대규모 언어 모델 큐원2.5(Qwen2.5)를 전 세계 오픈소스 커뮤니티에 배포했다. 알리바바 클라우드는 AI 컴퓨팅에 대한 증가하는 수요를 충족시키기 위해 풀스택 인프라도 개편했다. 이 신규 인프라는 컴퓨팅, 네트워킹 및 데이터센터 아키텍처를 강화하는 클라우드 제품과 서비스를 포함한다. 에디 우 알리바바 클라우드 인텔리전스 CEO는 “알리바바 클라우드는 AI 기술의 연구개발과 글로벌 인프라 구축에 적극적으로 투자하고 있다”며 “글로벌 고객에게 미래 AI 인프라를 제공하고, 비즈니스 잠재력을 극대화하도록 돕는 것을 목표로 한다”고 밝혔다. 신규 오픈소스 큐원 2.5 모델은 0.5억에서 720억 개의 매개변수를 갖췄다. 29개 이상의 언어를 지원하며, 자동차·게임·과학 연구 등 다양한 분야에서 엣지나 클라우드 환경에서 폭넓은 AI 애플리케이션으로 활용된다. 이번 큐원 2.5는 100개 이상의 모델이 오픈소스로 공개한다.기본 모델, 인스트럭트 모델, 다양한 정밀도와 방식을 적용한 양자화 모델이 포함되며, 언어, 오디오, 비전 등 다양한 모달리티와 전문적인 코드 및 수학 모델까지 아우른다. 조우징런 알리바바 클
프리뷰 버전은 영어만 지원하며, 입력 토큰 수도 4096자로 제한돼 업스테이지가 올 11월 출시 예정인 자사의 차세대 LLM ‘솔라 프로’의 초기 테스트용 모델인 ‘솔라 프로 프리뷰’ 버전을 오픈소스 및 무료 API를 통해 전면 공개한다고 11일 밝혔다. 솔라 프로는 솔라 LLM 시리즈의 상위 모델로, 올 11월 공식 출시를 앞두고 있다. 업스테이지는 현재 개발 중인 모델을 미리 테스트해 볼 수 있는 프리뷰 버전을 오픈소스로 공개하는 한편, API 호출 비용까지 무상 지원할 예정이다. 프리뷰 버전은 영어만 지원하며, 입력 토큰 수도 4096자로 제한된다. 솔라 프로는 220억(22B) 매개변수를 갖춰 기존 ‘솔라 미니’(107억) 대비 두 배 이상 커지고 성능도 대폭 향상됐지만, DUS(깊이 확장 스케일) 기술 등 자체 LLM 모델링 방법론을 고도화한 결과, 여전히 단 1개의 GPU에서 구동이 가능한 수준으로 경량화에 성공했다. 최근 GPU 가격 급등과 수급난으로 골머리를 앓는 기업용 AI 시장의 판도를 크게 바꿀 것으로 기대를 모은다. 솔라 프로는 인문학뿐 아니라 과학·기술·공학·수학(STEM) 종합 지식을 평가하는 ‘MMLU Pro’, 지시 이행 능력을
EDB는 신한EZ손해보험이 기존 오라클 DBMS를 교체하고, 신규 서비스를 제공하기 위해 자사의 오픈소스 기반 데이터관리시스템(DBMS)인 ‘포스트그레스 어드밴스드 서버(Postgres Advanced Server, EPAS)’를 도입했다고 27일 밝혔다. 신한EZ손해보험은 EDB의 포스트그레스 어드밴스드 서버 12를 도입해 투자 비용을 6개월여 만에 회수했으며, 기존 1년 운영비용을 50% 이상 절감할 수 있었다고 전했다. 또한 EPAS를 도입하고 오픈 소스 관리체계와 표준 운영가이드를 마련해 IT서비스 안정성과 효율성을 높였다. 아울러 EPAS를 도입으로 내부 운영효율성 면에서도 큰 개선이 이뤄져 서버 이중화와 RPO(복구 시점 목표), RTO(복구 시간 목표) 기준에 맞춰 DR(재해복구) 및 이중화 시스템 운영을 자동화함으로써 유연한 아키텍처의 구성이 가능해졌다. 오라클 DBMS와의 높은 호환성을 바탕으로 기존 DB에 대한 마이그레이션도 용이해졌다. 신한EZ손해보험 IT기획운영팀 김수창 매니저는 “신한EZ손해보험은 EDB의 EPAS 를 도입해 오픈소스 기반의 대용량 DB를 위한 관리시스템으로서 충분한 유연성과 확장성, 안전성을 갖추게 됐다”며 “특히 포
라마 출시 이후 국내에서 처음으로 기술 솔루션 경진대회로 열려 메타가 AI 기술을 통한 사회적, 경제적 문제 해결과 발전을 지원하고자 한국에서 처음으로 AI 경진대회를 개최한다. 라마 출시 이후 한국에서 처음으로 열리는 기술 솔루션 경진대회로, 과학기술정보통신부와 한국전파진흥협회가 후원한다. 참가자격은 라마를 기반으로 제품이나 서비스를 개발했거나 현재 개발 중이며, 운영한지 최소 1년 이상되는 기업 및 단체다. 참가 분야는 사회적 효과, 경제적 효과 등의 주제 중 선택할 수 있다. 이번 한국 대회 우승자에게는 1500만 원의 상금과 한국을 대표해 오는 10월 싱가포르에서 열리는 아시아태평양 결승대회 출전 기회가 주어진다. 아시아태평양 결승의 상금은 총 10만 달러에 달한다. 참가 신청은 ‘Meta Llama 경진대회’ 공식 사이트를 통해 오는 8월 21일 오후 5시까지 접수 가능하며, 제출한 기획서를 토대로 서면심사가 이뤄질 예정이다. 서면심사 통과자는 오는 9월 메타 서울 오피스에서 열리는 피칭 이벤트에서 결승대회 참가 기회를 두고 프로젝트를 발표하게 된다. 대회 심사기준은 기술적 구현의 정도, 잠재적 영향력, 윤리 및 사회적 책임성 등이다. 심사위원으로는
다양한 오픈소스 및 상용 모델 선택 가능 및 용도에 따라 변형해 IBM은 기업이 고품질, 고성능의 다양한 파운데이션 모델을 폭넓게 이용하고, 자사의 필요에 따라 맞춤형으로 배포하도록 하기 위한 노력의 일환으로 왓슨x에서 미스트랄 라지(Mistral Large) 모델을 제공한다고 발표했다. 인공지능(AI) 개발자를 위한 IBM의 기업용 AI 스튜디오인 왓슨x는 IBM의 그래니트(Granite) 모델 외에도 다양한 오픈소스 및 상용 모델 선택이 가능하며, 이를 용도에 따라 변형하거나 비즈니스 솔루션 및 애플리케이션과 통합해 사용할 수 있다. IBM은 이미 왓슨x 내에서 기업 환경에 적용할 수 있는 소규모 모델인 Mixtral-8x7B를 제공하고 있다. 이 모델은 IBM이 최적화한 모델로, 주어진 시간 동안 처리할 수 있는 데이터의 양이 기존 모델보다 50% 증가했다. 이번에 새롭게 추가된 미스트랄 라지는 서비스형 소프트웨어(SaaS)로 먼저 제공된다. 이제 왓슨x 고객은 추론과 다국어 기능이 필요한 복잡한 전사적 작업을 처리하도록 최적화한 미스트랄 AI의 가장 강력한 모델을 활용할 수 있다. 검색증강생성(RAG) 전문화를 통해 더 장시간의 채팅 상호작용과 대용량
젠슨 황 "라마 3.1, 최첨단 생성형 AI 애플리케이션 구축할 수 있는 문 열어" 엔비디아가 메타의 오픈소스 AI 모델 컬렉션인 라마 3.1을 통해 전 세계 기업의 생성형 AI를 강화하는 엔비디아 AI 파운드리 서비스와 엔비디아 NIM 추론 마이크로서비스를 발표했다. 이제 기업과 국가는 엔비디아 AI 파운드리를 통해 라마 3.1과 엔비디아 소프트웨어, 컴퓨팅, 전문성을 활용해 도메인별 산업 사용 사례에 맞는 맞춤형 ‘슈퍼모델’을 만들 수 있다. 기업은 자체 데이터는 물론, 라마 3.1 405B와 엔비디아 네모트론 리워드 모델에서 생성된 합성 데이터로 이러한 슈퍼모델을 훈련할 수 있다. 엔비디아 AI 파운드리는 세계 최고의 퍼블릭 클라우드와 공동 설계된 엔비디아 DGX 클라우드 AI 플랫폼으로 구동된다. 이를 통해 AI 수요 변화에 따라 쉽게 확장할 수 있는 방대한 컴퓨팅 리소스를 기업에게 제공한다. 새로운 서비스는 기업뿐 아니라 독자적인 AI 전략을 개발 중인 국가들의 맞춤형 거대 언어 모델(LLM) 구축을 지원한다. 이들은 고유한 비즈니스나 문화를 반영하는 생성형 AI 애플리케이션을 위해 도메인별 지식을 갖춘 맞춤형 LLM을 구축하고자 한다. 엔비디아 창
문서 AI 전문 기업 ㈜이파피루스(대표 김정희)는 오픈소스 PDF 라이브러리 ‘MuPDF(뮤피디에프)’의 웹사이트 ‘MuPDF.com(뮤피디에프닷컴)’을 리뉴얼했다고 지난 20일 밝혔다. MuPDF는 이파피루스의 자회사인 미국 아티펙스 사(Artifex Inc.,)가 보유한 C언어 기반 오픈소스 라이브러리로 PDF, XPS 및 EPUB 문서 이미지 렌더링을 비롯해 PDF 변환, 처리 및 추출 등 다양한 문서 작업에 폭넓게 사용된다. 특히 MuPDF의 파이썬 바인딩인 ‘PyMuPDF(파이뮤피디에프)’는 2016년 첫 출시 이래 전 세계에서 6천만 번 이상 다운로드되었으며, 2023년에는 미국 오픈AI 사의 인공지능 챗봇 ‘챗GPT’의 학습 및 문서 처리용으로 공급되어 인공지능 업계의 주목을 한 몸에 받았다. 새롭게 단장한 ‘MuPDF.com’은 그동안 여러 채널에 흩어져 있던 MuPDF 제품군을 한 자리에 모아 정리, 글로벌 개발자들이 보다 손쉽게 이용할 수 있는 통합 원스톱 플랫폼으로 거듭났다. 2005년 첫 출시 이래 여러 번 업데이트와 세분화를 거친 MuPDF 시리즈의 다양한 기능과 특성을 직관적인 디자인과 상세한 안내 자료를 통해 알기 쉽게 소개한다.