코난테크놀로지가 경기도 주관 ‘AI CONNECT with G-FAIR 2025’에서 법률 특화 대규모언어모델(LLM)을 공개했다. 코난테크놀로지는 지난 22일부터 24일까지 수원컨벤션센터에서 열리는 이번 행사에 참가해 자사의 추론통합모델 ‘Konan LLM ENT-11’을 기반으로 한 법률 분야 특화 서비스를 선보였다. 이번 전시는 경기도가 AI CONNECT, G-BIO WEEK와 함께 개최한 통합 행사로 코난테크놀로지는 현재 수행 중인 ‘경기 생성형 AI 플랫폼 구축사업’의 일환으로 참여했다. 이 사업은 경기도가 추진 중인 자체 생성형 AI 플랫폼 ‘G-GPT’ 개발 프로젝트로, 코난테크놀로지가 KT 등과 컨소시엄을 구성해 지난 6월 총 131억 원 규모로 수주한 바 있다. 해당 사업은 경기도의 보안 정책을 충족하는 온프레미스 환경에서 진행되며 경기도형 특화 LLM 개발을 목표로 한다. 코난테크놀로지는 이번 전시에서 ‘Konan LLM ENT-11’을 활용해 법률·입법 분야 질의응답 기능을 갖춘 AI 에이전트 서비스를 선보였다. 전시 부스는 수원컨벤션센터 컨벤션홀 3층 로비 내 ‘경기도 소버린 AI 홍보관’에 마련됐다. 김영섬 코난테크놀로지 대표는 “이
AMD가 보안 중심 엔터프라이즈 AI 기업 코히어(Cohere)와 글로벌 협력을 확대한다고 24일 밝혔다. 이번 협력 강화로 코히어 고객들은 ‘커맨드 A(Command A)’, ‘커맨드 A 비전’, ‘커맨드 A 번역 모델’, ‘노스(North)’ 등 주요 AI 제품군을 AMD 인스팅트(Instinct) GPU 기반 인프라에서 활용할 수 있다. 이를 통해 전 세계 기업과 소버린 AI 프로젝트는 성능과 총 소유 비용(TCO) 측면에서 더 많은 선택지를 확보하게 된다. AMD는 코히어의 노스 플랫폼을 자사 내부 엔터프라이즈 AI 포트폴리오에 통합할 계획도 밝혔다. 이에 따라 코히어의 기술은 AMD 내부와 엔지니어링 AI 워크로드에서 핵심적으로 활용될 예정이다. 닉 프로스트 코히어 공동 설립자는 “AMD 인스팅트 GPU에서 코히어 모델과 노스를 사용할 수 있게 되면서 협력 관계가 한층 확대됐다”며 “공공과 민간 고객들이 우리의 보안 최적화 AI 제품군을 AMD 인프라에서 실행하면 훨씬 더 큰 유연성을 얻게 될 것”이라고 말했다. 그는 “AMD는 AI 인프라를 통해 매력적인 TCO를 제공하기 때문에 전 세계 소버린 AI 프로젝트에서 중요한 선택지가 될 것”이라고 덧붙
경상남도(도지사 박완수)가 오는 24일부터 26일까지 3일간 창원컨벤션센터(CECO)에서 경남 최초의 인공지능(AI) 기술 전시회 ‘2025 The Next AI’를 개최한다. 이번 행사는 창원특례시, 과학기술정보통신부, 정보통신산업진흥원과 공동 주최하고, 경남테크노파크, 경남ICT협회, 경남관광재단, 제이엠컴퍼니가 주관한다. 100여 개 기업이 200여 개 부스를 마련해 최신 AI 기술과 비즈니스 기회를 선보일 예정이다. 이번 전시회는 경남의 주력산업인 조선, 기계, 자동차, 항공, 에너지 분야에 차세대 인공지능을 접목하는 혁신 솔루션을 집중 조명한다. 특히 피지컬 AI(Physical AI)와 소버린 AI(Sovereign AI)를 핵심 테마로 내세워 글로벌 AI 전환 흐름과 국내 산업 현장의 변화를 동시에 제시한다. 피지컬 AI는 휴머노이드 로봇, 자율주행차 등 물리적 환경에서 스스로 인지·작업을 수행하는 차세대 AI 기술을, 소버린 AI는 외국 기술 의존도를 줄이고 자국 인프라·기술로 AI를 개발·운영하는 모델을 의미한다. 전시회는 ▲AI 혁신제품 전시관 ▲글로벌 바이어 1:1 상담회 ▲AI 솔루션 매칭데이 ▲AI 테크밋업 및 특강 ▲스타트업 IR 피
티맥스소프트가 국내외 유력 전시회에 참가해 글로벌 AX(인공지능전환)를 지원할 기술 역량을 공개한다. 티맥스소프트는 오는 9월 30일부터 사흘간 서울 코엑스에서 열리는 ‘2025 인공지능 페스타(AI Festa 2025)’에서 소버린 AI를 위한 프레임워크 전략을 선보인다고 19일 밝혔다. ‘인공지능 페스타’는 매년 350여 개 기업과 3만 명 이상이 참여하는 대규모 디지털 분야 박람회로, 과학기술정보통신부와 한국인공지능·소프트웨어산업협회, AI 페스타 조직위원회, 초거대 AI 추진협의회가 주최·주관한다. 올해도 AI 혁신 생태계 리더들이 대거 참가한다. 이번 전시회에서 티맥스소프트는 최근 개발을 공식 선언한 ‘소버린 AI 프레임워크’를 핵심으로 내세워 글로벌 AX를 지원할 미래 비전과 전략을 제시한다. 이 프레임워크는 공공, 금융, 기업이 비즈니스 애플리케이션에 다양한 AI 기능을 효율적으로 접목할 수 있게 하는 국산 상용 AI 비즈니스 개발 플랫폼이다. 고객이 AI를 도입할 때 겪는 불편을 줄이기 위해 통합된 AI 개발 환경을 제공한다. 티맥스소프트는 이번 행사에서 리뉴얼된 가상홍보관도 선보인다. 단순한 디지털 홍보 공간을 넘어 고객과 파트너가 긴밀히 소
래블업이 미국에서 열리는 ‘AI Infra Summit 2025’에 참가해 AI 인프라 운영의 미래를 제시했다. 이번 행사는 전 세계 3500여 명의 AI 전문가와 100여 개 파트너사가 모이는 글로벌 최대 규모의 AI 인프라 컨퍼런스로, 하드웨어부터 데이터센터, 엣지 컴퓨팅까지 최신 기술 동향이 집중적으로 다뤄졌다. 래블업은 이번 행사에서 자사의 AI 네이티브 플랫폼 ‘AI:DOL(AI Deployable Omnimedia Lab)’ 베타 버전을 첫 공개했다. AI:DOL은 Backend.AI Core와 PALI 기반 백엔드 서비스를 결합한 생성형 AI 개발 플랫폼으로, 웹 브라우저만으로 접근이 가능해 초보자부터 숙련된 개발자까지 손쉽게 다양한 오픈모델을 활용할 수 있도록 설계됐다. 특히 AI:DOL은 Backend.AI Continuum을 통해 온프레미스와 클라우드 자원을 완전히 통합해 사용자가 직접 서빙하는 모델을 기반으로 내부 및 외부 클라이언트 대상 AI 애플리케이션을 개발·배포할 수 있다. 현재는 채팅 중심의 기능을 제공하지만, 향후 이미지와 비디오 생성, AI 코딩까지 확장해 포괄적 AI 개발 생태계로 발전시킬 계획이다. 래블업은 또한 Backe
가트너는 2025년 아시아태평양 지역의 주요 거브테크(GovTech) 트렌드를 발표했다. 이번 트렌드는 공공 부문 리더들이 보다 스마트한 시민 서비스를 제공하고 AI 중심의 혁신 전략을 수립하는 데 참고할 수 있도록 제시됐다. 딘 라셰카 가트너 VP 애널리스트는 “AI가 일상에 깊숙이 자리 잡으면서 시민들은 공공 서비스가 더 나은 접근성과 맞춤형 기능을 갖추기를 기대한다”며 “특히 아태지역은 이러한 기대가 높은 동시에 지정학적 불안이 두드러지는 지역으로, 정부는 안전하고 확장 가능한 기술을 활용해 실질적인 성과를 보여줘야 한다”고 말했다. 가트너가 제시한 첫 번째 트렌드는 ‘맞춤형 시민 서비스를 제공하는 AI 에이전트’다. AI 에이전트는 디지털과 물리적 환경에서 인지·의사결정·행동·목표 달성을 수행하는 자율 혹은 반자율 AI 소프트웨어다. 정부는 이를 활용해 행정 처리 역량을 강화할 수 있다. 초기 도입 단계에서는 건축 인허가와 같은 규제 기반 행정 업무에 적용될 전망이다. 현재 여러 아태지역 정부가 법률·규제 해석을 지원하는 용도로 AI 에이전트를 도입하려 하고 있다. 라셰카 애널리스트는 “AI 에이전트 활용이 확대되려면 기술 성숙도뿐 아니라 투명성과 대
한국전자통신연구원(ETRI)이 인공지능(AI) 안전성과 신뢰성 확보를 위한 국제표준 개발을 주도한다. ETRI는 AI 시스템의 잠재적 위험을 탐색하는 ‘AI 레드팀 테스팅’ 표준과 소비자가 AI의 신뢰 수준을 확인할 수 있는 ‘신뢰성 사실 라벨(TFL)’ 표준을 국제표준화기구(ISO/IEC)에 제안하고 개발을 시작했다고 밝혔다. ‘AI 레드팀 테스팅’은 생성형 AI가 잘못된 정보를 제공하거나 보호장치를 회피해 악용되는 상황을 모의 공격 방식으로 점검하는 기법이다. ETRI는 ISO/IEC 42119-7 에디터로 참여해 의료, 금융, 국방 등 다양한 산업에 적용할 수 있는 공통 시험 절차와 방법을 마련한다. ETRI는 식품의약품안전처와 함께 9월 4~5일 노보텔 서울 동대문 호텔에서 ‘첨단 AI 디지털의료제품 레드팀 챌린지 및 기술 워크숍’을 개최한다. 이번 행사는 의료인, 보안 전문가, 일반 시민이 참여해 AI의 편향과 위험성을 점검하는 자리로, 참가 신청은 22일까지 가능하다. 서울아산병원과 공동으로 의료 전용 레드팀 평가 방법론도 개발 중이다. 또한 STA, 네이버, 업스테이지, 셀렉트스타, KT, LG AI연구원 등과 협의체를 구성해 국제표준화 협력을
리벨리온이 사우디아라비아 수도 리야드에 현지 단독 법인을 설립하며 중동 시장 공략에 속도를 내고 있다. 국내 AI 반도체 스타트업 가운데 사우디 현지 법인을 세운 것은 이번이 처음이다. 리벨리온은 지난해 7월 사우디 국영기업 아람코의 기업형 벤처캐피털 Wa’ed Ventures로부터 전략적 투자를 유치한 이후, 아람코와 AI 반도체 공급을 전제로 한 양해각서(MOU)를 체결했다. 이후 아람코 데이터센터에 랙 단위 제품을 공급하고, 실제 운영 환경을 반영한 PoC(개념검증)를 성공적으로 마무리 단계에 두고 있다. 단순 기능 검증을 넘어 성능과 호환성을 입증하며 아람코 엔지니어 및 현지 파트너사와 긴밀한 협업을 이어가고 있다. 이를 기반으로 향후 대규모 도입과 장기 파트너십으로 확대할 가능성이 높다. 리벨리온은 한국 주요 통신사와 이뤄낸 상용화 경험을 토대로, 사우디 현지 통신사와의 협력 논의도 본격화하고 있다. 중소 규모 ICT 기업들과의 협력으로 사업 포트폴리오를 다변화하는 동시에, 글로벌 반도체 기업 마벨과 손잡고 중동 시장을 타깃으로 한 맞춤형 AI 인프라 사업에도 착수했다. 사우디를 비롯한 중동 전역에서는 최근 데이터 주권 확보와 아랍어 기반의 AI 모
비큐AI는 최근 온라인 기업설명회를 열고 자사의 핵심 기술과 사업 구조를 소개했다. 회사는 생성형 AI 시대에 최적화된 실시간 뉴스데이터 공급 플랫폼으로서의 경쟁력을 강조했다. 비큐AI는 국내 3000여 개 언론사와 계약을 맺고 7억 건 이상의 뉴스 데이터를 보유하고 있다. 하루 평균 20만 건의 기사를 자동으로 수집·정제·가공하는 실시간 데이터 파이프라인을 구축했으며, 이를 기반으로 AI 학습용 데이터셋 공급 플랫폼 ‘RDPLINE’, 뉴스 모니터링 SaaS 플랫폼 ‘AISURFER’, 데이터 전처리 자동화 플랫폼 ‘AIROOT’ 등을 제공한다. 특히 ‘RDP1’은 뉴스 기반 RAG(Retrieval-Augmented Generation) 기술로 국제 성능 평가 지표(RAGAS)에서 평균 0.9 이상의 점수를 기록하며 사실성, 문맥 정밀도, 응답 관련성 등에서 성능을 입증했다. 이를 기반으로 ‘RDPLINE’은 데이터셋 공급 사업과 서비스 파이프라인 사업으로 구분돼 각 산업별 비즈니스 확장에 활용되고 있다. 비큐AI는 삼성전자, LG, SKT, KT 등 국내 주요 기업에 AI 학습용 데이터를 공급하며 시장 내 입지를 강화하고 있다. 올해에는 대한민국 대표
배스트 데이터(VAST Data)가 SK텔레콤과 협력해 엔비디아 블랙웰(NVIDIA Blackwell) GPU 기반의 국내 최대 규모 AI 인프라 최적화에 나섰다. SK텔레콤은 통신 기업에서 AI 기업으로 전환을 가속화하고 있으며 이번 협력은 국가 차원의 AI 학습과 추론 수요를 충족하기 위한 핵심 프로젝트다. 양사가 함께 구축하는 ‘해인(Haein) 클러스터’는 GPU-as-a-Service(GPUaaS) 환경을 위해 설계된 차세대 AI 인프라로, 과학기술정보통신부의 'AI 컴퓨팅 자원 활용 기반 강화(GPU 임차 지원) 사업'에 선정됐다. SK텔레콤은 자사 네트워크 및 데이터 센터 인프라에 배스트의 VAST AI OS를 결합해 인프라 전 구간을 가상화했으며 보안성과 유연성을 확보한 GPUaaS 환경을 제공하고 있다. 이를 통해 AI 모델 개발과 배포가 대한민국 주권 영토 내에서 이루어질 수 있도록 지원한다. 기존 베어메탈 기반 인프라는 새로운 워크로드 프로비저닝에 며칠 이상 소요되는 병목 현상을 초래했지만, SK텔레콤은 배스트 데이터의 가상화 인프라 스택 ‘페타서스 AI 클라우드(Petasus AI Cloud)’ 구축으로 문제를 해소했다. 해당 환경은 베
리벨리온이 마벨테크놀로지(이하 마벨)와 손잡고, 아시아태평양(APAC) 및 중동 지역의 소버린 AI 인프라 수요에 대응하기 위한 맞춤형 AI 시스템 공동 개발에 나선다. 최근 범용 GPU 기반의 표준화된 AI 인프라에서 벗어나, 각 국가의 전략적 필요와 환경에 최적화한 ‘도메인 특화(Custom)’ AI 인프라 수요가 전 세계적으로 증가하고 있다. 특히 정부 주도형 AI 프로젝트나 지역 클라우드 기업들은 높은 확장성과 에너지 효율을 동시에 충족시킬 수 있는 인프라를 요구하고 있으며, 이는 단순 하드웨어 도입을 넘어 아키텍처 설계 단계부터 맞춤형 접근이 필요하다는 점에서 산업적 전환점을 예고하고 있다. 이번 협력에서 리벨리온은 고객 맞춤형 추론용 AI 반도체를 설계하고, 마벨은 자사의 커스텀 설계 플랫폼을 바탕으로 첨단 패키징, SerDes(고속 직렬 데이터 전송), 다이투다이 인터커넥트 등 고난도 반도체 기술을 제공한다. 양사는 이를 통해 서버 단위를 넘어 랙 수준까지 통합된 고성능·고효율 AI 인프라를 구현한다는 방침이다. 리벨리온 박성현 대표는 “AI 인프라 시장은 이제 범용 솔루션만으로는 복잡한 수요를 충족시키기 어려운 단계에 이르렀다”며 “마벨과의 협
자동으로 작업을 수행할 수 있는 ‘툴 콜링’ 기능 강화 생성형 AI를 넘어 실무에 적용 가능한 ‘에이전틱 AI’ 경쟁이 본격화되는 가운데, 디노티시아가 차세대 고성능 대형언어모델(LLM) ‘DNA 2.0’을 공개하며 기술력과 시장 전략을 동시에 내세웠다. DNA 2.0은 단순한 텍스트 생성 기능을 비롯해 외부 도구와의 연동을 통해 자동으로 작업을 수행할 수 있는 ‘툴 콜링(Tool Calling)’ 기능을 강화한 점이 핵심이다. 이 기능은 사용자의 명령을 이해한 뒤 검색, 요약, 계산 등 다양한 작업을 스스로 처리해주는 구조로, 향후 비즈니스 자동화와 운영 효율화 측면에서 주목받는다. 특히 디노티시아는 한국어 사용자 경험을 중심으로 모델을 설계했다. 한국어 기반 명령어 구조에 최적화한 후처리 체계를 적용해, 명령어 해석과 응답 형식의 일관성을 높였다. 이를 통해 실제 사용자 환경에서도 안정적으로 활용 가능한 에이전트 실행 환경 구축이 가능하다는 설명이다. DNA 2.0은 디노티시아가 독자 개발한 MCP(Model Context Protocol) 기반 구조를 채택해 자연어 명령을 내부 명세에 따라 자동 변환하고 외부 API와 연동할 수 있도록 설계됐다. 이를
글로벌 고객에게 제공 가능한 수준의 제품화에 성공한 사례로 남아 트웰브랩스가 AWS의 완전관리형 생성형 AI 플랫폼 ‘아마존 베드록(Amazon Bedrock)’에 자사 모델을 정식으로 공급하며, 글로벌 AI 생태계에서 한국 기술의 존재감을 확장하고 있다. 이번 공급은 한국 파운데이션 모델이 글로벌 플랫폼에 공식 편입된 첫 사례로, 기술 주권 실현의 이정표로 주목된다. 트웰브랩스는 ‘마렝고(Marengo)’와 ‘페가수스(Pegasus)’ 두 가지 영상 AI 모델을 베드록을 통해 전 세계 AWS 고객에게 제공한다. 이를 통해 고객사는 별도의 인프라 구축 없이 영상 콘텐츠 내 객체, 동작, 음향 등을 자연어 기반으로 분석하고 검색한다. AWS는 이번 협업으로 영상이해 모델을 직접 제공하는 첫 번째 클라우드 사업자가 됐으며, 트웰브랩스는 메타, 엔트로픽, 딥시크, 미스트랄AI 등과 함께 베드록 공식 모델 파트너로 자리잡았다. 영상 데이터는 디지털 환경에서 가장 활용이 어려운 자산 중 하나로 꼽힌다. 트웰브랩스의 AI 모델은 이러한 비정형 영상 데이터를 의미 기반의 분석 가능한 형태로 전환해, 콘텐츠 검색, 요약, 아카이빙 등의 작업을 빠르고 효율적으로 수행하도록
14B, 1.7B, 1.7B OCR, 임베딩 모델 등 총 4종 공개 NC AI가 멀티모달 인공지능(AI) 기술력의 집약체인 ‘VARCO-VISION 2.0’ 모델 4종을 공개하며 국내 AI 기술의 글로벌 경쟁력을 입증했다. 공개된 모델은 14B, 1.7B, 1.7B OCR, 임베딩 모델 등 총 4종으로 구성되며, 이미지와 텍스트, 비디오 정보를 동시에 이해하고 처리하는 고성능 비전-언어모델(VLM)이다. 이번 발표의 핵심은 140억 파라미터(14B) 규모의 멀티모달 모델로, NC AI는 해당 모델이 영문 이미지, 한국어 이미지 이해, OCR 분야에서 InternVL3, Ovis2, Qwen2.5-VL 등 글로벌 오픈소스 최고 성능 모델을 능가했다고 밝혔다. 또한 중소형 환경에서도 사용 가능한 1.7B 경량 모델과 OCR 특화 모델, 텍스트-이미지-비디오 간 의미적 유사도를 계산하는 임베딩 모델도 함께 선보였다. VARCO-VISION 2.0은 복잡한 문서, 표, 차트 등을 동시에 분석할 수 있는 다중 이미지 처리 역량과 한국어 중심의 텍스트 생성 능력, 한국 문화 이해도를 향상시킨 것이 특징이다. 특히, AnyRes 방식으로 다양한 해상도를 손실 없이 처리할
이달 중 340억 매개변수 규모의 A.X 3.1 대형 모델도 추가 발표 예정 SK텔레콤(이하 SKT)이 오픈소스 플랫폼 허깅페이스에 독자 구축한 한국형 LLM(대규모 언어모델) ‘A.X 3.1 라이트’를 공개하며, 경량 모델 중심의 AI 기술 생태계 확장에 본격 시동을 걸었다. 이번 모델은 SKT가 설계부터 학습까지 전 과정을 ‘프롬 스크래치(From Scratch)’ 방식으로 자체 개발한 70억 매개변수(7B) 규모의 경량화 LLM이다. A.X 3.1 라이트는 기존에 에이닷 통화 요약 기능에 적용됐던 A.X 3.0 라이트의 성능을 한층 업그레이드한 버전이다. 모바일 기기 등 사양이 다양한 환경에서도 낮은 전력 소비와 높은 처리 효율을 유지하며 작동할 수 있도록 설계돼, 국내외 다양한 기업 환경에서 AI 기술의 실질적 도입을 지원할 것으로 기대된다. 특히 동일한 파라미터 규모의 자매 모델인 ‘A.X 4.0 라이트’와 비교해도 손색없는 성능을 보여줬다. 한국어 멀티태스크 평가 지표인 KMMLU에서 61.70점을 기록해 64.15점을 기록한 A.X 4.0 라이트 대비 96% 수준의 성능을 보였고, 한국어 문화 이해를 평가하는 CLIcK 벤치마크에서는 오히려 10