로이드케이는 미국 매사추세츠공과대(MIT)와 공동연구에 착수했다고 23일 밝혔다. 이번 연구는 AI 모델의 비용과 시간을 절감하면서도 높은 성능을 유지할 수 있는 효율화 기술을 확보해, 산업 현장의 경쟁력과 글로벌 시장 진출을 동시에 가속화하는 데 목적을 두고 있다. 로이드케이의 이번 연구 과제는 중소벤처기업부가 추진하는 ‘2025년 글로벌협력형 R&D 지원사업(예비연구형)’의 전국 3대 과제 중 하나로, 지난 8월 25일 최종 선정됐다. 이 사업은 국내 기업이 해외 선도 연구기관과 협력해 글로벌 기술 경쟁력을 확보할 수 있도록 지원하는 정부 프로그램이다. MIT의 연구 역량과 로이드케이의 산업 적용 경험이 공신력과 파급력을 인정받은 결과다. 공동연구를 통해 양 기관은 ▲4비트 양자화(Quantization) ▲LQ-LoRA 기반 경량 미세조정(Fine-Tuning) 기술 등을 개발해 차세대 대규모 언어모델(LLM)의 고성능·저자원 배포가 가능한 기술 플랫폼을 구축할 계획이다. 특히 ‘고효율 LLM 추론 스택(High-Efficiency LLM Inference Stack)’을 구현함으로써 AI 모델 구동에 필요한 비용과 자원을 획기적으로 절감하고,
리걸AI 솔루션 ‘앨리비(allibee)’ 운영사 비에이치에스엔(BHSN, 대표 임정근)이 중소벤처기업부의 기술 성장 지원 프로그램인 ‘스케일업 팁스(Scale-up TIPS)’에 선정됐다. 이번 선정으로 BHSN은 향후 3년간 최대 12억 원의 연구개발(R&D) 자금을 지원받으며, 법률 인공지능(리걸AI) 기술 고도화와 글로벌 시장 확장에 박차를 가할 예정이다. 스케일업 팁스는 민간 투자와 정부 R&D 자금을 연계해 기술 경쟁력과 성장 잠재력을 갖춘 유망 스타트업을 집중 지원하는 프로그램이다. BHSN은 자체 개발한 법률 특화 LLM(대규모 언어모델) ‘앨리비 아스트로(allibee astro)’의 기술 완성도와 아시아 시장을 겨냥한 글로벌 비즈니스 역량을 인정받아 이번 프로그램에 선정됐다. BHSN은 이번 지원사업을 통해 ‘앨리비 아스트로’의 멀티모달(Multimodal) 기능을 강화할 계획이다. 이를 통해 법령, 판례, 정책문서 등에 포함된 표, 도표, 시각적 구조 정보를 정밀 분석하고, 복잡한 법률 문서에서도 정확한 추론과 근거 제시가 가능한 AI 모델로 고도화한다는 목표다. 또한 ‘앨리비 비즈니스 에이전트(allibee Business
최근 인공지능(AI) 모델이 길고 복잡한 문장을 이해하고 처리하는 능력이 급속히 발전하면서, 연산 속도와 메모리 효율을 동시에 높일 수 있는 차세대 반도체 기술의 필요성이 커지고 있다. 이러한 가운데 KAIST가 국제 연구진과 함께 거대언어모델(LLM)의 추론 속도를 4배 높이면서 전력 소모를 2.2배 줄인 AI 반도체 핵심 기술을 세계 최초로 구현해 주목받고 있다. KAIST는 전산학부 박종세 교수 연구팀이 미국 조지아 공과대학교, 스웨덴 웁살라 대학교와의 공동연구를 통해 트랜스포머(Transformer)와 맘바(Mamba) 두뇌 구조의 장점을 결합한 차세대 AI 메모리 반도체(PIM, Processing-in-Memory) 기반 기술 ‘PIMBA’를 개발했다고 17일 밝혔다. 현재 ChatGPT, GPT-4, Claude, Gemini, Llama 등 대부분의 LLM은 입력 문장의 모든 단어를 동시에 인식·처리하는 트랜스포머 구조를 사용한다. 이 방식은 고도의 병렬 연산이 가능하다는 장점이 있지만, 모델이 커지고 문장이 길어질수록 연산량과 메모리 요구량이 폭증해 속도 저하와 에너지 비효율 문제가 발생한다. 이에 대한 대안으로 최근 제시된 ‘맘바(Mamba
베스핀글로벌은 지난 14일부터 16일까지 서울 코엑스 더플라츠에서 열린 아마존웹서비스(AWS) 주관 ‘AWS AI x 인더스트리 위크 2025’에 참가해 자사의 제조 에이전틱 AI 솔루션 ‘AI 기반 음성 주문 자동화 솔루션’ 성공 사례를 국내외 고객에게 선보였다. 이번 행사는 ‘AI가 산업의 경계를 넘어 새로운 비즈니스 기회를 열고 미래를 연결한다’는 주제로, 클라우드를 통한 첨단 기술 도입과 성공 사례를 집중 조명했다. 전시장에서는 게임·제조·리테일·소프트웨어·금융 등 5개 산업 분야의 60여 개 세션과 데모가 진행돼 산업 전반의 AI 혁신 트렌드를 한눈에 살필 수 있었다. 강연은 ▲Games on AWS ▲제조 및 리테일 ▲인터넷 및 금융의 세 가지 트랙으로 구성돼 3일간 진행됐다. 산업별 기업들이 AI를 활용해 실제 성과를 거둔 사례를 중심으로 각 기업의 전략과 실행을 통해 산업 현장의 변화를 구체적으로 보여줬다. 베스핀글로벌은 행사 기간 동안 자사 부스를 운영하며 생성형 AI 플랫폼 ‘헬프나우 에이전틱 AI 플랫폼’을 기반으로 한 제조 산업 특화 솔루션 ‘AI 기반 음성 주문 자동화 솔루션’을 선보였다. 부스에서는 실제 도입 컨설팅과 제품 시연이 이
한국딥러닝이 비정형 문서를 LLM 학습·검색용 구조 데이터로 변환하는 차세대 문서 구조화 솔루션 ‘DEEP Parser(이하 딥 파서)’를 정식 출시했다고 16일 밝혔다. 딥 파서는 문서의 레이아웃과 위계를 해석해 제목, 본문, 표, 캡션, 도형 등 최대 23종 요소로 자동 분류하고, PDF·HWP·JPEG 등 다양한 원본을 HTML, JSON, Markdown, XML로 변환한다. 복잡한 표 인식, 이미지 분석, 개인정보 보호 등 추가 기능은 선택형 모듈로 제공된다. 방대한 문서를 AI가 효율적으로 처리할 수 있도록 의미 단위로 자동 분할해주는 기능을 제공하며, 이를 통해 기업들은 문서 기반 AI 서비스 구축에 필요한 데이터 전처리 시간을 크게 단축할 수 있다. 또한 패키지를 단순화해 PoC에서 상용 전환까지의 속도를 높였고, ERP·RPA 등 기존 사내 시스템과의 연계를 고려해 API 연동 기능도 제공한다. 웹 기반 온라인 데모로 누구나 사용해볼 수 있도록 공개될 예정이며, 신청 기업은 실제 문서를 업로드해 구조화 결과를 직접 확인할 수 있다. 데모 링크는 사전 신청 기업을 대상으로 순차 발송된다. 한국딥러닝은 와이즈넛, 코난테크놀로지와의 협력을 통해 지
델 테크놀로지스(Dell Technologies)가 네트워크 연결 없이 데스크 환경에서 최대 2000억 개 매개변수의 대규모 언어 모델(LLM)을 지원하는 AI 시스템 ‘델 프로 맥스 위드 GB10(Dell Pro Max with GB10)’을 공개했다. 이번 제품은 엔비디아 그레이스 블랙웰(NVIDIA Grace Blackwell) 아키텍처를 기반으로 한다. 최근 AI 산업은 인간의 개입 없이 여러 AI가 협력해 의사결정을 내리는 ‘에이전틱 AI(Agentic AI)’ 시대로 빠르게 진입하고 있다. 이에 따라 AI 워크로드를 로컬 환경에서 안전하고 경제적으로 처리할 수 있는 고성능 시스템의 중요성이 높아지고 있다. 델 프로 맥스 위드 GB10은 이러한 수요에 대응해 로컬에서도 초대형 모델을 손쉽게 개발, 미세 조정, 추론할 수 있도록 설계됐다. 이 시스템은 엔비디아 GB10 슈퍼칩을 탑재해 CPU와 GPU를 결합한 하이브리드 아키텍처로 최대 1페타플롭의 AI 연산 성능을 제공한다. 20코어 Arm 기반 ‘그레이스’ CPU와 ‘블랙웰’ GPU가 통합되어 있으며, 128GB LPDDR5x 메모리와 최대 4TB NVMe SSD를 지원해 방대한 데이터도 원활히 처
AI 최적화 및 경량화 기술 기업 노타는 산업통상자원부로부터 자사의 AI 모델 자동 최적화 플랫폼 ‘넷츠프레소’가 첨단기술제품 인증을 획득했다고 13일 밝혔다. 이번 인증은 정부가 기술의 혁신성과 산업적 가치를 공식적으로 인정해 부여하는 국가 기술 인증으로, 넷츠프레소는 ‘임베디드 소프트웨어 분야-NPU용 소프트웨어 기술’ 부문에서 기술력을 인정받았다. 넷츠프레소는 AI 반도체부터 IoT 디바이스까지 다양한 하드웨어 환경에서 AI 모델을 효율적으로 압축·최적화·배포할 수 있는 플랫폼이다. 모델 크기를 최대 90% 이상 줄이면서도 정확도를 유지하는 것이 핵심으로, 개발과 운영 비용을 대폭 절감하고 빠른 상용화를 가능하게 한다. 노타는 삼성전자, 퀄컴, 르네사스, 소니 등 여러 글로벌 반도체 기업에 AI 모델 최적화 기술을 공급하며 엣지 인텔리전스 산업 전반에서 기술적 영향력을 강화하고 있다. 또한 최근에는 낮은 사양의 디바이스에서도 대규모 언어모델(LLM)을 구동할 수 있는 LLM 최적화 기술을 선보여 제조, 가전, IoT 등 다양한 산업 영역으로 온디바이스 AI의 적용 범위를 확장했다. 채명수 노타 대표는 “이번 인증은 노타가 보유한 AI 최적화 기술이 국가
AI 솔루션 기업 ㈜탤런트리(대표 안찬봉)가 운영하는 데이터·AI 기반 서비스 ‘클리브(Cleave)’가 ‘국가대표 AI’로 선정된 ㈜업스테이지(대표 김성훈)와 손잡고 국내 금융권의 AI 혁신을 본격화한다. 양사는 13일 금융 도메인 특화 AI 솔루션 개발을 위한 업무협약(MOU)을 체결하고 국내 금융사에 최적화된 고성능 국산 AI 모델 솔루션을 공동 개발하기로 합의했다. 이번 협약은 해외 LLM(대규모 언어모델)의 보안상 제약으로 글로벌 AI 모델을 활용하기 어려운 국내 금융기관의 수요를 반영한 것으로, 금융권 맞춤형 AI 인프라 생태계 구축을 목표로 하고 있다. 이번 협력의 핵심은 클리브의 금융 비즈니스 혁신 역량과 업스테이지의 AI 기술력 결합이다. 클리브는 금융 데이터에 특화된 문제 해결 능력을, 업스테이지는 자사 LLM ‘솔라(Solar)’와 문서 분석 엔진 ‘다큐먼트 파스(Document Parse)’를 제공해 기업별 맞춤형 AI 에이전트와 서비스 구현을 지원한다. 클리브는 토스·토스증권 출신 핵심 인력이 주축이 되어 설립된 기업으로 남영철 제품 총괄(前 토스증권 설립멤버)과 신재승 데이터·AI 총괄(前 토스 데이터팀 리더)을 비롯해 네이버·카카오
현장 기계·장비 대화형 인공지능(AI) 소프트웨어 ‘모드링크 머신GPT(MODLINK MachineGPT)’ 데뷔 거대언어모델(LLM) 기반 현장 및 AI 사물인터넷(AIoIT) 솔루션...고장 원인·해결책 제시한다 “숙련자 수준의 대응 구현하고, 다국어 질의응답 기능 탑재” 엣지크로스가 거대언어모델(LLM) 기술을 활용한 대화형 인공지능(AI) 산업 솔루션 ‘모드링크 머신GPT(MODLINK MachineGPT)’를 강조했다. 이번 솔루션은 제조 현장 기계와 대화하며 고장 원인 및 해결책을 제시하는 데 초점을 맞춰 설계됐다. 오래된 기계 설비와 숙련된 기술자 부족으로 어려움을 겪는 중인 제조 시스템에 새로운 방법론을 제공할 것으로 보인다. 아울러 기계 지식을 전수·교육하는 과정에서 시간·비용을 적잖게 소모하는 기존 프로세스에도 혁신점을 부여할 전망이다. 산업 특화 AI 솔루션으로 기획된 이 제품은 직관적인 대화형 사용자 화면(User Interface)를 탑재한 점이 특징이다. 이를 통해 비숙련자도 쉽게 시스템을 활용하고, 기술 지원·문제 해결·운영 판단 등을 빠르고 정확하게 수행할 수 있다. 이 솔루션은 성능, 매뉴얼, 정비 지원 이력 등 현장 도메인 지
KT는 마이크로소프트(MS)와 전략적 협업을 통해 개발한 GPT-4o 기반 한국적 인공지능(AI) 모델 ‘SOTA K built on GPT-4o’(이하 SOTA K)를 출시했다고 29일 밝혔다. KT는 한국어와 국내 특유의 사회·문화적 맥락을 충분히 반영하지 못한 기존 대형 언어모델(LLM)의 한계를 보완하기 위해 고품질 한국 특화 데이터를 학습에 활용하고, MS와 협업해 GPT-4o를 한국 사회에 최적화된 모델로 발전시켰다고 설명했다. SOTA K는 한국적 AI의 4대 핵심 철학인 ▲데이터 주권 보호 ▲한국 문화 이해 ▲모델 선택권 보장 ▲안전하고 책임감 있는 AI를 모두 구현한 모델이다. 한국어 경어법과 방언은 물론 법률·금융·역사 등 국내 특정 산업 분야에서 쓰이는 전문 용어까지 자연스럽게 이해·생성할 수 있어 비즈니스 현장에서의 활용성을 크게 높였다는 것이 KT의 설명이다. 또한 한국적 AI 지표를 측정하는 자체 정량·정성 평가에서 SOTA K는 한국어 이해, 생성, 추론, 사회·문화, 전문 지식 등 주요 항목에서 GPT-4o보다 우수한 성능을 보였다. 특히 한국사·한국어·법령 등 고난도 한국적 지식을 요구하는 공무원 시험과 귀화 시험에서 GPT-4
저사양의 기기에서도 거대언어모델(LLM)을 구동하는 최적화 서비스 공식 오픈 기존 하드웨어 교체 없이 빠른 추론 속도와 높은 성능 구현 ‘눈길’ 노타가 거대언어모델(LLM) 최적화 서비스를 공개했다. 이번 서비스는 저사양의 기기에서도 거대언어모델(LLM)을 구현하는 기술로, 디바이스 사양에 관계 없이 LLM과 시각언어모델(VLM)을 최적화하는 점이 특징이다. 사측은 모델의 성능은 유지하면서도 빠른 추론 속도를 가능하게 하는 것을 핵심 강점으로 내세운다. 해당 기술은 생성형 AI(Generative AI)가 하드웨어에 빠르게 적용되는 시장 환경에 맞춰, 클라우드 및 온디바이스(On-device) 환경 등에서 자유롭게 구동된다. 노타 측은 가전제품·모빌리티 등 하드웨어 교체 비용이 부담되는 기업들이 최신 성능의 LLM 서비스를 도입하게 됐다고 강조했다. 또한 다양한 칩셋에서 호환이 가능하고, 복잡한 파라미터를 가진 LLM의 높은 최적화 난이도에 대응할 수 있다. 경량화를 통해 메모리·연산 효율을 향상시키고, LLM 사용에 따른 디바이스 전력 및 클라우드 운영 비용 절감 효과 또한 강점이다. 더불어 기존 하드웨어를 그대로 활용하기 때문에 별도의 인프라 투자 없이
플래티어는 기업 맞춤형 AI 개발·운영 플랫폼 ‘XGEN’을 출시했다고 22일 밝혔다. XGEN은 검색증강생성(RAG), AI 워크플로우 설계, 대규모 언어모델(LLM) 통합 운영, 성능 모니터링과 배포까지 아우르는 올인원 AI 플랫폼이다. 이번 출시로 플래티어는 AI 도입을 추진하는 기업이 겪는 복잡한 기술적·운영적 장벽을 해소하고 빠른 성과 창출을 지원하는 데 초점을 맞췄다. XGEN은 ▲기업 맞춤형 AI 서비스 개발 ▲확장성과 유연성을 갖춘 LLMOps 제공 ▲다양한 데이터 소스 연계 및 RAG 구성 ▲안정적이고 효율적인 운영 체계 구현 등을 통해 AI 도입 장벽을 낮춘다. 또한 유연한 통합 환경을 바탕으로 개발사, 시스템 통합사(SI) 등 파트너사에게도 높은 활용 가치를 제공한다. 클라우드와 온프레미스 환경을 모두 지원하며, 데이터 암호화와 접근 권한 제어 등 엔터프라이즈급 보안·거버넌스를 갖춰 공공·금융 등 규제가 엄격한 산업에서도 도입이 가능하다. RAG 기술을 통해 기업 내부 데이터를 벡터 DB에 저장·학습시켜 실제 비즈니스 맥락에 최적화된 AI 서비스를 구현할 수 있다. 웹 기반 비주얼 캔버스 에디터도 제공돼 개발 편의성이 강화됐다. 사용자는
레노버 글로벌 테크놀로지 코리아(ISG)는 11일 시그니엘 서울에서 솔트룩스와 함께 ‘Lenovo Tech Day - Smarter HPC for All’ 세미나를 개최했다. 이번 행사에서는 레노버의 차세대 인프라스트럭처 전략과 솔트룩스의 초거대 언어모델(LLM) 기반 AI 솔루션 루시아 GPT(Luxia GPT) 가 소개됐다. AI 혁신이 가속화되는 가운데, 초거대 AI와 이를 뒷받침하는 고성능 인프라의 중요성은 더욱 커지고 있다. 레노버는 AI와 HPC 워크로드에 최적화된 인프라를 제공해 솔트룩스와 같은 기업의 AI 솔루션이 안정적으로 구현될 수 있도록 지원하고 있다. 솔트룩스는 AI 에이전트, AI 검색, 생성형 AI 챗봇 등 다양한 AI 솔루션을 제공한다. 루시아 GPT는 고객 데이터를 학습해 도메인 특화형 생성형 AI 서비스를 제공하며, RAG와 지식그래프 연계를 통해 근거 기반의 정확한 답변을 제시한다. 또한 정교한 권한 관리 기능으로 기업 환경의 데이터 보안을 강화한다. 행사는 윤석준 레노버 글로벌 테크놀로지 코리아(ISG) 부사장의 환영사로 시작됐다. 이어 이경일 솔트룩스 대표가 ‘AI 에이전트, 투자 시장을 집어 삼키다: 초지능이 바꿔갈 투자
씨이랩이 업스테이지와 손잡고 LLM 기반 멀티모달 AI 어플라이언스 상용화에 나선다. 양사는 12일 업무협약을 체결하고 GPU 어플라이언스와 대규모 언어모델 통합, 비전 AI와 한국어 특화 LLM 결합을 통해 산업 현장에 즉시 적용 가능한 솔루션을 공동 개발하기로 했다. 첫 단계로 업스테이지의 LLM ‘솔라(Solar)’를 씨이랩의 GPU 어플라이언스 ‘아스트라고(AstraGo)’에 탑재한다. 이를 통해 GPU 클러스터 관리와 인프라 최적화가 가능한 AI 통합 플랫폼을 구축, 기업이 대규모 언어모델을 안정적이고 효율적으로 운영할 수 있는 환경을 제공한다. 이는 고비용과 운영 난이도로 인해 어려움을 겪던 기업들의 AI 도입 장벽을 낮출 수 있을 것으로 기대된다. 또한 씨이랩의 영상분석 플랫폼 ‘엑스아이바(XAIVA)’와 업스테이지의 한국어 특화 LLM을 결합해 반도체, 바이오, 제조 등 특정 산업에 특화한 멀티모달 솔루션을 제공할 계획이다. 여기에 씨이랩이 보유한 모델 경량화 기술이 더해지면, 저사양 GPU 환경에서도 고성능 분석이 가능해져 비용 절감과 운영 효율성이 극대화된다. 씨이랩은 비전 AI 기업으로 130여 개의 자체 비전언어모델 조합을 기반으로 온디
모레(MOREH)가 미국 산타클라라에서 열린 ‘AI 인프라 서밋 2025’에 참가해 AMD 기반 분산 추론 시스템과 글로벌 협업 성과를 공개했다. 이번 행사는 반도체, 시스템, 데이터센터, 엣지 AI 등 AI 인프라 전 분야를 아우르는 글로벌 전문 행사로, 3500명 이상이 참석하고 100여 개 파트너사가 함께했다. 조강원 대표는 엔터프라이즈 AI 세션에서 주제 발표를 통해 모레의 분산 추론 시스템을 소개하며, 최신 딥러닝 모델인 딥시크 최적화 벤치마크에서 엔비디아 대비 효율성을 높였다고 밝혔다. 또한 텐스토렌트 하드웨어와 자사 소프트웨어를 결합한 차세대 AI 반도체 시스템을 처음 선보이며, 가격 경쟁력을 갖춘 다양한 대안을 제시했다. 모레는 딥러닝 추론 소프트웨어 생태계를 주도하는 SGLang과 공동 발표를 진행하고, 부스 운영과 네트워킹 이벤트를 통해 북미 시장에서의 입지를 강화했다. 양사는 향후 AMD 기반 분산 추론 시스템을 공동 개발해 빠르게 성장하는 글로벌 딥러닝 추론 시장을 공략할 계획이다. 조 대표는 “모레는 AMD의 글로벌 소프트웨어 파트너 중에서도 기술 역량이 가장 탄탄하다”며, 현재 주요 LLM 기업들과 PoC를 진행 중임을 강조했다. 이