임정환 대표, '연산은 무겁고 예산은 가볍다 : AI 인프라 현실과 대안 찾기' 주제로 발표 진행 모티프테크놀로지스(모레 자회사)가 오는 5월 15일 개최되는 ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’에 참가해 'AI 인프라 현실과 대안 찾기'를 주제로 발표한다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업이 겪는 운영상의 고민과 실무자의 현장 요구에 대응하도록 최신 기술 트렌드와 구체적인 적용 사례가 공유된다. 발표자로 참석하는 모티프테크놀로지스(모레 자회사) 임정환 대표는 "모레는 초거대 AI 시대에서 GPU 자원을 어떻게 효율적으로 쓸 수 있을까에 대한 답으로 AI 인프라 소프트웨어를 개발했다. 그리고 이를 활용해 AI를 비용효율적으로 빠르게 만들 수 있었다. 모티프테크놀로지스는 모회사인 모레와 함께 AI Full-stack을 오랫동안 연구해 왔으며, 이번 발표를 통해 AI 비즈니스를 위한 현실적인 대안을 제시하고자 한다"고 밝혔다. 모레는 조강원 대표를 포함해 토
임정환 대표, '연산은 무겁고 예산은 가볍다 : AI 인프라 현실과 대안 찾기' 주제로 발표 진행 모티프테크놀로지스(모레 자회사)가 오는 5월 15일 개최되는 ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’에 참가해 'AI 인프라 현실과 대안 찾기'를 주제로 발표한다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업이 겪는 운영상의 고민과 실무자의 현장 요구에 대응하도록 최신 기술 트렌드와 구체적인 적용 사례가 공유된다. 발표자로 참석하는 모티프테크놀로지스(모레 자회사) 임정환 대표는 "모레는 초거대 AI 시대에서 GPU 자원을 어떻게 효율적으로 쓸 수 있을까에 대한 답으로 AI 인프라 소프트웨어를 개발했다. 그리고 이를 활용해 AI를 비용효율적으로 빠르게 만들 수 있었다. 모티프테크놀로지스는 모회사인 모레와 함께 AI Full-stack을 오랫동안 연구해 왔으며, 이번 발표를 통해 AI 비즈니스를 위한 현실적인 대안을 제시하고자 한다"고 밝혔다. 모레는 조강원 대표를 포함해 토
영상 기반 AI 관제 시스템 ‘슈퍼브 영상관제’ 소개 및 탑재 기능·실증 사례 공유 슈퍼브에이아이가 오는 5월 14일부터 16일까지 서울 코엑스에서 열리는 ‘AI EXPO KOREA 2025(국제인공지능대전)’에 참가한다. 이번 참여는 5년 연속 출전으로, 슈퍼브에이아이는 자사의 대표 제품인 ‘슈퍼브 영상관제’ 솔루션을 중심으로 산업 맞춤형 AI 적용 사례를 선보인다. AI EXPO는 국내 최대 규모의 인공지능 전문 전시회로, 올해 8회를 맞아 11개국 300여 개 기업과 기관이 참여하며 450여 개 부스 규모로 진행된다. 전시는 AI 생태계 확장과 산업 간 기술 융합을 목표로 다양한 최신 기술과 상용 솔루션을 소개한다. 슈퍼브에이아이는 이번 행사에서 영상 기반 AI 관제 시스템인 ‘슈퍼브 영상관제’의 고도화한 기능과 실증 사례를 전면에 내세운다. 이 솔루션은 다수의 CCTV 영상을 실시간 분석하는 AI 에이전트로, 직관적인 대시보드를 통해 화재 연기, 차량, 얼굴, 쓰러짐, 이상행동 등을 자동으로 탐지한다. 특히, 데이터가 부족한 환경에서도 합성 데이터 기술을 활용해 2주 내 시스템 도입이 가능한 점이 강점으로 꼽힌다. 또한, VLM(Vision-Langu
김동환 대표 "세계 웹사이트 환경의 디지털 소통 방식 바꾸는 데 일조할 것" 포티투마루가 중소벤처기업부와 창업진흥원이 주관하는 ‘2025 초격차 스타트업 1000+ 프로젝트(DIPS 1000+)’에 최종 선정됐다. 선정 과제는 ‘Global SaaS향 추론형 AI Agent 서비스’로, 기업 고객의 다양한 요구를 맞춤형으로 지원하는 'SiteBunny+(사이트버니+)'를 앞세워 글로벌 SaaS 시장 공략에 본격 나선다. DIPS 1000+는 독보적인 기술력과 글로벌 진출 가능성을 갖춘 딥테크 스타트업을 발굴·육성하기 위한 정부 프로젝트로, AI를 포함한 10대 핵심 기술군을 중심으로 창업 10년 이내 기업을 지원 대상으로 삼는다. 선정 기업에는 창업사업화 자금부터 기술 사업화, 오픈이노베이션 등 단계별 프로그램이 제공되며, 상위 성과 기업은 이후 Beyond DIPS 프로그램을 통해 후속 지원까지 받을 수 있다. 포티투마루의 핵심 과제인 SiteBunny+는 고객, 파트너, 투자자, 기관, 구직자 등 다양한 이해관계자의 질의에 대해 종합적이고 맥락 있는 답변을 제공하는 B2B2C 기반 추론형 AI Agent다. 단순 정보 검색을 넘어 기업 웹사이트 내 핵심
망고부스트 김창수 실장, '차세대 LLM 추론 인프라 전략' 주제로 발표 진행 망고부스트가 오는 5월 15일 개최되는 ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’에 참가해 '차세대 LLM 추론 인프라 전략'을 주제로 발표한다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업이 겪는 운영상의 고민과 실무자의 현장 요구에 대응하도록 최신 기술 트렌드와 구체적인 적용 사례가 공유된다. 발표자로 참여하는 망고부스트 김창수 실장은 '차세대 LLM 추론 인프라 전략 : LLMBoost 자동화와 DPU 기반 가속의 시너지를 중심으로'라는 주제로 인사이트를 공유한다. 김창수 실장은 "이번 발표에서는 환경별 최적화가 필수인 현재 LLM 추론 인프라를 소개한다. 이와 함께 자동 튜닝으로 성능을 극대화하고 Multi Vendor를 지원하는 LLMBoost, 유연한 확장성과 관리성을 갖춘 차세대 Disaggregated Prefill·Decode 인프라을 비롯해 DPU 기반 스토리지 및 RAG 가
망고부스트 김창수 실장, '차세대 LLM 추론 인프라 전략' 주제로 발표 진행 망고부스트가 오는 5월 15일 개최되는 ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’에 참가해 '차세대 LLM 추론 인프라 전략'을 주제로 발표한다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업이 겪는 운영상의 고민과 실무자의 현장 요구에 대응하도록 최신 기술 트렌드와 구체적인 적용 사례가 공유된다. 발표자로 참여하는 망고부스트 김창수 실장은 '차세대 LLM 추론 인프라 전략 : LLMBoost 자동화와 DPU기반 가속의 시너지를 중심으로'라는 주제로 인사이트를 공유한다. 김창수 실장은 "이번 발표에서는 환경별 최적화가 필수인 현재 LLM 추론 인프라를 소개한다. 이와 함께 자동 튜닝으로 성능을 극대화하고 Multi Vendor를 지원하는 LLMBoost, 유연한 확장성과 관리성을 갖춘 차세대 Disaggregated Prefill·Decode 인프라을 비롯해 DPU 기반 스토리지 및 RAG 가속
GPT-3의 파라미터 수는 1750억 개. 한때 이 수치는 AI의 위용을 상징했다. 하지만 2025년 현재, 그런 숫자 놀이는 더 이상 중요하지 않다. AI 기술의 중심축이 바뀌고 있다. ‘얼마나 학습했는가’에서 ‘얼마나 빠르게 반응하고 정확하게 추론하는가’로 말이다. OpenAI의 o3, 구글의 Gemini 1.5, 마이크로소프트의 Phi-3, 메타의 LLaMA3까지, 최근 공개된 모든 신형 모델은 공통적으로 ‘추론 최적화’를 전면에 내세운다. 한마디로 말해, 지금의 AI는 더 이상 천천히 생각하는 철학자가 아니라, 실시간 대응하는 전술가여야 한다. AI 성능 기준의 변화 이른바 GPT로 대표되는 LLM은 통계적으로 가장 가능성 높은 답을 과거 학습 데이터를 기반으로 예측하는 구조다. 이른바 ‘확률적 언어 생성기’다. 하지만 여기엔 한계가 있었다. 새로운 상황에 대한 실시간 판단, 문맥에 따른 논리적 전개, 시각 정보와 복합 입력의 해석 등에서는 유연하지 못했다. 그런 의미에서 AI 성능은 오랫동안 ‘얼마나 많은 데이터를 학습했는가’, ‘모델의 크기가 얼마나 큰가’로 측정됐다. GPT-4는 GPT-3 대비 수배의 연산량을 요구했고, 이를 학습하기 위해선 수
기업들의 마케팅 자동화 전환이 생성형 AI를 중심으로 본격화되고 있다. 특히 반복적이고 리소스를 많이 소모하는 콘텐츠 제작 영역에서 AI 솔루션의 도입이 빠르게 확산되고 있는 가운데 브이캣은 마케팅 콘텐츠 제작 전 과정을 자동화하는 기업 맞춤형 AI 솔루션을 제공하고 있다. 최근 마케팅 산업에서는 생성 AI 기술이 빠르게 보급되며 마케터의 79%가 마케팅 콘텐츠 제작에 AI를 활용하려는 움직임을 보이고 있다. 특히 다채로운 채널과 포맷에 맞춰 대량의 콘텐츠를 제작해야 하는 이커머스 플랫폼과, 고품질의 일관된 콘텐츠가 필요한 중대형 브랜드를 중심으로 AI 도입이 활발하게 진행되고 있다. 브이캣은 이러한 변화에 발맞춰 상품 이미지 한 장으로 스튜디오에서 촬영한 듯한 상품컷을 생성하고 생성된 이미지를 생동감 있는 영상으로 변환해주는 AI 솔루션 ‘브이캣 크리젠’을 제공하고 있다. 기업은 여러 AI 툴을 사용할 필요 없이 브이캣 크리젠에서 이미지 생성부터 영상 변환까지 모두 해결할 수 있다. 브이캣은 생성된 이미지와 영상을 활용해 숏폼 콘텐츠나 프로모션 배너 등 다양한 마케팅 소재를 자동 제작하는 기능도 제공한다. 이를 통해 마케팅팀, MD팀과 같은 비전문 디자인
은밀한 유해표현, 설득력 등 다양한 지표를 통해 AI의 잠재 위험성 탐지 에임인텔리전스가 연세대학교, KIST, 서울대학교와 공동으로 개발한 AI 안전성 진단 체계 ‘ELITE(Enhanced Language-Image Toxicity Evaluation)’가 머신러닝 학술대회인 'ICML 2025'에 공식 논문으로 채택됐다. 이는 국내 연구진이 글로벌 AI 안전성 연구 흐름을 선도하는 신호탄으로 해석된다. ICML(International Conference on Machine Learning)은 인공지능 및 머신러닝 분야에서 가장 권위 있는 학회 중 하나로, 매년 전 세계 연구자들이 최신 기술을 발표하고 교류하는 자리다. 올해로 42회를 맞이한 이 학회에 국내 연구팀의 논문이 이름을 올린 것은, 한국 기술력의 실질적 성과가 국제적으로 공론화됐다는 점에서 의미가 깊다. ELITE는 이미지와 텍스트를 함께 입력받는 비전언어모델(VLM)의 응답을 ‘정밀 진단’하는 평가 체계다. 단순히 노골적인 표현만을 걸러내는 기존 방식에서 나아가, 겉보기에 문제가 없는 응답 속에서도 은밀한 유해 표현, 설득력, 구체성 등 다양한 지표를 통해 AI의 잠재 위험성을 탐지한다.
전시회서 치타, 가젤, 세렝게티 등 세 가지 핵심 솔루션 소개 예정 에이프리카가 오는 5월 14일부터 16일까지 서울 코엑스에서 개최되는 ‘AI EXPO SEOUL 2025’에 참가해 폐쇄망 환경에서도 구축 가능한 Private AI Agent 솔루션을 공개한다. 에이프리카는 이번 전시를 통해 산업 맞춤형 RAG 프레임워크와 운영 자동화 체계를 결합한 프라이빗 AI 통합 플랫폼을 선보인다. 'Build Your Own Private AI Agent'라는 슬로건 아래, 외부 네트워크가 차단된 기업 환경에서도 신속하게 자체 AI 에이전트를 구현하는 방안을 제시할 계획이다. 에이프리카는 이번 전시에서 치타(Cheetah), 가젤(Gazelle), 세렝게티(Serengeti) 등 세 가지 핵심 솔루션을 소개한다. 치타는 데이터 수집부터 모델 개발, 배포, 인프라 운영까지 AI 개발의 전 과정을 아우르는 MLOps·LLMOps 통합 플랫폼이다. 다양한 컴퓨팅 환경에서 안정성과 확장성을 보장하며, 기업이 원하는 형태의 AI 워크로드를 빠르게 구축하고 운영하도록 지원한다. 가젤 RAG는 건설, 금융, 공공 등 산업별 요구에 맞춘 에이전틱 RAG 프레임워크다. 프라이빗 환
맞춤형 에이전트 구축, 멀티 에이전트 오케스트레이션 등 하이브리드 기술 생태계 공유 IBM이 연례 기술 컨퍼런스 ‘THINK 2025’를 통해 기업용 AI 도입의 새로운 기준을 제시했다. 이번 발표의 핵심은 AI가 단순한 챗봇을 넘어 실제 업무를 수행하는 ‘에이전트’로 진화하며, 이를 실무에 적용할 수 있도록 지원하는 통합 플랫폼 ‘왓슨x 오케스트레이트’의 강화다. IBM은 기업이 보유한 데이터, 다양한 IT 환경, 복잡한 애플리케이션을 효과적으로 연결해주는 AI 기반 업무 자동화 도구를 중심으로 IBM은 맞춤형 에이전트 구축, 멀티 에이전트 오케스트레이션, 가시성 확보 및 거버넌스 관리까지 포괄하는 하이브리드 기술 생태계를 공개했다. 왓슨x 오케스트레이트는 비개발자도 손쉽게 업무용 AI 에이전트를 생성하도록 직관적인 노코드 인터페이스를 제공한다. 동시에 숙련 개발자는 프로코드 환경에서 복잡한 API 연동이나 커스터마이징이 가능하다. IBM은 이 같은 유연성을 통해 기업 내 다양한 부서와 역할의 사용자가 각자의 요구에 맞는 AI 에이전트를 빠르게 생성하고 적용할 수 있다고 설명한다. 왓슨x는 인사, 영업, 구매 등 핵심 비즈니스 분야에 즉시 적용 가능한 사전
자체 개발한 하이브리드 추론 기능으로 처리 효율 극대화해 알리바바 클라우드가 오픈소스 대규모 언어모델(LLM) 신제품군 ‘큐원3(Qwen3)’를 공개하며 생성형 AI 경쟁에서 다시 한 번 존재감을 드러냈다. 이번 시리즈는 모바일부터 자율주행까지 다양한 AI 활용 환경을 겨냥해 설계됐으며, 사고 기반 하이브리드 추론 등 새로운 구조로 성능과 효율성 모두를 잡았다는 평가다. 큐원3는 총 6종의 밀집 모델(0.6B, 1.7B, 4B, 8B, 14B, 32B)과 2종의 전문가 혼합(MoE) 모델(30B 중 3B 활성, 235B 중 22B 활성)로 구성된다. 모든 모델은 깃허브, 허깅페이스, 모델스코프를 통해 누구나 자유롭게 활용 가능하며, 곧 API 형태로도 서비스될 예정이다. 큐원3의 가장 큰 특징은 알리바바가 자체 개발한 하이브리드 추론 기능이다. 복잡한 논리 추론이나 수학, 코딩과 같은 다단계 작업에는 사고 기반 추론 모드를, 빠른 응답이 필요한 일반 대화에는 비사고 기반 추론 모드를 자동 전환해 처리 효율을 극대화한다. 개발자는 API 상에서 최대 3만8000개의 토큰까지 사고 지속 길이를 조절할 수 있어, 성능과 리소스의 균형을 자유롭게 맞출 수 있다. 큐
에이슬립이 분당서울대병원 정신건강의학과 윤인영·이비인후과 김정훈 교수 연구팀과 함께 여럿이 함께 수면하는 환경에서도 각 개인의 숨소리를 분리해 개인별 수면 단계를 정확히 구분하는 인공지능(AI) 모델의 성능을 검증한 연구 결과를 7일 발표했다. 수면다원검사는 수면의 질과 구조를 정밀하게 평가하는 표준검사다. 하지만 여러 센서를 부착해야 하는 불편함, 높은 비용으로 인해 일상적으로 반복 측정하기에는 한계가 있었다. 이를 보완하기 위해 웨어러블 기기와 수면 측정 애플리케이션이 주목받고 있지만 그 정확도는 아직 수면다원검사의 수준에는 미치지 못하는 실정이었다. 또한 기존의 수면 분석 기술들은 대부분 혼자 수면하는 환경을 기준으로 설계돼있어 실제처럼 두 명 이상 수면하는 경우에는 숨소리, 뒤척임, 코골이 등 타인의 소음으로 인해 개인별 수면 상태를 정확하게 분석하기는 어려웠다. 이에 연구팀은 숨소리만으로 수면 단계(▲깨어있음 ▲렘(REM) 수면 ▲얕은 수면 ▲깊은 수면)를 예측하는 AI 모델을 개발해 공동 수면 상황에서도 개인마다의 수면 단계를 정확하게 분류할 수 있는지 알아보고자 연구를 진행했다. 연구팀은 성인 44쌍(총 88명)이 한 침대에서 동시에 취침하도록
GPU 리소스 자동 스케줄링, 초단위 배포 환경 구성, 고병렬 추론 테스트 등 핵심 기능 공개 예정 케이투스(KAYTUS)가 오는 5월 14일부터 16일까지 서울 코엑스에서 개최되는 ‘AI EXPO KOREA 2025’에 참가해 자사의 AI DevOps 소프트웨어 ‘MotusAI’와 통합형 AI DevOps 인프라 솔루션을 선보인다. 케이투스는 이번 전시를 통해 복잡한 AI 인프라 운영 환경에서 효율적인 리소스 관리와 빠른 모델 배포를 가능케 하는 턴키 기반의 엔드투엔드 솔루션을 집중 조명할 예정이다. 생성형 AI 기술이 학습 단계를 넘어 실시간 추론과 대규모 배포로 확산되는 가운데, 기업들은 GPU 활용률 저조, 데이터 병목 현상, 느린 배포 속도 등 AI 운영상의 다양한 장애물에 직면하고 있다. 케이투스는 이러한 과제를 해결하기 위해 AI DevOps 플랫폼 ‘MotusAI’를 중심으로 한 통합 클러스터 시스템을 통해 모델 개발부터 배포, 운영까지 전 과정을 안정적이고 간결하게 연결하는 인프라 해법을 제시한다. 전시 부스에서는 MotusAI 기반 클러스터를 활용해 한 명의 운영자가 딥러닝 모델과 추론 서비스를 5분 이내에 배포하는 실시간 데모가 진행된다.
조용진 파네시아 부사장, 행사에서 CXL 3.x 기반의 인프라 구축 사례와 응용 방향 제시 파네시아가 ‘CXL DevCon 2025’에서 고출력 CXL 3.x 스위치 기반 프레임워크를 선보이며 글로벌 기술 무대에서 존재감을 드러냈다. 파네시아는 올해 국내 기업 중 유일하게 해당 행사에 전시 기업으로 참여했다. 미국 캘리포니아 산타클라라에서 4월 29일부터 이틀간 열린 이번 행사는 CXL(Compute Express Link) 표준을 주도하는 CXL 컨소시엄이 주관하는 글로벌 컨퍼런스로, 케이던스, 텔레다인 르크로이 등 주요 회원사가 대거 참여해 차세대 고속 인터커넥트 기술을 선보였다. 파네시아가 이번에 선보인 고출력 CXL 3.x 스위치는 CPU, GPU, 메모리 등 다양한 장치를 하나의 시스템으로 통합해주는 브릿지 역할을 수행한다. 고유의 저지연 IP 기술을 기반으로 설계된 해당 스위치는 멀티 레벨 스위칭, 포트 기반 라우팅을 모두 지원하며, 장치 연결 수를 극대화함으로써 평균 홉 수를 줄이고 시스템 지연시간을 최소화하는 것이 특징이다. 이러한 기술은 특히 고성능 컴퓨팅(HPC)과 대규모 AI 응용 환경에서 효율적인 자원 활용과 저비용 고성능 인프라 구현을