HPE는 연례 플래그십 컨퍼런스 ‘HPE 디스커버 모어 AI 서울 2026’을 개최하고, 엔터프라이즈 AI와 하이브리드 클라우드, 네트워킹 혁신 전략을 공개했다. 이번 행사에는 국내 고객사와 파트너사, HPE 임직원, 업계 전문가 등 1100여 명이 참석해 안전한 연결성, AI 기반 인프라, 차세대 클라우드 전환 전략을 공유했다. 행사는 ‘비전을 펼쳐라(Unlock Ambition)’를 주제로 진행됐다. 집중 세션과 실시간 기술 시연, 전문가 주도의 워크숍을 통해 HPE의 차세대 AI 및 하이브리드 클라우드 역량이 소개됐다. 참가자들은 AI 네이티브 인프라를 중심으로 한 실제 적용 사례와 기술 방향을 살펴봤다. 김영채 한국 HPE 대표이사는 환영사를 통해 AI 시대 리더십을 위한 HPE의 전략을 제시했다. 그는 데이터에서 더 큰 가치를 창출하는 AI, 워크로드 유연성을 높이는 하이브리드 클라우드, 안전하고 효율적인 데이터 이동을 가능하게 하는 네트워킹의 중요성을 강조했다. 또한 AI 인프라와 대규모 AI 팩토리, 소버린 AI 환경에 이르기까지 HPE의 통합 컴퓨팅, 클라우드, 스토리지, 네트워킹 역량을 통해 기업의 IT 혁신을 지원하는 방안을 설명했다. 김
한국딥러닝은 산업은행이 마지막 투자자로 참여하며 시리즈A 투자를 총 120억 원 규모로 최종 완료했다고 8일 밝혔다. 이번 투자 라운드는 트랜스링크인베스트먼트가 리드하고 SV인베스트먼트가 주요 공동 투자자로 참여했다. 여기에 IBK기업은행에 이어 산업은행이 50억 원을 투자하며 라운드가 마무리됐다. 산업은행의 투자 금액은 전체 투자금의 40% 이상을 차지한다. 한국딥러닝은 설립 이후 경기지원센터를 통해 팁스 사업 투자금 1억 원을 제외하고는 외부 투자를 받지 않고 자체 매출 중심으로 성장해 왔다. 이번 시리즈A는 한국딥러닝이 설립 이후 처음으로 진행한 대규모 자금 조달로, 단일 라운드에서 120억 원을 유치했다는 점에서 의미가 있다. 산업은행은 한국딥러닝의 실질적인 상용화와 사업화 역량을 높이 평가해 투자를 결정했다. 한국딥러닝은 공공기관과 금융, 의료 분야를 중심으로 80개 이상의 고객사를 확보했고, 누적 매출 100억 원을 기록했다. 문서의 시각 구조와 언어 의미를 함께 이해하는 문서 이해 AI 모델을 기반으로 차별성을 인정받았다. 별도의 데이터 수집이나 추가 학습 없이 2주 이내 도입이 가능한 제품화 전략 역시 기업 고객 대상 확장 가능성을 입증한 요소
PTC는 미국 라스베이거스에서 열린 세계 최대 IT·기술 전시회 CES 2026에서 람보르기니와 협업해 ‘인텔리전트 제품 수명주기(Intelligent Product Lifecycle)’ 비전과 AI 기반 혁신 구현 사례를 공개했다고 밝혔다. 이번 시연은 설계, 엔지니어링, 운영 전반을 연결하는 중앙화된 제품 데이터 기반을 구축해 제품 개발 효율성과 완성도를 높이는 데 초점을 맞췄다. PTC는 이를 통해 복잡해지는 제조 환경에서 데이터 중심의 의사결정을 강화한다는 전략이다. PTC는 고성능 럭셔리 스포츠카 브랜드 람보르기니와 협력해 기술적·비즈니스적 도전 과제에 대비해 왔다. 람보르기니는 PTC의 Windchill 제품 수명주기 관리 솔루션과 Codebeamer 애플리케이션 수명주기 관리 솔루션을 도입해 제품 데이터의 엔드투엔드 추적성을 확보했다. 이를 통해 엔지니어링 변경 관리 프로세스를 간소화하고, 전사 차원의 협업을 강화하고 있다. 설계부터 운영까지 이어지는 데이터 흐름을 통합함으로써 개발 전반의 일관성과 속도를 높였다. 람보르기니는 복잡한 엔진 설계를 위해 PTC의 Creo 컴퓨터 지원 설계 솔루션도 활용하고 있다. CAD, PLM, ALM을 핵심 엔
NXP 반도체는 미국 라스베이거스에서 열린 세계 최대 IT·가전 전시회 CES 2026에서 ‘eIQ 에이전틱 AI 프레임워크(eIQ Agentic AI Framework)’를 발표했다. 이를 통해 NXP는 안전한 실시간 엣지 AI 분야에서의 리더십을 강화한다는 계획이다. eIQ 에이전틱 AI 프레임워크는 엣지 디바이스 상에서 자율적인 에이전틱 인텔리전스를 직접 구현할 수 있도록 설계됐다. 숙련된 개발자는 물론 초보 개발자도 에이전틱 AI의 개발, 조율, 배포 과정을 보다 단순하고 신속하게 수행할 수 있도록 지원한다. NXP의 보안형 엣지 AI 하드웨어와 결합될 경우, 엣지 환경에 최적화된 안전한 자율 AI 시스템을 빠르게 프로토타이핑하고 배포할 수 있는 기반을 제공한다. 에이전틱 AI가 차세대 자동화의 핵심 요소로 부상하는 가운데, eIQ 에이전틱 AI 프레임워크는 엣지 환경에서 에이전틱 AI 개발을 구현하는 최초의 솔루션 중 하나로 평가된다. 저지연 성능과 내장형 보안, 복원력을 통해 다양한 산업 분야에서의 혁신을 가속화할 수 있다는 설명이다. 해당 프레임워크는 결정론적 실시간 의사결정과 멀티모델 조정을 통해 개발 병목을 해소하도록 설계됐다. 이를 기반으로
슈퍼마이크로컴퓨터는 엔비디아와의 협력을 통해 차세대 엔비디아 베라 루빈 및 루빈 플랫폼을 위한 수냉식 AI 인프라 솔루션을 신속하게 제공할 수 있도록 제조 역량과 냉각 기술을 확대한다고 밝혔다. 슈퍼마이크로는 이번 협력을 바탕으로 엔비디아 베라 루빈 NVL72와 엔비디아 HGX 루빈 NVL8 솔루션을 가장 빠르게 공급할 수 있는 역량을 확보했다. 이를 통해 차세대 AI 워크로드를 위한 고성능 인프라 구축을 가속화한다는 계획이다. 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션은 빌딩 블록 기반의 모듈형 설계 접근 방식을 적용해 생산 과정을 간소화하고, 다양한 구성 옵션과 신속한 구축을 지원한다. 이를 통해 고객은 차세대 AI 인프라 도입 시간을 단축하고, 대규모 확장 환경에서도 효율적인 시스템 구성이 가능하다. 확장된 제조 역량과 함께 업계를 선도하는 수냉식 냉각 기술을 적용함으로써, 고집적 GPU 시스템에서 발생하는 발열을 효과적으로 제어하고 전력 효율을 높일 수 있도록 설계됐다. 이러한 수냉식 인프라는 하이퍼스케일러와 엔터프라이즈 고객이 대규모 AI 데이터센터를 안정적으로 운영하는 데 핵심적인 역할을 한다. 슈퍼마이크로는 엔비디아와의 협력을 통해 차세대 베라
마키나락스는 윤성호 대표가 대한민국 공학기술 분야 최고 권위 단체인 한국공학한림원의 2026년 신입 일반회원으로 선정됐다고 밝혔다. 1995년 설립된 한국공학한림원은 대학, 기업, 연구기관 등에서 탁월한 성과를 거둔 공학기술 분야 전문가들로 구성된 단체다. 2026년 신입 회원으로는 노태문 삼성전자 사장, 최수연 네이버 대표 등 49명이 정회원에 선임됐다. 윤성호 대표는 일반회원 84명 중 한 명으로 이름을 올렸다. 일반회원은 15년 이상의 경력을 보유하고 선구적인 기술·사업 성과를 거둔 인물을 대상으로 추천을 받아 약 10개월간의 엄격한 심사를 거쳐 확정된다. 윤성호 대표는 MIT에서 물리학 박사를 취득한 뒤 삼성전자와 SK텔레콤을 거쳐 2017년 마키나락스를 창업했다. 이후 반도체, 배터리, 중공업, 자동차, 에너지 등 다양한 산업 현장에서 AI의 실제 적용과 운영을 이끌며, 자체 개발한 AI 플랫폼을 기반으로 버티컬 AI 생태계 확장에 기여한 공로를 인정받았다. 현재 윤성호 대표는 대통령 직속 AI 전략위원회 민간위원으로도 활동하며 국가 AI 전략 수립에도 참여하고 있다. 윤성호 대표는 “공학인에게 최고의 영예인 한국공학한림원의 일원이 된 것은 매우 영
무하유는 2025년 AI 면접 솔루션 ‘몬스터’ 도입 고객사 수가 전년 대비 57.8% 증가했다고 8일 밝혔다. 무하유는 2025년 한 해 AI 채용 데이터를 분석한 ‘2026 AI 채용 트렌드 리포트’를 통해 AI 채용 솔루션인 프리즘과 몬스터의 도입 현황과 주요 트렌드를 공개했다. 프리즘과 몬스터는 기업 입장에서 채용 업무의 부담을 줄이고 검증의 일관성을 높이는 도구로 활용되고 있다. 채용 담당자가 판단에 활용할 수 있는 설명 가능한 근거를 제공해 현장에서의 실용성을 높이고 있다. 몬스터는 AI 인터뷰와 역량검사를 통해 지원자의 직무 적합도와 조직 적합도를 종합 분석하는 솔루션이다. 면접 태도와 의사소통 능력은 물론, 지원자의 답변 내용을 심층 분석해 최적의 인재를 검증한다. 일정 조율이 잦은 수시 채용 환경에서 활발히 활용되며, 채용 업무 리소스를 효율화하고 지원자의 역량을 보다 깊이 검증할 수 있다. 데이터에 따르면 몬스터의 AI 인터뷰를 도입한 고객사는 2024년 대비 57.8% 증가했으며, AI 인터뷰 응시자 수는 55.2% 증가한 것으로 나타났다. 몬스터 기능 중 하나인 역량검사 역시 도입 기업 수가 30.7% 늘었고, 응시자 수도 43.4% 증
로민이 행정안전부와 과학기술정보통신부가 추진하고 삼성SDS 컨소시엄이 수행한 ‘범정부 초거대 AI 공통기반 구현 사업’에 문서 데이터 처리 솔루션 ‘텍스트스코프 Doc 파서(Textscope® Doc Parser 이하 Doc 파서)’를 공급하고 구축을 완료했다. 해당 사업은 중앙·지방정부가 내부 행정망에서도 다양한 생성형 AI 서비스를 보안 우려 없이 공동 활용할 수 있도록 하는 정부 최초의 내부망 AI 공통기반 서비스다. 정부 업무 전반에 AI를 내재화해 정책 기획과 대국민 서비스 품질을 높이는 것을 목표로 추진됐다. 로민은 삼성SDS 컨소시엄의 기술 파트너로 참여해 ‘범정부 AI 공통기반’과 연계 서비스가 활용할 공공 행정 문서를 거대언어모델이 학습·이해할 수 있는 형태로 구조화·정제하는 전처리 영역에 Doc 파서를 적용했다. 공공 문서 데이터를 생성형 AI 활용에 적합한 형태로 가공하는 역할을 맡았다. 로민이 공급한 Doc 파서는 공문서와 보고서, 각종 양식 등 다양한 행정 문서에서 텍스트와 표, 그림 등 핵심 요소를 추출하고 문서의 레이아웃과 읽기 순서를 함께 인식하는 문서 레이아웃 분석 솔루션이다. 원문의 구조와 맥락을 보존한 상태로 데이터를 구조화
비큐AI가 과학기술정보통신부와 한국데이터산업진흥원이 주관하는 ‘2026년 데이터바우처 지원사업’ 공급기업으로 선정됐다. 비큐AI는 이번 선정을 계기로 AI와 빅데이터 서비스에 활용 가능한 고품질 데이터 공급을 한층 강화한다는 계획이다. 데이터바우처 지원사업은 데이터 및 AI 산업 활성화를 목적으로 기업의 데이터 구매와 가공, 분석 등 데이터 활용 전 단계를 지원하는 정부 정책 사업이다. 이를 통해 소상공인과 중소기업, 예비창업자 등 다양한 수요기업이 데이터 기반 서비스와 제품 개발, 인공지능 기술 활용에 필요한 기반을 확보할 수 있도록 돕는다. 비큐AI는 이번 공급기업 선정에 따라 미디어 데이터와 기업정보 등 AI 학습과 빅데이터 분석, 인공지능 기술 고도화에 필요한 고품질 데이터를 수요기업에 제공할 예정이다. 데이터 기반 서비스와 제품 개발을 추진하는 기업을 대상으로 실질적인 데이터 활용 환경을 지원하는 데 초점을 맞춘다. 비큐AI는 데이터 통합 공급 플랫폼 ‘RDPLINE’을 통해 도메인별 AI와 서비스에 최적화된 데이터를 공급하고 있다. 최근에는 국내 파운데이션 모델 고도화와 실시간 서비스용 데이터 공급을 중심으로 사업 영역을 확장하며 AI·빅데이터 시
HNIX(이하 에이치엔아이엑스)가 인공지능 플랫폼 기업 네이버클라우드의 공식 파트너사로 등록하고 AX와 클라우드 사업을 중심으로 전략적 협력을 본격 추진한다. 양사는 AI와 클라우드를 결합한 AX 중심의 장기 협업 모델을 구축하고 산업 현장에서 즉시 체감 가능한 성과 창출을 목표로 협력 범위를 확대한다는 방침이다. 이번 파트너십을 통해 에이치엔아이엑스는 기존 고객사를 대상으로 AI 기반 맞춤형 자동화와 예측 분석 솔루션을 우선 제공하고 이를 시스템과 패키지 형태로 정비해 범현대가 기업을 포함한 국내 기업 전반으로 확대 적용할 계획이다. 네이버클라우드는 안정성과 확장성을 갖춘 클라우드 인프라와 AI 플랫폼을 제공하고, 에이치엔아이엑스는 산업별 업무 이해도를 바탕으로 AX 기획, AI 솔루션 적용, 레거시 시스템 연계, 현장 밀착형 구축과 운영을 담당한다. 양사는 산업 특성에 따라 AX 적용 전략을 구분한다. 조선·자동차·기계 등 조립·생산 산업에서는 데이터 기반 AI 설계 자동화와 품질 지능화, 생산 의사결정 고도화를 핵심 축으로 공동 사업을 전개한다. 철강·화학·정유 등 공정·연속 산업에서는 AI 예지보전과 품질 예측, 에너지와 설비 운영 최적화를 중심으로
카카오가 지식 기반의 일반 대화와 추론 모드를 모두 지원하는 하이브리드 멀티모달 언어모델을 통해 자체 AI 기술의 우수성을 지속 입증했다. 카카오(대표이사 정신아)는 지난 5일 가벼운 일상 대화부터 논리적 사고가 필요한 복잡한 문제 해결까지 하나의 모델로 처리할 수 있는 자체 개발 신규 AI 모델 'Kanana-v-4b-hybrid'의 성능을 공개했다고 밝혔다. 새로운 모델은 지난해 7월 허깅페이스를 통해 오픈소스로 공개한 'Kanana-1.5-v-3b'를 토대로 개발됐다. 단순히 이미지를 텍스트로 변환하거나 이를 설명하는 수준을 넘어 사람처럼 정보를 종합하고 계산하며 스스로 검산하는 자기 점검 과정을 거치는 것이 특징이다. 이를 통해 인공 지능 모델이 가진 환각 현상을 최소화할 수 있으며, 이 밖에도 복잡한 형태의 표나 영수증, 수학 문제 등 까다롭고 복합적인 문제나 상황에서 발생하기 쉬운 계산 실수나 조건 누락을 획기적으로 줄이고 정확도를 한층 높였다. Kanana-v-4b-hybrid 모델의 높은 성능을 위해 카카오는 단계별로 정교하게 설계된 학습 과정을 적용했다. ▲기초 학습 ▲장문 사고 사슬(Long CoT) ▲오프라인 강화학습 ▲온라인 강화학습으로
푸드테크 기업 컨트롤엠이 생성형 AI를 활용해 기획부터 레시피, 마케팅 콘텐츠 제작까지 전 과정을 자동화한 신메뉴를 선보이며 외식업 AX 전환에 속도를 내고 있다. 컨트롤엠은 자체 운영 중인 K-버거 브랜드 슬램버거 강남점과 대학로점에서 ‘트러플버거 시리즈’ 3종을 출시했다고 밝혔다. 이번 트러플버거 시리즈의 가장 큰 특징은 신메뉴 개발 전 과정에 AI가 직접 관여했다는 점이다. 컨트롤엠은 생성형 AI를 통해 글로벌 버거 트렌드를 분석하고, ‘매운맛과 치즈의 결합’이라는 핵심 키워드를 도출했다. 이후 기존 슬램버거 식자재에 1~2가지 신규 재료를 조합하는 방식으로 레시피를 완성해 메뉴 기획의 효율성을 극대화했다. AI 활용 효과는 성과로 이어졌다. 트러플버거 시리즈는 출시 한 달 만에 전체 매출의 20%를 차지하며 슬램버거의 대표 메뉴로 자리 잡았다. 특히 메뉴 기획부터 테스트, 레시피 확정, 광고용 이미지 제작과 인쇄, 매장 적용까지 소요된 기간은 단 7일로, 기존 최소 3개월 이상 걸리던 신메뉴 개발 주기를 획기적으로 단축했다. 비용 구조도 크게 달라졌다. 통상 메뉴 1종 개발에 최소 1천만 원에서 최대 2천만 원 가까이 소요되던 기획·마케팅 비용은 AI
레노버는 미국 라스베이거스에서 열린 CES 2026에서 자체 연례 행사인 테크월드를 개최하고 하이브리드 AI 미래를 선도할 혁신 기술을 공개했다고 7일 밝혔다. 이번 행사에서 레노버는 새로운 개인화 AI 슈퍼 에이전트와 AI PC, 스마트폰, 에이전트 네이티브 웨어러블을 포함한 개념증명 제품, 차세대 엔터프라이즈 AI 인프라, 엔터테인먼트 및 스포츠 분야의 산업 협업 사례를 선보였다. 레노버는 디바이스, 인프라, 솔루션, 서비스 전반에 걸쳐 축적해 온 AI 혁신을 기반으로 AI가 개인화되고 인지하며 선제적으로 작동하고 모든 곳에 존재하는 단계에 접어들었음을 제시했다. 새롭게 공개된 솔루션은 개인과 조직에 맞춰 최적화되고 디지털 트윈처럼 작동해 생태계 전반의 활동을 조율함으로써 생산성, 연결성, 창의성을 향상시키는 데 초점을 맞췄다. 스피어 무대에서 진행된 몰입형 경험을 통해 업계 리더와 주요 인사들은 하이브리드 AI가 개인, 기업, 공공 모델을 안전하게 통합해 축구 경기장부터 공장 현장까지 다양한 영역에서 변화를 이끌고 있는 사례를 공유했다. 이를 통해 레노버는 ‘모두를 위한 더 스마트한 AI’ 비전을 다시 한번 강조했다. 테크월드 행사에서 레노버와 모토로라
스노우플레이크가 구글 클라우드와 공동 시장 진출 전략을 본격화하고, 양사 엔터프라이즈 고객의 AI 혁신 지원에 나선다. 이번 협력을 통해 스노우플레이크는 스노우플레이크 코텍스 AI에서 구글 클라우드의 대규모언어모델 제미나이 3를 기본으로 사용할 수 있도록 지원한다. 고객은 플랫폼 간 데이터 이동이나 복제 없이 스노우플레이크의 거버넌스가 적용된 데이터 환경에서 제미나이의 지능형 데이터 에이전트를 포함한 생성형 AI 애플리케이션을 개발하고 배포, 확장할 수 있다. 양사는 협력 확대를 통해 공동 고객 참여와 공동판매, 구글 클라우드 마켓플레이스 거래를 지원하는 등 공동 시장 진출 전략을 강화하고 글로벌 시장 확장에도 속도를 낸다. 최근 사우디아라비아에서 구글 클라우드 기반 스노우플레이크를 출시한 데 이어, 2026년에는 호주 멜버른에서도 해당 서비스를 선보일 계획이다. 이와 함께 구글 클라우드 액시온 기반 C4A 가상머신에서 스노우플레이크 2세대 표준 웨어하우스를 프로덕션 환경으로 제공하는 주요 인프라 업그레이드를 통해 가격 대비 성능 경쟁력도 강화했다. 현재 금융 서비스, 헬스케어, 제조, 리테일 및 공급망, 기술, 데이터 분석 등 다양한 산업 분야의 기업들이
Ceva는 7일 보스반도체가 개발한 독립형 첨단 운전자 보조 시스템(ADAS)용 시스템온칩(SoC) ‘Eagle-A’에 Ceva의 센스프로 AI DSP(SensPro AI DSP) 아키텍처가 채택됐다고 밝혔다. 자동차 산업이 소프트웨어 중심 아키텍처로 빠르게 전환되고 ADAS 기술이 고도화되면서, 실시간 센서 데이터 처리와 안전 필수형 인공지능, 주변 환경 인식 정보를 기반으로 한 주행 제어를 긴밀하게 연계하는 피지컬 AI 기술의 중요성이 커지고 있다. 보스반도체는 이러한 기술 요구에 대응해 차세대 자율주행 시스템 성능을 강화하기 위해 Ceva의 솔루션을 도입했다. Eagle-A는 ADAS 및 자율주행 시스템을 위해 설계된 SoC로, 고성능 NPU·CPU·GPU와 함께 카메라, 라이다(LiDAR), 레이다(Radar) 기반 센서 융합을 위한 전용 인터페이스를 탑재했다. Ceva의 센스프로 AI DSP는 라이다와 레이다 전처리에 최적화돼 원시 센서 데이터를 효율적으로 처리하며, 인지 파이프라인의 지연을 최소화한다. 또한 보스반도체는 칩렛(chiplet) 아키텍처를 적용해 Eagle-A가 UCIe 및 PCIe 기반 멀티 다이 환경에서 AI 가속기 ‘Eagle-N