슈퍼브에이아이·AWS, 생성형 AI(Generative AI) 및 지능형 솔루션 고도화 착수해 시각·언어·행동(VLA) 모델 기술 기반 이미지 합성 방법론 혁신도 겨냥 “데이터 수집 시간 90% 및 모델 개발 기간 평균 2개월 단축 실현” 슈퍼브에이아이가 글로벌 인공지능(AI) 클라우드 업체 아마존웹서비스(AWS)와 생성형 AI(Generative AI) 관련 파트너십을 맺었다. 양사는 AWS AI 서비스를 기반으로 구축된 생성형 AI 데이터 인프라와 지능형 영상 분석 솔루션을 글로벌 엔터프라이즈 고객에게 제공할 계획이다. 이때 활용되는 AWS 기술은 생성형 AI 통합 플랫폼 ‘아마존베드락(Amazon Bedrock)’, MLOps 솔루션 ‘아마존세이지메이커(Amazon SageMaker)’ 등이 될 전망이다. 슈퍼브에이아이는 이번 협업을 통해 자사 핵심 기술인 ‘시각·언어·행동(VLA) 모델’ 구현 및 데이터 보강 기술을 고도화한다. VLA는 비전 AI가 이미지를 인식하고 자연어 명령을 이해하며 상황에 맞는 행동을 취하는 멀티모달(Multimodal) 프레임워크다. 실시간 지능형 영상 관제의 핵심 요소로 인식된다. 비즈니스 확장도 가속화된다. 슈퍼브에이아이
피지컬 AI 기업 리얼월드(RLWRLD, 대표 류중희)가 26일 서울에서 열린 'Microsoft AI Tour Seoul 2026'에서 CAIP(Cloud AI Platforms) 부스를 통해 산업 현장형 피지컬 AI 데모를 선보였다. 마이크로소프트가 기획한 AI 전환 무대에서 피지컬 AI의 실제 산업 적용 사례를 대표하는 기업으로 참여했다는 점에서 주목을 받고 있다. 이번 데모의 주제는 'Dexterity is intelligence'로, 단순한 집기 동작이 아닌 움직이는 물체를 시각적으로 인식하고 손가락과 그리퍼를 미세하게 제어해 안정적으로 파지한 뒤 사람에게 안전하게 전달하는 일련의 조작 흐름을 구현하는 것이 핵심이다. RLWRLD의 핵심 모델 RLDX는 제조·물류 등 실제 작업 환경에서 수집한 4D+ 멀티모달 데이터 파이프라인을 기반으로, 시각·언어·행동을 통합하는 VLA 계열 접근 방식과 특정 하드웨어에 종속되지 않는 크로스-임바디먼트 구조를 채택해 20자유도 손가락의 미세 제어를 지향한다. 그동안 제조·물류·서비스 현장에서 정교한 손기술이 요구되는 작업은 자동화의 마지막 난제로 꼽혀왔다. RLWRLD는 이번 시연을 통해 이 영역이 피지컬 AI의
H200 그래픽처리장치(GPU) 서버 등 고성능 연산 인프라 확충 나서 “피지컬 AI 개발 기반 구축” 휴머노이드 로봇, 산업용 로봇, 자율주행로봇(AMR) 등 다종·이기종 로봇 자원을 하나로 빅웨이브로보틱스가 고성능 그래픽처리장치(GPU) 인프라를 전격 확충하고, 이를 기반으로 피지컬 AI(Physical AI) 현장 솔루션 개발·사업화에 나선다. 사측은 이번 투자를 통해 다종·이기종 로봇을 단일 통합 운영체계에 ‘통합 관리(Orchestration)’하는 방향을 구상했다. 이를 통해 휴머노이드 로봇(Humanoid Robot), 산업용 로봇, 자율주행로봇(AMR) 등 다양한 로봇 폼팩터(Form-factor)를 실제 산업 현장에서 활용하는 인프라를 구축한다. 또한 이 같은 인프라 확보로, 인공지능(AI) 추론과 대규모 학습 속도를 높일 방침이다. 개별 로봇 성능보다 서로 다른 시스템을 하나의 흐름으로 조율하는 역량이 피지컬 AI 시대의 핵심 경쟁력이라는 판단에서다. 이 과정에서 최근 H200 GPU 서버 두 대 등 총 16개 GPU 규모의 고성능 연산 인프라를 확보한 것으로 알려졌다. 사측 관계자에 따르면, 산업 현장에서는 휴머노이드 단독 도입보다 기존
모티프테크놀로지스(Motif Technologies) 컨소시엄 합류 심레디(Sim-Ready) 3D 데이터, 비전·언어·행동(Vision·Language·Action) 모델 등 피지컬 AI 학습 토대 마련한다 “정밀 3차원(3D) 컴퓨터지원설게(CAD) 생성부터 시뮬레이션 데이터 변환 기술로 인공지능 전환(AX) 견인” 엔닷라이트가 모티프테크놀로지스(Motif Technologies) 컨소시엄에 합류해, 국내 독자 인공지능(AI) 파운데이션 모델 구축을 위한 국가 프로젝트에 본격 착수한다. 모티프테크놀로지스 컨소시엄은 국가 AI 경쟁력 강화를 목표로, 300B 파라미터급 추론형 거대언어모델(LLM) 구축하는 연합체다. 이어 시각·언어(Vision·Language) 모델, 비전·언어·행동(Vision·Language·Action 이하 VLA) 모델 등까지 단계적으로 모델을 고도화하는 ‘대한민국 AI 파운데이션 모델 구축 프로젝트’를 진행한다. 해당 컨소시엄은 모델 가중치, 코드, 연산 최적화 라이브러리 등을 상업용 오픈소스로 공개해, 국내 AI 산업 생태계 전반의 기술 자립과 성장을 견인한다는 방침이다. 엔닷라이트는 이번 프로젝트에서 AI가 물리 세계를 이해하
엔비디아, 구글 딥마인드, 디즈니 리서치 공동 개발 물리 시뮬레이션 엔진 공개 엔비디아 ‘아이작 GR00T N1.6’ 추론 모델, ‘코스모스 WFM’ 업데이트 전개 로봇 추론 능력 및 피지컬 AI(Physical AI) 모델 훈련 가속화 기대...어질리티·보스턴다이내믹스 선제 도입 엔비디아가 구글 딥마인드, 디즈니 리서치와 함께 오픈소스 기반 ‘뉴턴 물리 엔진(Newton Physics Engine)’을 자사 오픈소스 애플리케이션 프레임워크 ‘아이작 랩(NVIDIA Isaac Lab)’에 공개했다. 이로써 로보틱스 시뮬레이션의 새로운 표준을 제시했다고 평가받았다. 이번 기술은 지난달 27일부터 나흘간 서울 삼성동 전시장 코엑스에서 개막한 ‘제9회 로봇학습국제학술대회(Conference on Robot Learning 2025, CoRL 2025)’ 현장에서 강조됐다. 엔비디아가 기술 발표 무대로 삼은 CoRL 2025는 로보틱스와 머신러닝(Machine Learning)의 교차점에서 이뤄지는 연구 발전을 공유·탐구하는 글로벌 연례 국제 로봇 콘퍼런스다. 이 학술대회는 인공지능(AI)과 머신러닝을 활용한 로봇 공학 연구의 최신 동향을 공유한다. 로봇 조작, 내
[헬로즈업 세줄 요약] · 오준호 삼성전자 미래로봇추진단장, CoRL 2025 기조연설서 “휴머노이드 황금기” 선언 · 신뢰성·내구성·가용성, 산업 상용화 3대 버틀넥 우려...표준화·데이터 학습 병행 강조해 · 초기 B2B 도메인 검증 후 가정·서비스 분야로 확산 전망 韓 휴머노이드 20년...‘휴머노이드 황금기’ 선언했다 이달 30일 서울 삼성동 전시장 코엑스에서 열린 ‘제9회 로봇학습국제학술대회(Conference on Robot Learning 2025, CoRL 2025)’ 무대에서 오준호 삼성전자 미래로봇추진단장이 기조연설 연사자로 나섰다. 그는 한국 휴머노이드 연구의 궤적을 되짚으며 ‘휴머노이드의 황금기’가 열리고 있다고 진단했다. 핵심은 ‘데이터 기반 진화’와 ‘산업별 분화’...이것이 피지컬 AI의 시대상일까 오 단장은 먼저 로봇 기술의 패러다임 전환을 짚었다. 전통적인 모델 기반 제어는 정밀성과 안정성에서 강점을 갖지만 외란에 취약했다고 평가했다. 그러면서 강화학습(Reinforcement Learning)과 비전·언어·행동(Vision-Language-Action, VLA) 모델 등 인공지능(AI) 기반 접근은 비정형 환경 대응과 고기동성
차세대 지능 플랫폼 ‘브레인엑스(BrainX)’ 기반 피지컬 AI(Physical AI) 애플리케이션 선봬 음성 주문형 인공지능(AI) 로봇 카페 ‘바리스브루X’, K-팝 댄스 재현 휴머노이드 시연 언어·행동 연계 기술 ‘에이전틱 AI(Agentic AI)’으로 서비스·엔터테인먼트 등 분야 확장 방안 제시 엑스와이지가 개막을 앞둔 ‘2025 서울 AI 로봇쇼’ 현장에서 자사 차세대 로봇 지능 플랫폼 ‘브레인엑스(BrainX)’를 필두로 한 혁신법을 공개한다. 서울 AI 로봇쇼는 국내외 로봇 및 인공지능(AI) 분야의 최신 기술과 트렌드를 선보이는 전시회다. 이달 30일부터 내달 2일까지 서울 강남구 전시장 코엑스에서 열린다. 당사는 이 무대를 통해 로봇이 실제 환경에서 자율적이고 지능적인 행동을 수행하는 피지컬 AI(Physical AI) 시나리오를 참관객에게 전달한다. 사측은 로봇이 인간의 언어를 이해하고, 상황을 인지하며, 적절한 행동(Action)을 스스로 결정하는 기술을 선보일 예정이라고 발표했다. 이는 VLA(Vision-Language-Action) 기반 에이전틱 AI(Agentic AI)의 미래 비전을 선보이는 과정이 될 것으로 보인다. 엑스와이
‘2025 대한민국 안전산업박람회(K-SAFETY EXPO 2025)’서 비전언어모델(VLM) 기반 영상 관제 솔루션 ‘NVA’ 공개 “현장 내 복합 상황 실시간 감지해” 노타가 ‘2025 대한민국 안전산업박람회(K-SAFETY EXPO 2025)’에 참가했다. 이 자리에서 차세대 인공지능(AI) 영상 관제 솔루션 ‘NVA(Nota Vision Agent)’를 내놨다. NVA는 이번 박람회를 통해 국내 최초로 공개되는 비전언어모델(VLM) 기반 차세대 영상 관제 솔루션이다. 이는 특정 객체를 인식하는 단순한 기능을 수행했던 기존 영상 관제 기술을 고도화한 기술이다. 객체 간 관계, 작업 절차 위반, 복합 위험 징후 등을 실시간으로 감지·대응하는 것이 핵심이다. 노타는 박람회 현장 참관객이 NVA의 가치를 직접 확인하고 부담 없이 도입을 검토하도록 부스 내 다양한 프로모션을 진행했다. 노타 채명수 대표는 “이번 박람회 참가가 NVA의 차별화된 성능을 더 많은 잠재 고객에게 선보이는 기회가 됐으면 한다”며 “앞으로 실제 산업 현장에서 성능·안정성을 모두 입증할 계획”이라고 전했다. 한편, 노타는 지난 8월 코오롱베니트와 협력해 코오롱인더스트리 김천2공장에서 VL
인간·로봇 상호작용(HRI) 특화 지능 기술로 휴머노이드 폼팩터 확장 노려 상용 로봇 운영 데이터 기반 ‘감정 공감형 휴머노이드’ 상용화 박차 엑스와이지가 ‘K-휴머노이드 연합’ 기술 공급 기업으로 최종 선정됐다. 연합은 국내 로봇 산·학·연·정 공식 협력 플랫폼으로, 지난 4월 공식 출범했다. 이들은 로봇 인공지능(AI) 모델, 로봇 하드웨어, 반도체, 배터리 등 휴머노이드 로봇 개발에 필요한 핵심 기술을 공동 개발하고, 산업 생태계를 조성하는 것을 목표로 한다. 이를 통해 오는 2030년 휴머노이드 최강국 실현을 꿈꾸고 있다. 엑스와이지는 그동안 물류·식음료(F&B) 현장에서 상용 로봇 운영 경험과 로봇 지능 기술을 지속 축적했다. 이를 바탕으로 인간·로봇 상호작용(HRI)에 특화된 파운데이션 모델을 개발 중이다. 이 모델은 실제 사용자와 로봇의 상호작용 데이터를 학습하며, 이동형 매니퓰레이터에서부터 휴머노이드 폼팩터에 이르기까지 다양한 지능 모델로 확장 가능한 구조를 갖춘 것으로 평가된다. 특히 각종 매장 내 사용자를 인식하고 대화하며, 제품을 전달하거나 요구를 수행하는 시각언어모델(VLA)·청각언어모델(ALA) 기반의 지능형 상호작용 기술이 핵
퀄컴 드래곤윙 QCS8550 탑재 온디바이스 AI 로봇 상황 감지·판단·행동하는 ‘적응형 AI 에이전트’ 적용 모든 AI 기능 로컬 처리로 보안·프라이버시 강화, 와이파이 무선 확장기 기능 구현한다 인티그리트가 온디바이스 AI(On-device) 기반 인지·추론 기능을 탑재한 가정용 로봇 ‘스노캣(SnoCat)’을 출시했다. 스노캣은 인공지능(AI) 대화 모델을 통해 질문에 응답하거나 스마트 기기를 연결하는 기존 홈 로봇의 기능을 업그레이드한 로봇이다. 공간과 사람, 상황을 감지하고 판단해 행동하는 ‘적응형 AI 에이전트(Adaptive AI Agent)’를 탑재했다. 스노캣은 인간의 언어뿐 아니라 인물, 동작, 주변 환경, 소리 등을 종합적으로 인식하며, 거대언어모델(LLM)을 활용해 상황에 맞는 행동 프롬프트를 생성한다. 이를 기반으로 사전 학습된 VLA(Vision/Language/Action) 모델이 가장 적합한 행동과 기능을 실시간으로 선택하고 수행한다. 예를 들어, 유아가 잠든 상황에서는 주변 소음을 감지해 자동으로 음량을 낮추고, 반려동물과의 거리나 위치를 인식해 주행 경로를 조정하는 식이다. 고령자나 유아와 상호작용 시에는 언어 속도와 음성 톤
국내 로봇 전문기업 로보티즈가 'Physical AI' 기술을 접목한 혁신적인 로봇 팔 솔루션을 선보이며 업계의 주목을 받고 있다. 최근 AW2025 전시회에서 공개하며 주목받은바 있는 'OpenMANIPULATOR-Y(이하 OM-Y)'는 오는 6월 정식 출시를 앞두고 있다. 특히 높은 수준의 모방학습(Imitation Learning) 구현 능력은 전문가들로부터 큰 관심을 받고 있다. OM-Y는 스탠퍼드 대학의 'Mobile ALOHA' 프로젝트 이후 주목받고 있는 VLA(Vision-Language-Action) 모델 기반의 최신 기술을 적용했다. 오픈소스 기반으로 개발된 이 제품은 사용자가 직접 관절과 링크를 조정할 수 있는 높은 수준의 모듈화를 자랑한다. 로보티즈는 OM-Y와 함께 'AI 매니퓰레이터' 키트도 공개할 예정인데 이는 모방학습 구현에 필요한 리더, 팔로워, 카메라 등 핵심 구성 요소를 모두 포함하고 있다. 특히 이 시스템의 핵심인 리더(Leader) 장치는 중력 보상과 마찰 보상 기능을 탑재했을 뿐만 아니라 그리퍼 기반의 햅틱 피드백 기능을 통해 보다 정교한 데이터 수집이 가능하도록 설계됐다. 이는 연구자들이 더 정밀한 모방학습 모델을 개
온 디바이스 기반 초경량화 LLM ‘시나AI’, 실시간 자율주행 경로 설계 ‘시나AI VLA V0’ 선봬 인천국제공항과 개념증명(PoC) 진행 중...“다중이용시설 내 로봇의 안전·효율 확보할 것” 인티그리트가 자체 개발 온 디바이스(On-Device) 기반 초경량화 거대언어모델(LLM) ‘시나AI 3b V1(SynaAI 3b V1)’을 공개했다. 여기에 실시간 자율주행 기술 ‘VLA(Vision Language Action)’ 플랫폼도 함께 발표했다. SynaAI 3b V1은 미국 메타(META)의 LLM ‘라마 3.2 3b’를 기반으로, 50만 건의 특정 데이터를 학습해 최적화한 한국어 전용 LLM 모델이다. 온 디바이스 AI 형태로 설계돼 별도의 네트워크 연결을 요구하지 않는다. 이를 통해 공항·백화점·공공시설 등 다중이용시설에서 보안성과 응답 속도를 극대화 할 수 있다. 인티그리트는 국내 공공장소 상업시설에 특화된 한국어 언어모델로 차별화를 꾀했다. 이를 위해 대형 백화점, 공공장소, 테마파크, 전시장 등 대규모 다중이용시설에서 사용되는 대화 응답 데이터셋(Dataset) 20만 건을 추가로 학습하고 최적화 과정을 거쳤다. 인티그리트는 앞선 12월 인