NVIDIA Jetson AGX Orin으로 가속된 엣지 AI 연산 VLM 기반 장면 라벨링+LLM 기반 자연어 내비게이션 엣지 AI 분야 선두기업 어드밴텍이 NVIDIA Jetson AGX Orin 기반의 AMR 개발자 키트를 공개했다. AMR 개발자 키트는 자율이동로봇(AMR)의 상용화를 가속화할 수 있는 레퍼런스 디자인으로, 개발자와 OEM, 시스템 통합업체가 지능형 로봇을 보다 손쉽게 구현할 수 있도록 지원한다. 이 개발자 키트는 360° 파노라마 인식과 고성능 엣지 AI, 비전-언어 모델(VLM) 및 대형 언어 모델(LLM)을 결합해 단순한 이동을 넘어 ‘이해하고 상호작용하는 로봇’을 지향한다. 예를 들어, 사용자가 음성이나 텍스트로 “커피를 어디서 살 수 있나요?”라고 입력하면, AMR은 VLM이 자동 라벨링한 목적지를 인식해 즉시 이동할 수 있다. 이는 물리적 공간에서 AI의 실질적 역할을 강화하는 ‘Physical AI’ 구현의 한 사례로 평가된다. 하드웨어 측면에서는 4개의 GMSL 2D 카메라와 4개의 스테레오 3D 카메라를 탑재해 깊이 기반 파노라마 인식을 제공한다. 밀리초 단위의 동기화로 비주얼 SLAM, 3D 매핑, 장애물 감지 기능을
KT는 3일 서울 서초구 KT 우면연구센터에서 서울대학교, KAIST와 함께 AICT 공동연구 협력 확대를 위한 킥오프 워크숍을 개최했다고 밝혔다. 이번 행사에는 KT 오승필 기술혁신부문장, 배순민 AI Future Lab장, 서울대 장병탁 교수, KAIST 김기응 교수를 비롯한 교수진과 연구진 등 100여 명이 온·오프라인으로 참석해 연구 과제와 협력 방향성을 논의했다. 이번 공동연구는 KT의 전략적 Open R&D의 일환으로, 서울대와 KAIST로 협력 범위를 확대해 장기 연구개발을 넘어 실제 사업과 직결되는 핵심 AICT 기술 확보에 집중한다. 연구 주제로는 ▲자율형 에이전트 ▲Responsible AI ▲Physical AI ▲인간 피드백 기반 강화학습 ▲추론 효율화 등이 포함된다. 서울대는 신뢰 기반 인간 중심 AI 고도화를 목표로 ▲강건한 컨텍스트 추론 ▲인간 피드백 강화학습 ▲RAI 평가 기준 개선 ▲사용자 상호작용 기반 Actionable AI 등을 연구한다. KAIST는 프롬프트 압축 및 최적화를 통해 대규모 언어모델의 효율성과 정확도를 높이는 기술 개발에 집중한다. KT는 GPU·AI 모델·데이터 등 연구 인프라를 제공하며, 자체 한
Physical AI 기반 로보틱스 플랫폼 기업 디스펙터가 음병찬 신임 대표이사를 선임했다. 이번 인사는 ‘화려한 기술 시연’보다 ‘현실 환경에서의 가치 창출’에 초점을 맞춘 전략 전환의 출발점으로 평가된다. 음 대표는 15년 이상 AI·신기술 분야에서 시장과 기술을 연결하는 전략가로 활동해 왔다. 글로벌 컨설팅사 액센추어(Accenture), 모니터그룹(Monitor Group), 부즈앤코(Booz & Co.)에서 산업별 비즈니스 전략을 수립·실행했으며, 카카오에서는 AI 스피커 사업 전략과 신규 사업 개발을 맡아 기술 대중화에 기여했다. 이후 캐나다 AI 스타트업 엘리먼트AI(Element AI)에서 동북아시아 사업을 총괄하며 제조·금융·물류 등 산업 전반에 AI 전환을 실현했고, Armilla AI를 공동 창업해 ‘신뢰 가능한 AI’ 확산에도 힘썼다. 그가 디스펙터에서 그리고 있는 미래는 명확하다. 음 대표는 “로봇이 백플립을 하거나 발로 차도 균형을 잡는 장면은 인상적이다. 하지만 진정한 가치는 예측 불가능하고 복잡한 현실 속에서 꾸준히 작동할 때 발휘된다”라며 “기업이 박사 학위나 대규모 연구소 없이도 로봇을 개발·운영하고, 이를 통해 실제
국내 로봇 전문기업 로보티즈가 'Physical AI' 기술을 접목한 혁신적인 로봇 팔 솔루션을 선보이며 업계의 주목을 받고 있다. 최근 AW2025 전시회에서 공개하며 주목받은바 있는 'OpenMANIPULATOR-Y(이하 OM-Y)'는 오는 6월 정식 출시를 앞두고 있다. 특히 높은 수준의 모방학습(Imitation Learning) 구현 능력은 전문가들로부터 큰 관심을 받고 있다. OM-Y는 스탠퍼드 대학의 'Mobile ALOHA' 프로젝트 이후 주목받고 있는 VLA(Vision-Language-Action) 모델 기반의 최신 기술을 적용했다. 오픈소스 기반으로 개발된 이 제품은 사용자가 직접 관절과 링크를 조정할 수 있는 높은 수준의 모듈화를 자랑한다. 로보티즈는 OM-Y와 함께 'AI 매니퓰레이터' 키트도 공개할 예정인데 이는 모방학습 구현에 필요한 리더, 팔로워, 카메라 등 핵심 구성 요소를 모두 포함하고 있다. 특히 이 시스템의 핵심인 리더(Leader) 장치는 중력 보상과 마찰 보상 기능을 탑재했을 뿐만 아니라 그리퍼 기반의 햅틱 피드백 기능을 통해 보다 정교한 데이터 수집이 가능하도록 설계됐다. 이는 연구자들이 더 정밀한 모방학습 모델을 개