ST마이크로일렉트로닉스가 STM32 AI Model Zoo를 새롭게 확장해 공개하며, 임베디드 AI 애플리케이션 개발 속도를 크게 높일 것이라고 26일 밝혔다. STM32 AI Model Zoo는 비전·오디오·센싱 모델을 포함한 업계 최대 규모의 마이크로컨트롤러용 모델 라이브러리로, 웨어러블과 스마트 카메라, 각종 센서, 보안 기기, 로보틱스 등 다양한 장비에 활용된다. 스테판 헨리 ST 엣지 AI 솔루션 그룹 부사장은 “데이터 과학을 임베디드 플랫폼에서 실사용 애플리케이션으로 구현하는 과정은 복잡한 엔지니어링 과제”라며 “STM32 AI Model Zoo 4.0은 개발자가 더 빠르게 프로젝트를 시작할 수 있도록 선택 가능한 모델을 크게 확대했고, 배포까지 이어지는 전체 개발 인프라를 강화했다. 이는 피지컬 AI 실현을 향한 ST의 의지를 보여주는 결과”라고 말했다. 소형 디바이스에 AI를 내장할 경우, 기능 향상뿐 아니라 에너지 효율 개선 효과도 크다. 다만 마이크로컨트롤러는 프로세싱 성능과 메모리가 제한적이기 때문에, 모델 최적화가 핵심 과제로 꼽힌다. ST의 최신 Model Zoo는 이러한 제약 환경에서 최소 전력으로 고효율 AI 모델을 개발하도록 지원
노타가 오는 11월 5일부터 7일까지 일산 킨텍스(KINTEX)에서 개최되는 ‘디지털퓨처쇼 2025’에 참가해 AI 보편화를 가속할 AI 모델 최적화 기술을 선보인다. 노타는 이번 전시에서 자사의 AI 모델 최적화 플랫폼 ‘넷츠프레소(Netspresso)’를 기반으로, 다양한 엣지 디바이스에서 대규모 AI 모델을 효율적으로 실행할 수 있는 체험형 부스를 운영한다고 30일 밝혔다. 이번에 공개되는 LLM(대규모 언어모델) 최적화 서비스는 저전력 환경에서도 LLM과 VLM(비전언어모델)을 경량화해, 성능 저하 없이 빠른 추론 속도를 구현하는 기술이다. 이를 통해 GPU 서버 없이도 엣지 환경에서 대규모 AI 모델을 실행할 수 있어, 고성능 AI 기능을 자사 제품에 적용하고자 하나 서버 비용이나 전력 제약에 부담을 느끼는 기업에게 적합한 솔루션으로 평가된다. 노타는 이번 기술을 통해 산업 현장, 공공시설, 개인 모바일 기기 등 인터넷 접속이 제한된 환경에서도 AI 활용 범위를 크게 확장할 수 있을 것으로 기대하고 있다. 특히 부스에서는 엣지 디바이스에 문서를 업로드하고 질문을 입력하면, 넷츠프레소로 최적화된 LLM 모델이 문서를 분석해 실시간으로 답변하는 체험 프
임베디드 비전 서밋에서 퀄컴 AI 허브-넷츠프레소 최적화 사례 공유 노타가 미국 산타클라라에서 열린 ‘2025 임베디드 비전 서밋(Embedded Vision Summit)’에서 퀄컴 테크날러지스와의 협력 성과를 공개하며 글로벌 기술 리더십을 입증했다. 이번 서밋은 컴퓨터 비전 및 AI 분야를 대표하는 행사로, 전 세계 70여 개 기업과 1400여 명 이상의 업계 전문가가 참석했다. 노타는 자사 AI 모델 최적화 플랫폼 ‘넷츠프레소’를 퀄컴 AI 허브에 최적화한 사례를 중심으로 기술적 시너지를 강조했다. 특히 퀄컴 부스에서는 양사 협업이 제공하는 효율성과 확장성의 이점을 영상 콘텐츠를 통해 소개했으며, 퀄컴이 주최한 ‘딥다이브 세션’에서는 노타 김태호 CTO가 연사로 나서 온디바이스 AI 개발 워크플로우의 진화 과정을 발표했다. 김태호 CTO는 “이번 전시를 통해 퀄컴과의 협력 결과가 실제 고객에게 제공하는 가치를 구체적으로 제시할 수 있었다”며, “IoT와 엣지 컴퓨팅 시장에서 양사의 협력 관계를 강화해 나가겠다”고 밝혔다. 이와 함께, 노타는 넷츠프레소의 최신 기능인 ‘NetsPresso Optimization Studio’도 현장에서 공개했다. 이 기능
아파치 2.0 라이선스 적용해 누구나 자유롭게 사용하고 기여할 수 있어 디노티시아가 한양대학교 AIHA 연구실과 공동으로 개발한 AI 양자화 알고리즘 평가 플랫폼 ‘QLLM-INFER’를 오픈소스로 공개했다. 이번 플랫폼은 아파치 2.0 라이선스를 적용해 누구나 자유롭게 사용하고 기여할 수 있도록 구성됐으며, 깃허브(GitHub)를 통해 배포된다. 대규모 언어모델(LLM)의 활용이 급증하고 있는 가운데, 고성능을 유지하면서도 경량화된 모델 구현을 위한 양자화 기술의 중요성이 부각되고 있다. 양자화는 연산 정밀도를 낮추는 방식으로, 연산 속도는 높이고 메모리 사용량은 줄이는 데 핵심적인 역할을 한다. 하지만 지금까지의 연구는 알고리즘별 평가 환경과 조건이 제각각이라 실제 활용 시 적합한 기술을 비교하고 선택하는 데 한계가 있었다. QLLM-INFER는 이러한 문제를 해결하기 위해 동일한 조건에서 다양한 양자화 기법의 성능을 객관적으로 평가할 수 있도록 고안됐다. 디노티시아와 한양대는 최근 3년간 학계와 산업계에서 가장 주목받은 양자화 기술 여덟 가지를 선별해 이를 세 가지 유형으로 구분해 분석했다. 평가 방식은 가중치와 활성화값을 함께 줄이는 방식, 가중치만