AI ETRI, AI 안전성·신뢰성 확보위해 국제표준 개발 주도
한국전자통신연구원(ETRI)이 인공지능(AI) 안전성과 신뢰성 확보를 위한 국제표준 개발을 주도한다. ETRI는 AI 시스템의 잠재적 위험을 탐색하는 ‘AI 레드팀 테스팅’ 표준과 소비자가 AI의 신뢰 수준을 확인할 수 있는 ‘신뢰성 사실 라벨(TFL)’ 표준을 국제표준화기구(ISO/IEC)에 제안하고 개발을 시작했다고 밝혔다. ‘AI 레드팀 테스팅’은 생성형 AI가 잘못된 정보를 제공하거나 보호장치를 회피해 악용되는 상황을 모의 공격 방식으로 점검하는 기법이다. ETRI는 ISO/IEC 42119-7 에디터로 참여해 의료, 금융, 국방 등 다양한 산업에 적용할 수 있는 공통 시험 절차와 방법을 마련한다. ETRI는 식품의약품안전처와 함께 9월 4~5일 노보텔 서울 동대문 호텔에서 ‘첨단 AI 디지털의료제품 레드팀 챌린지 및 기술 워크숍’을 개최한다. 이번 행사는 의료인, 보안 전문가, 일반 시민이 참여해 AI의 편향과 위험성을 점검하는 자리로, 참가 신청은 22일까지 가능하다. 서울아산병원과 공동으로 의료 전용 레드팀 평가 방법론도 개발 중이다. 또한 STA, 네이버, 업스테이지, 셀렉트스타, KT, LG AI연구원 등과 협의체를 구성해 국제표준화 협력을