OpenAI가 챗지피티(ChatGPT) 일반 이용자 계정에 미성년자 여부를 예측하는 연령 예측 모델을 도입해 18세 미만 사용자 보호를 강화하고 있다. 미국 경제방송 CNBC가 보도한 바에 따르면, OpenAI는 20일(현지 시간) 자사 챗지피티 소비자 요금제에 적용할 연령 예측 모델을 단계적으로 도입하고 있다고 밝혔다. 이 모델은 인공지능이 18세 미만 이용자 계정일 가능성이 있는지를 식별하는 데 도움을 주기 위한 것이다. OpenAI는 이 연령 예측 모델이 계정 수준 신호와 이용 행태 신호를 결합해 작동한다고 설명했다. 여기에는 시간에 따른 사용 패턴, 계정이 개설된 기간, 사용자가 주로 활동하는 시각대, 이용자가 밝힌 나이 등이 포함된다. CNBC에 따르면, OpenAI는 최근 몇 달 동안 특히 미성년자 보호와 관련해 자사 서비스의 안전성을 강화하라는 외부의 압박이 커지면서 여러 가지 새로운 안전 기능을 도입해 왔다. 이런 움직임은 인공지능 챗봇이 이용자, 특히 아동과 청소년에게 미칠 수 있는 부정적 영향에 대한 우려가 커진 데 따른 것이다. 보도에 따르면 OpenAI와 다른 기술 기업들은 이들 인공지능 챗봇이 아동과 청소년에게 잠재적으로 부정적인 영향
‘딥페이크, 사후 프라이버시…’ 늘어나는 쟁점, AI 윤리가 기술 개발 기준점 돼야 법무법인 원의 이유정 변호사가 생성형 AI 관련 기업들이 더 자유롭고 편안하게 기술을 개발할 수 있도록 하기 위해선 정부가 신속히 최소한의 가이드라인을 만들어야 한다고 촉구했다. 이유정 변호사는 The AI Forum 2023(TAF 2023)에서 생성형 AI 시대에 고민해봐야 할 여러 문제들에 대한 생각을 나누며 이같이 말했다. 이유정 변호사는 “인공지능 기술의 진보는 매우 빠른 속도로 이뤄지고 있지만, 그에 비해 인공지능 윤리와 법과 규제에 대한 논의는 매우 천천히 뒤따라가고 있다”며, “우리나라도 오래전부터 인공지능 기본법을 발의한다는 얘기가 나왔지만 아직 통과되지 않고 있다”고 지적했다. 저작권, 딥페이크, 사후 프라이버시 등 다양한 인공지능 관련 쟁점에 대해 이 변호사는 “인공지능은 기존 법 체계로 해결할 수 없는 문제들이 많다”며, “현재 우리의 법 체계는 인간 중심의, 국가를 단위로 한 법 체계이기 때문에 근본적으로 다양한 한계를 안고 있다”고 설명했다. 또한 “인공지능 기술을 사전적으로 규제하려면 예측이 가능해야 하는데 인공지능 기술이 예측할 수 없을 만큼 빠르
Human x AI Forum 7일 한국프레스센터서 개최…’AI 윤리 표준화와 검인증 체계 구축 및 전망’ ChatGPT의 등장 이후 생성형 AI 시장은 폭발적으로 성장하고 있다. AI는 인간의 생활 속으로 빠르게 침투해 들어오면서 다양한 방면에서 편리함을 가져다주는 한편, 차별이나 혐오의 표현이 포함된 문장로부터 데이터를 획득, 문장을 생성하는 등 한계 역시 드러나고 있다. 어떻게 인공지능을 윤리적으로 만들 것인지에 대한 이슈가 부각되면서 많은 연구자, 산업 종사자들은 AI 윤리 표준화, 검인증, 영향평가 등에 대한 구체적인 실천 방안을 모색하고 있다. 오늘 7일 ‘AI 윤리 표준화와 검인증 체계 구축 및 전망‘을 주제로 제 2회 Human x AI Forum(이하 포럼)’이 한국프레스센터에서 열렸다. 포럼에는 국민의힘 송석준 의원, 국제인공지능&윤리협회(IAAE) 전창배 이사장, 코어소프트 소순주 대표, 씽크포비엘 박지환 대표, 정보통신정책연구원(KISDI) 지능정보사회정책센터 문정욱 센터장 등이 참석했다. IAAE 전창배 이사장은 개회사에서 “올해는 ChatGPT와 생성형 AI 열풍으로 AI 윤리의 당위성과 실천이 더 중요해졌다”며, “전 세계적