불과 2년 전, 오픈AI(OpenAI)가 내놓은 챗GPT(ChatGPU)는 차세대 ‘인공지능(AI)’이라는 소용돌이 속에 전 세계를 몰아넣었다. AI가 새로운 먹거리이자 미래 방향성으로 급부상한 것이다. 이러한 AI는 인류에 편의와 효율을 제공하는 매개임과 동시에, 인간의 각종 권리를 침해할 수도 있는 위협적인 존재로 인식되기 시작했다.
이에 따라 미국·유럽연합(EU) 등은 AI가 무분별하게 활용될 수 있는 가능성을 차단하기 위해 갖가지 ‘안전장치’를 발표했다. 미국은 ‘안전·보안·신뢰를 보장하는 AI 개발 및 사용에 대한 행정명령(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)’을 내놨다. EU도 올해 초 결이 유사한 ‘AI 법(AI Act)’의 통과를 공표했다.
앞선 법안은 성장에만 맞춰진 AI 업계의 시각을 우회해 새로운 접근법을 제시한 점이 특징이다. 기술적 측면뿐만 아니라 안전성·보안성·신뢰성·윤리성·투명성 등이 확보된 ‘설득력’ 있는 AI를 전 세계에 전파하겠다는 방향성이 내포돼 있다. 우리나라도 이러한 흐름에 합류해 각종 AI 관련 법령 제정을 준비하고 있다. 이로써 전 세계에는 AI 생태계가 협력하는 분위기가 구축됐다. ‘성장’과 ‘규제’의 변곡점에 서있는 AI. AI ‘잘 쓰는 법’에 대한 방안은 뭘까?
이달 25일 경기 고양시 소재 전시장 킨텍스에서 규제 신바람에 직면한 국내 AI 산업의 경쟁력을 제고하기 위한 워크숍이 개최된다. ‘안전하고 책임있는 AI 활용을 위한 AI 안전·신뢰성 워크숍’은 산업통상자원부가 주관하고 한국산업기술시험원(KTL)가 주최하는 행사로, 글로벌 AI 규제로 발생하는 각종 요소를 반영하기 위해 AI 생태계가 모이는 자리다.
이번 워크숍은 산업AI국제인증포럼, 시험인증기관, 법무법인 등 산연 관계자가 참석해 국내 AI 산업이 나아갈 길을 제시한다. 현재 워크숍에 참여할 참관객을 모집하고 있다.
헬로티 최재규 기자 |