AI의 발전 속도가 점차 가속화하고 있다. 오픈AI의 GPT-4o와 같은 모델의 출시는 빠르게 진보하는 AI 기술의 대표적인 예다. 자연어 처리와 문맥 이해 능력이 전작인 GPT-3보다 대폭 향상된 바 있다. 이처럼 AI 기술이 계속해서 진화함에 따라, 다양한 산업 분야에서의 응용 가능성이 확장되고 있다. 다만 이로 인한 사회적, 윤리적 문제도 동시에 대두되는 추세다. AI라는 거대한 기술이 가진 영향력을 고려했을 때 적절한 규제와 가이드라인이 필요할 것으로 보인다.
AI가 야기하는 문제점은 무엇?
AI 시대가 도래하면서, 기술에 대한 기대감과 동시에 우려도 함께 증가하고 있다.
AI가 낳는 몇 가지 문제 가운데, 대표적으로는 개인정보 및 데이터 보안이 있다. AI 기술의 발전은 데이터 수집과 분석 능력을 향상시켰다. 한 예로, 구글과 메타 등 빅테크들은 사용자 행동 데이터를 기반으로 개인화한 광고를 제공해 왔다. 이러한 데이터 수집이 사용자의 명시적 동의 없이 이뤄지기도 하며, 데이터 보호에 관한 법적 기준이 충분히 마련되지 않은 상태에서 개인 정보가 유출될 위험도 존재한다.
AI로 인해 발생하는 문제에 대한 책임 소재도 불확실하다. 지난 2018년, 테슬라 X의 자율주행 기능 오류로 인한 사망 사건이 대표적인 사례다. 차량을 제조한 테슬라는 시스템의 오류를 인정하기 어려워 했으며, 결과적으로 법적 공방이 이어졌다. 이 사례는 AI 결정에 따른 잘못된 결과에 대한 책임을 누가 져야 할지에 대한 근본적인 질문을 제기했다. 일자리 문제도 눈앞에 닥친 현안 중 하나다.
특히 제조업, 고객 서비스, 운송 등의 분야에서의 일자리 감소가 예상되며, 이는 경제적 불평등을 심화할 수도 있다. 이외에도 정보 편향으로 인해 어긋난 AI 윤리, 기술 남용으로 인한 인권 침해 등의 문제도 녹록치 않은 상황이다.
지난 8월, 한국을 방문한 오픈AI 제이슨 권 최고전략책임자(CSO)는 AI가 발전할수록 통제력도 향상돼야 한다고 언급했다. 제이슨 권 CSO는 서울 AI 정책 콘퍼런스 2024에서 AI 안전에 대한 질문에 “AI의 안전성은 인류가 원하는 방향으로 행동하도록 하는 것이다. 현대 사회가 AI 시스템을 통제할 수 있어야 한다”고 말했다. 그는 오픈AI 방향성이 이와 일치한다고 말하며 “우리 목표는 AI의 과학적 혁신을 계속 유용하게 발전시키며, 사람들의 생산성을 높이고 안전성을 확보해야 하는 것”이라고 정의했다.
AI 우려에 대한 주요 지표 살펴보기
AI를 대하는 기업들의 태도에서도 우려 섞인 목소리가 나오고 있다. 미국 포천지 선정 500대 기업 중 절반 이상이 AI를 잠재적 위험 요인으로 본다는 조사 결과가 나왔다. 파이낸셜타임스(FT)는 아리즈 AI가 조사한 결과를 인용해 포천지 선정 500대 기업의 56%가 최근 연례 사업 보고서에서 AI를 위험 요인으로 꼽았다고 보도했다. 이 비율은 2년 전에는 9%에 불과했다. 상당수 기업 이사회는 경쟁사가 AI 기술을 잘 활용해서 앞서가는 상황을 우려했다.
이와 함께 인권, 고용, 개인정보 보호 등과 관련해서 윤리적 문제가 생길 가능성도 지적했다. 미디어 및 엔터테인먼트 기업의 90%, 소프트웨어 및 기술 기업의 86%, 통신기업의 66%가 투자자에게 AI와 관련해 경고했다. 생성형 AI에 관해 구체적으로 언급한 108개 기업 중 33개 만이 비용 효율성, 운영 이점, 혁신 가속화 등에서 기회라고 봤고 나머지는 위험 요소라고 답했다.
국제노동기구(ILO)에서는 AI로 인한 정보 접근 격차를 우려하기도 했다. ILO는 세계은행과 공동 발간한 보고서에서 남미와 카리브해 지역을 대상으로 생성형 AI 도입에 따른 일자리 변화 등을 분석한 결과를 공개했다. 보고서는 생성형 AI 보급으로 이 지역의 일자리 가운데 26∼38% 정도가 영향을 받을 수 있다고 평가했다. 보고서는 AI 탓에 일자리가 소멸하는 경우보다 근무의 내용을 바꾸거나 일자리를 보완하는 방식으로 영향을 주는 경우가 더 많을 거라고 예상했다.
남미·카리브해 지역 일자리의 8∼14%는 생성형 AI 도입 후 생산성 향상이 나타날 것으로 예측됐다. 반면 구조조정 위험이 생기는 일자리는 2∼5%에 그칠 것으로 내다봤다. 보고서는 특히 생성형 AI 도입으로 일자리가 줄어들 위험이 있는 직군은 젊고 교육받은 노동자라고 명시했다. 이와 더불어 도시보다 도시 지역, 남성보다 여성 노동자가 생성형 AI가 만들어낸 자동화의 영향을 더 받는다고 분석했다.
생성형 AI를 활용하면 혜택을 누릴 수 있는 직군으로는 판매원과 건축가, 교육·건강 분야 서비스 종사자 등이 꼽혔다. 보고서는 생성형 AI가 가져올 생산성 향상이 차별적으로 영향을 준다고 지적했다. 정보 인프라 부족으로 생성형 AI 활용이 어려운 노동자는 디지털 기기 접근성이 큰 노동자보다 생산성 향상 혜택을 잘 누리지 못하며 이는 성장 잠재력을 제약한다는 것이 요지였다.
한편, AI에 대한 의존도가 높아짐에 따라, 사람의 감정도 휘둘릴 수 있다는 보고도 발표됐다. 오픈AI는 GPT-4o 관련 보고서에서 실제 사람과 대화하는 듯한 경험을 제공하는 생성형 AI 서비스가 사용자를 AI에 감정적으로 의존하게 만들 수 있는 위험이 있다고 우려했다. GPT-4o는 오픈AI가 지난 5월 공개한 AI 모델로, 딱딱한 기계음이 아닌 자연스러운 사람 목소리를 내고 사용자와 실시간 음성 대화가 가능한 게 특징이다. 서비스 첫 공개 당시 인간이 AI 비서와 사랑에 빠지는 내용의 영화 ‘허(Her)’ 속 AI가 현실이 됐다는 평가를 받으며 주목받기도 했다.
오픈AI는 보고서에서 “사용자가 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다”고 언급했다. 이어 “사용자가 AI와의 사회적 관계를 형성함에 따라, 선택적으로 사람과의 상호작용에 대한 필요성을 줄일 수 있다”고 지적했다. 이처럼 AI 기술의 급속한 발전은 사회에 긍정적인 변화를 가져오는 동시에, 해결해야 할 새로운 도전 과제를 제시하고 있다. AI의 발전을 책임감 있게 관리하고, 발생할 수 있는 부정적인 영향을 최소화하기 위한 사회적·법적 노력이 필요한 시점이다.
헬로티 서재창 기자 |