
일상으로 침투한 AI, 진흥이냐 규제냐
AI는 더 이상 미래의 기술이 아닌, 현재 산업과 사회 전반을 지배하는 운영체제에 가까워지고 있다.
알고리즘이 의료 진단을 내리고, 생성형 AI가 기업 전략 보고서를 작성하는 시대다. 이같은 기술의 진보는 법이라는 울타리와 불가피하게 충돌하고 있다. 마치 고속도로를 질주하는 차량을 신호등 하나 없이 운영하려는 것처럼, 규제 없는 AI는 위험하고, 과잉 규제는 혁신을 억누른다. 이 두 축 사이의 균형점을 찾기 위한 논의가 본격화하는 가운데, 데이터 활용의 현실적 제약, 국제적 표준과 거버넌스, 규제 법철학에 대한 고찰은 필수적이다.
특히 내년 AI 기본법의 시행을 앞두고 우리나라는 AI 기술과 법의 새로운 경계선에 서 있다. 생성형 AI, 고성능 모델, 멀티모달 시스템 등 AI 기술은 이미 산업 전반에 깊숙이 침투했지만, 이를 어떻게 규율할 것인지에 대한 사회적 합의는 여전히 진행 중이며 갈 길 또한 멀다. AI 기본법은 이 격차를 메우기 위한 첫 번째 시도지만, 그 자체로 논란을 낳는다. 정의 체계부터 적용 범위, 고위험 AI의 기준, 영향평가 방식까지 법이 감당해야 할 기술의 속도는 상상을 초월한다. AI가 법의 언어를 배우기 전, 법이 먼저 AI의 구조를 이해해야 한다는 목소리가 높아지는 이유다.
이에 AI 산업 전환의 핵심 쟁점인 데이터 활용, 법적 거버넌스, 규제철학이 본격 논의됐다. 법무법인 태평양의 강태욱 변호사, 법무부 이효진 전문위원, 고려대학교 계인국 교수가 ‘지능정보사회 법제도 상반기 공개 세미나’에서 발표한 내용을 통해 한국의 AI 산업 정책 방향성과 입법적 과제를 짚었다. AI 법제 정비와 표준화, 글로벌 거버넌스 전략이 핵심 키워드로 부상하고 있다.
AI 산업의 성장 위한 선결 과제 '개인정보 규제 완화'
AI 산업에서 데이터는 연료이자 자산이다. 그러나 한국의 현행 법체계는 데이터를 AI 학습에 활용하는 데 있어 여전히 강한 제약을 두고 있다. 법무법인 태평양의 강태욱 변호사는 최근 포럼에서 이러한 법적 장벽이 AI 기술 발전의 발목을 잡고 있다고 지적했다. 핵심은 개인정보보호법이다. 현행법상 과거 수집된 데이터를 AI 학습에 사용하는 것이 법적으로 불분명하거나 제한되기 때문이다. AI 산업 특성상 다양한 데이터를 빠르게 축적·활용해야 하나, 현 시스템은 이를 근본적으로 어렵게 만든다.
강태욱 변호사는 “AI는 새로운 목적을 가진 서비스이기에 기존 수집 목적과 불일치하는 경우가 많고, 이 경우 다시 동의를 받아야 하는 상황이 반복된다”고 말했다. 이처럼 실무상 혼란이 가중되는 상황에서, 그는 추가적 이용, 계약 이행, 정당이익 등 세 가지 법적 근거를 통해 활용 가능성을 모색할 수 있다고 제안했다. 특히 파운데이션 모델의 경우 목적 자체가 고정되기 어렵기에 기존의 협소한 해석으로는 산업 대응이 불가능하다고 주장했다.
강 변호사는 현재 정부가 제시한 가이드라인이나 샌드박스 제도만으로는 법적 리스크를 감당하기 어렵다는 현실도 강조했다. 이 때문에 AI 학습 목적의 특례 조항이 담긴 입법이 반드시 필요하다고 봤다. 실제로 국회에는 해당 내용을 담은 개인정보보호법 개정안도 발의된 상태다. 그는 “AI 투자를 확대한다고 하면서도 데이터 활용에 대한 규제는 그대로 두는 것은 정책 모순”이라며, “정부가 신속하게 제도 개선에 나서야 한다”고 밝혔다.

AI 표준이 ‘규제와 혁신’ 가를 핵심이다
법무부 이효진 전문위원은 AI 기본법에 도입된 표준 개념이 단순한 기술 지침을 넘어, 글로벌 경쟁력과 규제 정합성을 동시에 달성할 수 있는 핵심 수단이 될 수 있다고 강조했다. 그는 “표준은 기술과 규제의 균형을 가능하게 하고, 특히 민간 자율성과 정부 조율이 공존하는 공동 규제 모델의 핵심”이라고 밝혔다.
유럽연합(EU)은 조화된 표준(Harmonized Standards)을 통해 기업이 자발적으로 표준을 준수하면 규제 적합성 평가를 면제받도록 한다. 이는 규제의 부담을 줄이는 동시에 기술 신뢰성을 확보할 수 있는 방식이다. 이 위원은 한국의 AI 기본법도 이를 벤치마크해 기술 표준의 준수를 권고하는 조항을 마련했지만, 실질적 효력과 민간 수용도를 높이기 위한 정책적 연계가 아직 부족하다고 진단했다.
그는 각국의 규제 거버넌스가 점차 중앙 집중형 구조로 전환되고 있다는 점에eh 주목했다. 영국은 규제 중복과 비효율성을 해소하기 위해 규제혁신청과 표준화 추진 기구를 통합했으며, 일본은 AI 전략본부를 중심으로 범정부 통합 거버넌스를 가동 중이다.
반면 한국은 국가인공지능위원회가 의결 기구로 제한돼 있어 정책 추진력과 현장 대응력이 떨어지는 상황이다. 이 전문위원은 “글로벌 표준을 선도하려면 기술·산업·법제 간 조화를 이룬 통합 거버넌스가 선행돼야 한다”며 “국가 차원의 컨트롤타워 강화와 표준 기반 규제 전략의 구체화가 시급하다”고 말했다.
“AI 기본법, 고영향 개념·정의 체계 전면 재정비해야”
고려대학교 계인국 교수는 AI 기본법을 향한 깊은 문제의식을 꺼내 들었다. 그는 AI 기술 발전 속도에 비해 법적 틀은 여전히 과거 규제 방식에 머물러 있다며, “현재 기본법은 실질적 규제 방향보다는 형식적 체계 구성에만 치중돼 있다”고 지적했다. 특히 ‘고영향 AI’ 개념이 정의 조항에 포함된 점을 강하게 비판하며, 이는 영향평가 기반의 접근임에도 불구하고 법 전체는 여전히 리스크 기반 체계로 설계돼 있어 충돌이 발생한다고 밝혔다.
계인국 교수는 “고영향 AI라는 정의는 결국 기업이 자발적으로 사회적 영향평가를 하도록 유도하는 성격이 강해야 하는데, 현재 법에서는 그것이 법적 규제로 작용할 가능성이 크다”고 강조했다. 이는 기술 기업에 불확실성을 높이고, 규제 워싱 또는 과잉 규제를 유도할 수 있다는 문제다. 그는 유럽, 미국, 캐나다 등에서 고위험 AI에 대해서만 의무적인 영향평가를 적용하고, 나머지는 CSR 수준의 권고로 두는 점을 예로 들며 한국 역시 입법적 정비가 필요하다고 지적했다.
또한, AI 정의에 인간 유사성을 포함시킨 점도 글로벌 기준과 어긋난다고 말했다. 계인국 교수는 “세계적으로 AI 정의를 기능 중심으로 설정하고 있지만, 한국은 인지적 요소 중심의 정의를 두고 있어 섹터 특화형 AI와의 연계가 구조적으로 어렵다”고 평가했다. 실제로 비인지형 AI는 20개 이상의 국내법에서 이미 규정돼 있지만, 기본법은 이들과의 연결성이 부족하다는 것이다.
계 교수는 결론적으로 “AI 기본법은 혁신과 규제의 균형점을 찾기보다는 새로운 규제를 부여하는 데 초점이 맞춰져 있다”며, “정의 체계, 평가 방식, 거버넌스 모두를 기술 변화에 맞춰 유연하고 맥락 기반으로 재설계해야 한다”고 주장했다.
규제 혁신을 위한 거버넌스 체계 재설계 필요
세 발표자가 공통적으로 강조한 점은 AI 산업의 급변 속도에 맞춘 법제 정비와 거버넌스 재설계 필요성이다. 강 변호사는 개인정보 규제 완화와 데이터 활용 현실화를, 이 전문위원은 범정부 컨트롤타워 강화와 표준 중심의 정책 운영을, 계 교수는 사회적 합의와 협력 기반의 규제법 철학 적용을 각각 강조했다.
특히 고영향 AI에 대한 규정은 기업의 예측 가능성을 해치고 혁신을 저해할 수 있다는 점에서 입법적 보완이 요구된다는 데 의견을 같이했다. AI 기술이 가진 범용성과 파급력을 고려할 때, 법률 또한 정태적 규범이 아닌, 동적 조정 가능한 구조로의 전환이 시급하다는 공감대가 형성됐다.
헬로티 서재창 기자 |