개인정보위, 2024년 주요 정책 추진계획 발표…개인영상정보법 제정 추진 정부가 인공지능 시대 개인정보 보호를 위해 AI 가이드라인을 마련하기로 했다. 또 자율주행차 등 산업환경 변화에 따른 영상정보의 합리적인 활용 기준을 담은 ‘개인영상정보법’(가칭) 제정도 추진한다. 개인정보위는 16일 이같은 내용이 담긴 2024년 주요 정책 추진계획을 발표했다. 계획에 따르면 데이터 처리방식이 복잡한 인공지능 환경에서 개인정보 보호법 적용 원칙·기준을 구체화한 AI 단계별 ‘6대 가이드라인’을 올 연말까지 마련한다. 개인정보위는 공개된 정보, 비정형 데이터, 생체인식정보, 합성데이터, 이동형 영상기기, 투명성 확보 등에 대한 가이드라인을 연내 마련한다는 구상이다. 스타트업 등이 AI 모델이나 서비스를 개발하는 과정에서 개보위가 스타트업 등과 함께 개인정보 법령 준수방안을 마련하고, 사업자가 이를 이행하면 행정처분을 면제하는 ‘사전적정성 검토제’도 시행한다. 또 영상정보 원본 활용을 허용하는 규제 샌드박스 운영으로 자율주행로봇 등 첨단산업 육성을 지원하고, AI 연구자·스타트업 등의 유연한 개인정보 처리가 가능하도록 ‘개인정보 안심구역’도 운영한다. AI에 기반한 채용,
기업이 AI 개발에 있어 법적 불확실성 해소하기 위한 목적으로 추진 정부가 인공지능(AI) 시대에 개인정보 보호가 제대로 이뤄지도록 'AI 가이드라인'을 마련한다. 자율주행차와 드론 등 신기술 개발, 산업환경 변화에 따른 영상정보의 합리적인 활용 기준을 담은 '개인영상정보법(가칭)' 제정도 추진한다. 개인정보보호위원회(이하 개인정보위)는 16일 이 같은 내용이 담긴 '2024년 주요 정책 추진계획'을 발표했다. 추진계획에 따르면 개인정보위는 올해 12월까지 AI 단계별 6대 가이드라인을 제정한다. AI의 데이터 처리는 통상 '기획 및 데이터 수집(1단계)→학습(2단계)→서비스(3단계)' 과정을 밟는다. AI가 처리하는 데이터는 영역이나 그 유형이 다양하다. 개인정보위는 이런 정보 유형 등에 따라 기업이 지켜야 할 개인정보보호법상 원칙은 무엇이고, 그 적용기준은 어떻게 되는지 가이드라인에 상세하게 담을 계획이다. 가이드라인에는 공개된 정보 처리 기준, 이미지·영상·음성 등 비정형데이터 가명처리 기법 안내, 얼굴인식 기술 등 생체인식정보 이용 시 제한기준, 비식별 효과가 높은 합성데이터 생성·활용 기준이 담긴다. 또한, 이동형 영상기기로 인한 부당한 권리침해 판
워크데이는 직장 내 인공지능(AI) 신뢰 격차가 형성되고 있다는 최신 글로벌 연구 결과를 29일 발표했다. 해당 연구 결과에서 비즈니스 리더와 직원 모두 AI가 비즈니스 트랜스포메이션을 위한 큰 기회를 제공한다는 데는 동의하지만, AI가 책임감 있게 활용될 것이라는 신뢰는 부족하며 직원들은 이에 대해 경영진보다 훨씬 더 회의적인 태도를 보인 것으로 나타났다. 연구 결과를 살펴보면 비즈니스 리더(C레벨 또는 직속보고라인)의 62%가 AI를 환영한다고 답했다. 직원들의 경우, 52%가 AI를 환영한다고 답해 리더가 응답한 수치에 훨씬 못 미치는 것으로 나타났다. 직원의 23%는 기업이 AI를 구현할 때 직원의 이익을 회사의 이익보다 우선시하는지 확신하지 못했다. 비즈니스 리더의 70%는 AI가 인간이 쉽게 검토하고 개입할 수 있는 방식으로 개발되어야 한다는데 동의한다. 42%의 직원들은 회사가 자동화할 시스템과 인간이 개입해야 하는 시스템이 무엇인지 명확하게 파악하지 못하고 있다고 생각한다. 또한 직원 4명 중 3명은 기업이 AI 규제에 협력하고 있지 않다고 응답했으며 직원 5명 중 4명은 회사가 책임감 있는 AI 활용에 대한 가이드라인을 아직 공유하지 않았다고
플랜트에 대한 AI 도입 문제와 리스크 분석 대규모 플랜트에 AI를 도입하는 것은 일반 사회에 AI를 실장하는 것과는 조금 다른 의미에서 제기되는 문제가 있다. 충분히 검증되지 않은 AI로 인해 오작동을 일으킨 경우에 사고로 이어지면 설비뿐만 아니라 인적 피해도 발생할 수 있다. 특히 AI의 블랙박스성 때문에 AI의 성능이나 품질, 신뢰성을 어떻게 규정하고 평가할지 쉽지는 않다. 애초에 AI 학습 자체가 귀납적이고 도출된 규칙은 말로 설명할 수 없기 때문에 확신 있는 결과를 얻기가 매우 어렵다. AI 자체에 설명성을 부여하기 위해서는 예측 결과에 대한 공헌도를 제시시키는 그레이박스화나 또는 판단 이유를 명확하게 하는 화이트박스화와 같이 알고리즘 진화의 시도도 기대되지만, 실장까지는 과제가 있는 것이 실정이라고 생각된다. 한편으로 우리 엔지니어에게는 이미 알려진 공학에 심층학습 AI를 조합함으로써 과제 해결을 용이하게 하는 솔루션이 존재한다. 공학적 룰이나 시뮬레이션, 현장 노하우, 제어 시스템, 해명되어 있는 파괴 모드(보안 분야) 등과 AI를 조합하는 것이다. 내용이 분명한 공학적 계산을 중심으로 AI로 보완해 확장함으로써 시스템 전체로서 결과 해석이 용이