스포트라이트 AI 시대, 공격자는 진화 중…한국 보안 수준은 어디쯤?
생성형 AI 개념이 등장한 지 약 10년, AI는 제조·로봇·의료·교육·금융 등 우리 생활을 비롯해 산업 곳곳에 빠르게 녹아들었다. 특히 2022년 챗GPT 출시 이후 LLM(대규모 언어 모델)을 활용한 챗봇과 AI 비서 서비스는 기업과 일반 사용자를 가리지 않고 나날이 정교한 서비스를 제공하고 있다. 그러나 명령 프롬프트만 입력하면 사용자 요구에 딱 맞는 정보를 제공하는 이토록 편리한 AI 서비스도 ‘보안’을 신경 쓰지 않으면 편리함이 오히려 독으로 돌아올 수 있다. AI를 공격하는 대표적인 예 중 하나인 ‘환각(Hallucination)’은 존재하지 않는 정보를 생성해 신뢰도를 떨어트리고 허위정보 유포에 따른 위험성을 증가시킨다. 또 다른 예인 ‘탈옥(Jailbreak)’은 정상 응답 규칙을 우회해 금지 응답을 끌어내는 악용 위험성을 높이는 등의 형태로 AI 보안에 큰 위협을 끼친다. 이제 AI도 사용하는 만큼이나 보안을 신경 쓸 때가 됐다. 생성형 AI, 보안 없이도 괜찮을까? 지난 2023년 3월, 삼성전자에서 임직원들이 생성형 AI 서비스인 챗GPT를 활용하던 중 기업의 내부 정보가 외부로 유출되는 사고가 발생했다. 특히 반도체 설비 계측 데이터베이
- 구서경 기자·김재황 기자
- 2025-03-28 16:08