배너
닫기
배너

생성 AI가 범죄 도우미로? 딥시크 R1, 랜섬웨어도 알려줬다

URL복사

 

美·日 보안 전문가 "랜섬웨어 소스코드 등 민감 정보 손쉽게 얻어"

 

딥시크가 개발한 생성형 AI 모델이 범죄에 악용될 수 있는 정보를 제한 없이 제공해 논란이 일고 있다. 일본 요미우리신문은 6일, 일본과 미국 보안 전문가들이 딥시크의 AI 모델 'R1'을 대상으로 실험한 결과, 랜섬웨어 소스코드와 화염병 제조법 같은 민감 정보를 손쉽게 얻을 수 있었다고 보도했다.

 

실험을 주도한 미쓰이물산 시큐어디렉션의 요시카와 다카시는 지난 1월 출시된 딥시크의 R1 모델에 특정 지시문을 입력했더니, 실제 사용할 수 있는 수준의 랜섬웨어 소스코드를 제공했다고 밝혔다. 다만, 해당 응답에는 “악의적 목적에 사용하지 말라”는 형식적 경고 문구가 덧붙여졌을 뿐이었다. 요시카와는 같은 문장을 오픈AI의 챗GPT 등 다른 주요 모델에 입력했을 때는 응답 자체를 거부했다고 강조했다.

 

미국 사이버 보안기업 팔로알토네트웍스 조사팀도 R1을 대상으로 실험을 진행한 결과, 로그인 입력값을 탈취하는 악성 프로그램부터 화염병 제조법까지 현실적으로 실행 가능한 수준의 답변을 얻었다고 밝혔다. 조사팀은 “지시문은 전문 지식이 없어도 누구나 입력할 수 있는 수준이었고, 제공된 정보는 그대로 실행 가능한 내용이었다”며 “시장 출시를 서두르다 보니 AI 모델의 안전성과 윤리적 통제가 미흡했던 것으로 보인다”고 분석했다.

 

AI 모델이 고도화될수록 오남용 위험도 함께 커지고 있다는 지적도 제기된다. 요시카와 연구원은 “이 같은 사례가 늘어날 경우, AI가 범죄 도구로 악용될 가능성도 배제할 수 없다”며 “글로벌 AI 업계 전반에서 강력한 안전 대책과 기준 마련이 시급하다”고 경고했다.

 

한편, 딥시크 R1과 오픈AI의 추론 모델 o1은 일본 최고 명문인 도쿄대 입시에서도 상위 성과를 보인 것으로 나타났다. 니혼게이자이신문 보도에 따르면, 두 모델은 올해 도쿄대 이과 3류 시험(의예과 진학 트랙)에서 각각 374점(R1)과 369점(o1)을 기록해, 합격선인 368.7점을 모두 상회했다.

 

특히 영어 과목에서 인간 수험생 평균을 크게 웃도는 성적을 보였으며, 수학에서는 논증 실수로 다소 부진했지만 종합 점수에서는 경쟁력을 입증했다. 이는 AI의 지적 처리 능력이 이미 고등교육 수준에 도달했음을 보여주는 사례로, 향후 교육 분야에서의 활용 가능성과 함께 윤리적 통제 장치의 중요성을 다시금 부각시키고 있다.

 

헬로티 서재창 기자 |









배너









주요파트너/추천기업