"불법 영상물 제작 기술 보급되면서 관련 피해도 증가"
(서울=연합뉴스) 이상서 기자 = 지인이나 사회관계망서비스(SNS) 이용자의 사진을 합성해 만든 '딥페이크'(Deepfake) 영상물로 인한 피해자 3명 가운데 1명 이상은 미성년자인 것으로 나타났다.
28일 여성가족부 산하 한국여성인권진흥원에 따르면 올해 1월 1일부터 8월 25일까지 디지털성범죄피해자지원센터(디성센터)로부터 딥페이크 피해 지원을 요청한 781명 가운데 36.9%(288명)는 10대 이하였다.
타인의 일상 사진이나 일반 영상물을 성적 불쾌감을 유발할 수 있는 형태로 합성·편집한 것을 의미하는 '딥페이크'로 인해 피해 지원을 요청한 미성년자는 2022년 64명에서 2024년(8월 25일 기준) 288명으로 2년 만에 4.5배가 됐다.
같은 기간 전체 피해 지원 요청자가 212명에서 781명으로 3.7배 증가한 속도보다 더 가파르다.
디성센터 관계자는 "10대와 20대 등 저연령층에서 관련 피해가 높게 나타난 것은 이들이 다른 연령층에 비해 SNS 등을 이용한 온라인 소통과 관계 형성에 상대적으로 익숙하기 때문"이라며 "최근 딥페이크 기술이 발전하고, 생성형 인공지능(AI)이 등장함에 따라 손쉽게 불법 영상물을 제작할 수 있는 기술이 보급되면서 관련 피해도 증가하고 있다"고 분석했다.
실제로 최근 들어 딥페이크로 인한 피해가 전국 곳곳의 학교에서 급격하게 확산하면서 교육 당국과 각 지역 교육청이 강력 대응에 나섰다.
무단으로 도용된 본인의 사진이 성적 수치심을 유발할 수 있는 형태로 합성돼 유포됐다면 디성센터로 피해 상담을 접수할 수 있다.
피해 지원 상담은 365일 운영하는 전화(☎ 02-735-8994)나 온라인게시판(d4u.stop.or.kr)을 통해 신청하면 된다.
디성센터 관계자는 "저연령대 피해자에 대한 지원을 강화하고, 국내외 관련 기관·기업과 공조를 통해 삭제 대응에 최선을 다하겠다"고 밝혔다.
shlamazel@yna.co.kr