요즘 젊은층들이 많이 이용하는 SNS에서 지인의 사진과 음란물을 합성하는 이른바 '지인능욕' 성범죄가 기승을 부리고 있습니다.
심지어 지인의 신상정보까지 공개되는 경우가 허다한데, 문제가 심각하지만 적발이 쉽지 않고 처벌 수위도 솜방망이에 그치고 있습니다.
정수정 기자가 취재했습니다.
【 기자 】
한 SNS 페이지입니다.
아는 사람의 사진을 보내면, 나체 사진 등 음란물과 합성해주겠다는 계정을 쉽게 찾아볼 수 있습니다.
10~20대가 자주 접하는 SNS 공간에서 불법 합성 사진을 만들어 올리는 이른바 '지인능욕'입니다.
▶ 인터뷰(☎) : 사진 유출 피해자
- "A 학교, 무슨 활동하는지 다 적어놓고 이름도 적어놨어요. 사진을 보면 고화질에 선거 포스터 만들듯이 음란물이랑 얼굴이 고화질로…."
최근에는 합성 기술이 정교해지면서 동영상까지 만들어내고 있습니다.
▶ 인터뷰 : 강지홍 / AI 영상 전문가
- "딥페이크 기술은 딥러닝(인공지능 기술)이랑 페이크(가짜) 이미지 비디오의 합성어거든요. 영상 합성해내서 가짜로 인물을 바꾸거나…."
이런 피해를 호소하며 사이버성폭력상담센터에 들어오는 상담만 매달 30~40건에 이릅니다.
하지만 가해자를 적발하기도 쉽지 않은데다, 현행 성폭력처벌법에는 사진 합성과 재편집은 처벌 근거도 없습니다.
이러다보니 정보통신망법상 명예훼손이나 음란물 제조 혐의를 적용하는데, 대부분 벌금형 정도에 그치고 있습니다.
▶ 인터뷰 : 이효린 / 한국사이버성폭력대응센터 활동가
- "명백한 성폭력 범주 안에 들어감에도 성폭력 사건으로 다뤄지지 못하고, 성폭력처벌법으로 진행을 못 하니까 …."
온라인 공간 안에서 벌어지는 새로운 유형의 성범죄 처벌을 위한 법 개정이 필요하다는 지적입니다.
MBN뉴스 정수정입니다. [ suall@mbn.co.kr ]
영상취재 : 김정훈 기자, 김광원 VJ
영상편집 : 이우주