상단영역

본문영역

[이슈 추적] ‘딥 페이크’, 이제 나도 당할 수 있다

경찰청, 불법 합성물 제작 유포 94명 검거
연예인이나 유명인사만이 아닌 일반인, 지인 피해 늘어나
소셜미디어 활발히 하는 사람이 피해자가 될 우려 커

  • 기사입력 2021.05.03 14:18
  • 최종수정 2021.05.03 14:19

우먼타임스 = 성기평 기자 

어느 날 당신이 하지도 않은 모습이나 언행이 동영상이나 사진으로 소셜미디어에 퍼진다. 누구도 그게 당신이 아니라고는 생각하지 않는다. 그런데 그게 만약 성적인 영상이나 사진이라면 당신은 수치심에 죽고 싶은 심정일 것이다. 일일이 해명하기도 어렵고 삭제를 하려 해도 이미 수없이 인터넷 상에 복제 확산된 후라서 별 방도가 없다.

당신은 아마도 인스타그램과 페이스북 등에 얼굴이나 동영상을 많이 업로드한 사람일 것이다.

이제 ‘딥페이크’가 유명인만의 문제가 아니다. 지난해 사회를 떠들썩하게 한 n번방 사건에서 우리에게 생소했던 ‘딥페이크’니 ‘지인능욕’이니 하는 말이 등장하면서 성범죄로서의 딥페이크에 대한 경각심이 높아졌다.

딥페이크(Deepfake)는 인공지능 심층학습을 뜻하는 ‘딥러닝(deep learning)’에서 따온 ‘deep’과 가짜라는 의미의 ‘fake’를 더한 합성어다. 본래는 인공지능 기술을 이용해 사람 이미지를 합성하는 기술로, 인물의 얼굴과 특정 부위를 영화 컴퓨터 그래픽처럼 합성한 영상 편집물을 칭하는 용어다. 영화나 영상산업에서 많이 이용된다. 특정 배우의 젊은 시절이나 늙은 모습을 재현하거나 세상을 떠난 배우를 다시 등장시키는 것도 가능하다.

딥 페이크 기술. (연합뉴스 그래픽)
딥 페이크 기술. (연합뉴스 그래픽)

이 기술이 유명인사나 연예인, 지인들의 얼굴이나 몸을 합성해 음란물로 만들거나, 정치적이거나 개인적 목적 하에 상대가 진짜로 언행한 것 같은 가짜 영상이나 가짜 뉴스로 만들어 유포하는 디지털 범죄로 이어지고 있다.

경찰청 국가수사본부는 지난해 12월 1일부터 올해 4월 30일까지 불법합성물 제작·유포 사범 집중수사를 추진해 94명을 검거해 이 가운데 10명을 구속했다고 2일 밝혔다. 검거된 피의자 가운데 10대가 65명으로 69.1%였고, 20대는 17명으로 18.1%였다. 컴퓨터 기술에 밝은 10대와 20대가 주로 범죄를 저지른 것이다. 피해자들은 거의 전부가 여성인데 114명 중 95.6%였다.

검거된 사례 중에는 대학교 동기나 초등학교 동창생, 선생님 등을 타인의 신체와 합성해 인터넷에 유포한 이른바 ‘지인 능욕’ 범죄가 있었다. 텔레그램 성착취방인 n번방의 영상이나 불법합성물을 판매해 부당이득을 올린 사례도 적발됐다.

딥페이크 기술이 범죄로 악용되기 시작한 건 결국 기술의 발전이다. 전에는 전문가가 많은 시간과 비용을 들여야 가능했다. 하지만 딥페이크 기술이 발전하면서 이제는 어느 정도 컴퓨터를 다루는 기술만 있으면 손쉽게 가짜 영상을 만들 수 있게 된 것이다. 과거에는 자연스러운 합성을 위해선 많은 데이터를 필요로 했지만 이제 인터넷에 사진과 동영상이 홍수를 이루다 보니 쉬워진 것이다. 즉 누구나 쉽게 가해자도, 피해자도 될 수 있다는 뜻이다. 원본과 딥페이크 영상은 구분이 어려울 정도다.

국내에서는 과거 유명 여자 연예인의 얼굴을 불법 포르노 영상과 합성한 딥페이크 영상물이 다수 유통되었다. 그러나 요즘엔 일반인들까지 대상이 점점 확대되면서 심각성이 커지고 있다. 특히 인스타그램이나 페이스북, 트위터 등 누구나 볼 수 있는 SNS에 내 사진이나 영상들이 많이 노출되어 있다면 쉽게 표적이 될 수 있다.

메신저 텔레그램을 매개로 성착취 동영상을 제작, 돈을 받고 유포했던 n번방 사건 때 일부 가담자들은 딥페이크 기술을 악용해 특정 여성의 사진을 다른 음란물에 합성한 뒤 유포하는 이른바 ‘지인능욕’ 범행을 벌였다.

네덜란드 사이버보안 연구기업 딥트레이스 보고서에 따르면, 온라인상에 존재하는 딥페이크 영상은 2018년 7,964개에서 2019년 1만4,678개로 폭증했다. 이 가운데 96%가 음란물이었다.

오바마 전 대통령이 트럼프 전 대통령은 모욕하는 가짜 영상. (버즈 피드 유튜브 캡처)
오바마 전 대통령이 트럼프 전 대통령은 모욕하는 가짜 영상. (버즈 피드 유튜브 캡처)

버락 오바마 전 미국 대통령이 트럼프 전 대통령을 ‘머저리(dipshit)’라고 비난하는 가짜 영상이 큰 논란이 된 적이 있다. 이 영상은 딥페이크로 조작한 것인데 오바마의 표정이나 억양이 매우 사실적이어서 가짜뉴스를 이렇게 생생하게 만들 수 있다는 점에서 충격을 주었다. 조작된 영상은 선거 결과에 영향을 미치거나 국가안보에 위협을 가할 수도 있다. 이 때문에 딥페이크는 선거철마다 경계의 대상이 되고 있다.

이에 대항해 딥페이크를 탐지하고 막기 위한 기술도 개발되고 있다. 딥페이크를 탐지하는 비법은 눈 깜빡임에 있다. 온라인에 사진을 올릴 때는 눈을 뜨고 있는 사진을 올린다. 딥러닝의 특성상 주어지지 않은 정보는 만들어내지 못한다. 따라서 딥페이크로 만든 가짜 영상은 눈을 깜빡이지 않는다. 이 점에 착안해 눈 깜빡임 탐지로 딥페이크 영상인지 아닌지를 분별해 낼 수 있다.

딥페이크 범죄는 텔레그램 n번방 사건 이후인 지난해 6월 처벌규정이 마련됐다. 국회는 n번방 사건에서 드러난 딥페이크를 처벌하는 조항을 신설했다. ‘성폭력범죄의 처벌 등에 관한 특례법’ 개정안이다. 딥페이크를 이용해 얼굴·신체 등을 합성한 음란물을 제작·반포할 경우 5년 이하 징역 또는 5000만 원 이하 벌금형에 처해질 수 있다. 영리를 목적으로 딥페이크 음란물을 제작·반포한 범죄자는 7년 이하 징역으로 가중 처벌할 수 있다. 그러나 딥페이크 제작·유포자만 처벌할 뿐 소지자를 처벌하는 내용은 빠져 불완전하다는 비판이 제기됐다.

불법합성물 범죄 피해가 발생하거나, 관련 범죄를 발견한 경우에는 사이버범죄신고시스템(ECRM) 등을 통해 신고하면 된다.

이 기사를 공유합니다
당신만 안 본 뉴스

개의 댓글

0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400

내 댓글 모음

모바일버전