• 실시간 속보창 보기
  • 검색 전체 종목 검색

뉴스속보

'그것이 알고 싶다' 소름끼치는 딥페이크 기술 "손이 부들부들"
한국경제 | 2021-02-28 10:04:27
"모르는 사람한테 DM이 왔어요. 보여줄 게 있다더니 제 얼굴로 합성한 여
성의 나체 사진을 보내면서 200만 원을 보내지 않으면 지인들에게 유포한다고
하더라고요. 하라고 하고 차단했는데 손이 벌벌벌 떨렸어요."

27일 방송된 SBS '그것이 알고싶다'에서는 '보고, 듣고, 의심하라
. 가짜와의 전쟁, 딥페이크'라는 제목으로 '딥페이크' 기술과 이를
악용한 범죄를 추적했다.

피해자 A 씨는 SNS 메시지를 통해 낯선 이에게서 자신의 성관계 영상을 받았다
. 분명 직접 촬영한 영상도 아니었고 실제 있었던 일도 아니었지만, 영상 속 인
물은 자신의 얼굴과 똑 닮아있었다. 기억에도 전혀 없고, 있을 수도 없는 일인
데, 영상 속의 '나'는 진짜 나를 보듯 표정과 움직임까지 자연스러웠다
.




놀란 마음을 가라앉히고 영상을 자세히 보기 시작한 A씨는 이 영상이 본인의 얼
굴 사진과 다른 사람의 몸을 합성해 만든 가짜 동영상인 것으로 보였다.

세상에 얼굴이 알려진 연예인이나 공인도 아닌, 평범한 사람으로 지내온 자신이
어떻게 본인도 모르는 사이 성 착취 동영상의 주인공이 된 것인지 알 수 없다
. 문제는 이런 메시지를 받은 사람이 A 씨 뿐만이 아니라는 사실이다.

인공지능의 한 분야인 딥러닝(Deep learning)을 활용해, 사람의 얼굴이나 특정
부위를 합성한 가짜 동영상을 만들어내는 기술 '딥페이크(Deepfake)'
. 최근, 세계적인 인기를 얻고 있는 K-POP 연예인들의 얼굴을 이용한 딥페이크
영상물이 만들어지고 있는데, 대부분 성 착취 동영상의 형태로 악용되고 있어
사회적으로 큰 이슈가 되고 있다.



'그것이 알고싶다' 제작진이 만난 제보자들 역시 이 딥페이크 기술에
자신들의 사진을 이용당한 피해자였다. 딥페이크 범죄는 유명 연예인을 넘어 일
반인에게까지 뻗치고 있었다.

IT 산업은 물론 엔터테인먼트 산업까지 다양한 분야에 쓰이고 있는 인공지능 기
술. 그중 하나인 '딥페이크'는 이미 사망한 사람의 얼굴을 재현해 가족
들을 위로하기도 하고, 과거의 추억을 소환해 새로운 감동을 만들어 내며, 신원
보호가 필요한 사람들을 위한 안전장치도 될 수 있는 등 제대로만 쓰인다면 긍
정적인 부분이 많은 기술이다. 그리고 앞으로 더 발전해, 실제와 거의 차이가
없는 정교한 동영상 제작도 가능할 것으로 보인다.

하지만 전문가들은 '딥페이크'가 성착취 동영상 제작의 사례처럼 범죄
에 악용될 경우, 이제는 보이는 것을 보이는 대로 믿을 수 없는, 가짜와 진짜를
구분하기 어려운 치명적인 사회적 위험을 발생시킬 수 있다고 경고한다.

'그것이 알고싶다' 제작진은 전문가들의 자문을 받아 '딥페이크&#
39; 기술을 이용한 범죄 실험을 진행했다. 대상은 부모와 자녀. 자녀의 '딥
페이크' 영상을 받아본 부모님들이 과연 어떤 반응을 보였을까.

병원에 입원한 자녀가 부모를 속여 돈을 요구하는 피싱 사기 모의 실험을 진행
한 것. 딥페이크 영상을 받은 부모들은 "자녀가 아닌 것 같다"고 의
심하면서도 신용카드 사진을 바로 전송했다.

한 인공지능 연구원 제보자는 "딥페이크 제작자들이 활발하게 활동한 사이
트는 K-POP 아이돌과 일본 AV 배우들 영상을 합친 사이트였다. 누가 누가 딥페
이크 포르노물을 더 정교하게 만들어내느냐를 대결하는 분위기였다"고 전
했다.

한 네덜란드 사이버 보안업체 CEO는 "사진이 올라와 있는 SNS가 이 기술의
피해자가 될 수 있다"고 경고했다.

이미나 한경닷컴 기자 helper@hankyung.com


ⓒ 한국경제 & hankyung.
com
, 무단전재 및 재배포 금지
이시각 주요뉴스
  • 한줄 의견이 없습니다.

한마디 쓰기현재 0 / 최대 1000byte (한글 500자, 영문 1000자)

등록

※ 광고, 음란성 게시물등 운영원칙에 위배되는 의견은 예고없이 삭제될 수 있습니다.