본문 바로가기
책갈피

인공지능 포르노 '딥페이크'···피해자 25%가 한국 女연예인

ㅇㅇ |2019.10.10 09:57
조회 82 |추천 0
영국 BBC는 7일 네덜란드의 사이버 보안 연구 회사 '딥트레이스'의 딥페이크 연구 보고서를 인용해 2018년 12월 약 8000개로 집계됐던 딥페이크 비디오가 2019년 현재 1만 4698개로 두 배 가까이 늘었다고 보도했다.

이 영상 중 96%는 포르노로 소비되고 있으며, 얼굴 합성 피해자 중에는 미국과 영국의 여배우(46%) 다음으로 케이팝 여자 가수(25%)가 많았다 .

흥미롭게도, 이 자료는 온라인 포럼의 사용자 대다수가 한국에서 온 것이 아니라 중국에서 온 것이라는 것을 보여준다.

https://www.rollingstone.com/culture/culture-news/deepfakes-nonconsensual-porn-study-kpop-895605/


추천수0
반대수0

공감많은 뉴스 연예

더보기

뉴스 플러스