영국 BBC는 7일 네덜란드의 사이버 보안 연구 회사 '딥트레이스'의 딥페이크 연구 보고서를 인용해 2018년 12월 약 8000개로 집계됐던 딥페이크 비디오가 2019년 현재 1만 4698개로 두 배 가까이 늘었다고 보도했다. 이 영상 중 96%는 포르노로 소비되고 있으며, 얼굴 합성 피해자 중에는 미국과 영국의 여배우(46%) 다음으로 케이팝 여자 가수(25%)가 많았다 . 흥미롭게도, 이 자료는 온라인 포럼의 사용자 대다수가 한국에서 온 것이 아니라 중국에서 온 것이라는 것을 보여준다. https://www.rollingstone.com/culture/culture-news/deepfakes-nonconsensual-porn-study-kpop-895605/
인공지능 포르노 '딥페이크'···피해자 25%가 한국 女연예인
이 영상 중 96%는 포르노로 소비되고 있으며, 얼굴 합성 피해자 중에는 미국과 영국의 여배우(46%) 다음으로 케이팝 여자 가수(25%)가 많았다 .
흥미롭게도, 이 자료는 온라인 포럼의 사용자 대다수가 한국에서 온 것이 아니라 중국에서 온 것이라는 것을 보여준다.
https://www.rollingstone.com/culture/culture-news/deepfakes-nonconsensual-porn-study-kpop-895605/