인공지능 기술을 이용해 기존의 포르노 영상에 유명 여자 연예인의 얼굴을 붙이는 일명 '딥페이크' 포르노가 급증하는 가운데, 영상 속 얼굴 도용 피해자의 25%가 한국 여자 연예인인 것으로 나타났다.
영국 BBC는 7일 네덜란드의 사이버 보안 연구 회사 '딥트레이스'의 딥페이크 연구 보고서를 인용해 2018년 12월 약 8000개로 집계됐던 딥페이크 비디오가 2019년 현재 1만 4698개로 두 배 가까이 늘었다고 보도했다. 이 영상 중 96%는 포르노로 소비되고 있으며, 얼굴 합성 피해자 중에는 미국과 영국의 여배우(46%) 다음으로 케이팝 여자 가수(25%)가 많았다고 미국 대중문화전문지 롤링스톤은 전했다. 딥트레이스의 연구진들은 2차 피해를 막기 위해 피해자들의 이름을 공개하지 않겠다는 방침이다.
딥트레이스에 따르면 케이팝 스타의 얼굴을 합성한 딥페이크 동영상 중 대부분은 한국이 아닌 중국에서 만들어지는 것으로 나타났다. 롤링스톤은 "케이팝이 50억 달러(약 5조 9750억) 규모의 세계적인 산업으로 성장하며 케이팝 스타들이 딥페이크 포르노의 피해자가 되고 있다"며 이러한 현상은 케이팝의 인기가 매우 높다는 방증일 수도 있다고 전했다.
https://m.news.naver.com/read.nhn?oid=025&aid=0002943681&sid1=104&mode=LSD
짱깨들이 유통 시킨다고 염병..