생성형 인공지능(AI) 기술이 발전하면서 영상물에 유명인의 얼굴을 합성하는 딥페이크 영상이 작년에 비해 4배 가까이 증가한 것으로 나타났다.
방송통신심의위원회는 유명 연예인 얼굴을 딥페이크 기술을 이용해 성인물 영상과 합성, 유포된 '성적 허위 영상물' 총 4691건에 대해 시정요구를 의결했다고 2일 밝혔다.
방심위는 해외 음란 사이트 등에서 K-POP 아이돌이나 배우 등 연예인의 '성적 허위 영상물' 유포가 증가함에 따라, 지난 1월부터 4월까지 중점 모니터링을 실시했다. 그 결과, 전년 동기 대비 3745건 증가한 4691건을 시정요구를 의결했다.
방심위는 "유명 연예인뿐만 아니라 청소년과 일반인을 대상으로 한 '성적 허위영상물'도 확인되는 등 딥페이크 기술을 악용한 영상물 유포 증가가 심각하게 우려되는 상황"이라고 말했다.
특히, 일상에서 SNS 등에 공개되는 사진・동영상 등 개인정보 유출에 각별히 주의하고 '성적 허위영상물' 유포를 발견한 경우 즉시 방심위로 신고해 줄 것을 당부했다.
방심위는 향후 해외 음란 사이트 등의 중점 모니터링과 심의를 통해 성적 허위영상물과 이를 유통하는 사이트 등을 신속히 차단해 피해를 최소화하는 데 주력할 계획이라고 밝혔다.
Copyright @ NEWSTREE All rights reserved.