최근 보이스피싱을 넘어 생성형 인공지능(AI)을 이용해 자녀의 목소리를 만드는 'AI 피싱' 범죄가 잇따르고 있다.
지난 5일(현지시간) 미국 워싱턴포스트 보도에 따르면 캐나다 중서부 서스캐쳐원주 레지나에 거주하는 루스 카드(73)는 AI 피싱으로 피해를 당할 뻔했다.
그는 최근 손주가 유치장에 갇혔다는 다급한 전화를 받았다. 손주는 카드에게 "친구 다니엘과 차를 타고 가다 사고가 났다"며 "변호사인 다니엘의 아버지와 통화해 달라"라고 말했다.
카드는 다니엘의 아버지라고 소개받은 사람에게 곧장 연락했고 그는 카드에게 "나중에 보험금으로 9400캐나다달러(약 900만원)가 나올 테니 일단 현금으로 그 액수를 보내달라"라고 했다.
통화를 마친 카드는 남편과 함께 은행으로 달려가 하루 인출 한도인 3000캐나다달러를 인출하고 다른 은행을 찾아가 돈을 뽑으려 했다. 그런데 이를 이상하게 생각한 은행 지점장이 카드 부부를 사무실로 불러 "어제도 어떤 부부가 와서 똑같이 급하게 돈을 찾았다"며 "당신이 들은 손자의 목소리가 가짜일 수 있다"라고 말했다.
그제서야 의심이 든 카드가 손자에서 다시 연락했다. 다행히 손자는 무사했다. 알고보니 손자의 음성을 복제하는 일명 '딥보이스'를 활용한 피싱 범죄였던 것이다.
카드는 현지 매체와의 인터뷰에서 "수화기에서 들려온 목소리는 손자와 섬뜩할 만큼 똑같았다"며 "전혀 의심할 생각을 못했다"고 말했다.
이같은 사례는 전 세계적으로 증가하고 있는 것으로 나타났다. 6일(현지시간) 영국 더타임스에도 아들의 목소리를 흉내낸 AI 피싱 사례가 보도됐다.
워싱턴포스트는 "음색과 억양 등 말투를 재현하는 기술이 점차 정교해지고 기술을 이용하는 비용도 싸지면서 범죄 피해의 위험이 더 커지고 있다"라고 지적했다.
UC버클리대 디지털 포렌식 전문가 해니 패리드 교수는 "1년 전만 해도 음성을 복제하려면 대량의 (음성)샘플이 필요했지만 이제는 유튜브나 틱톡같은 소셜미디어에서 가져온 30초짜리 음성으로도 복제가 가능하다"라고 설명했다.
전문가들은 AI 음성 복제 기능을 악용한 보이스피싱 범죄가 확산될 가능성이 커지고 있지만 대비책은 여전히 미흡하다고 지적하고 있다. 올해 초에도 배우 엠마 왓슨이 히틀러의 '나의 투쟁'을 낭독한 듯한 오디오클립 등 유명인의 목소리를 활용한 불법 복제물이 인터넷에 확산되기도 했다.
Copyright @ NEWSTREE All rights reserved.