사진/ 더가디언(As deepfake video technology improves, the scale of online fraud will grow even further, experts say. Photograph: Tero Vesalainen/Getty Images)
인공지능(AI) 기술이 빠르게 발전하면서 이를 악용한 새로운 형태의 사기가 늘어나고 있어 각별한 주의가 요구되고 있다. 딥페이크 영상과 음성까지 활용되면서 기존보다 훨씬 정교하고 식별하기 어려운 사기 수법이 등장하고 있다는 경고도 나오고 있다.
미 연방수사국(FBI)은 지난해 5월 AI로 생성된 음성 메시지를 이용해 미국 고위 공직자를 사칭하는 사건이 발생했다고 경고한 바 있다. 당시 사기범들은 정부 고위 인사나 전직 공직자를 가장한 음성 메시지를 만들어 그들의 지인이나 업무 관계자들을 대상으로 접근한 것으로 알려졌다.
텍사스에서도 AI 기술을 이용한 온라인 혼란 사례가 보고되고 있다. 라운드락 경찰서는 최근 소셜미디어에서 AI로 만든 ‘주택 침입(home invasion)’ 영상과 함께 공포심을 유발하는 메시지를 퍼뜨리는 사례가 확산되고 있다며 학부모와 청소년들에게 주의를 당부했다.
경찰은 이러한 영상이 실제 범죄는 아니지만 시민들에게 공포와 혼란을 일으킬 수 있으며, 상황에 따라 법적 책임이 발생할 수 있다고 경고했다. 전문가들은 AI 기술이 사기 범죄에 활용될 경우 현실과 구별하기 어려운 수준의 콘텐츠가 만들어질 수 있다고 지적한다.
특히 딥페이크 음성이나 영상은 가족이나 지인을 사칭한 긴급 연락 형태의 사기로 이어질 가능성이 있어 주의가 필요하다.
보안 전문가들은 AI 기반 사기를 피하기 위해 몇 가지 기본적인 대응 수칙을 제시한다. 우선 영상이나 음성 메시지가 실제 인물인지 확인되지 않은 상태에서 금전이나 개인정보 요구가 있을 경우 즉시 대응하지 말고 직접 연락을 통해 사실 여부를 확인해야 한다.
또 이메일, 문자, SNS 메시지 등에서 의심스러운 링크를 클릭하지 않는 것이 중요하며, 계정 보안을 위해 이중 인증(2FA) 설정을 사용하는 것이 권장된다.
텍사스 주요 언론사들이 실시한 설문조사에 따르면 응답자의 약 35.9%만이 AI 기술을 잘 이해하고 있다고 답했고 대다수는 더 많은 정보를 원한다고 밝혔다. 또 약 49.5%는 뉴스 웹사이트나 앱을 통해 관련 정보를 얻는 것을 선호한다고 응답했다.
전문가들은 “AI 기술은 강력한 도구이지만 동시에 악용될 가능성도 커지고 있다”며 “정보를 접할 때 사실 여부를 확인하고 의심스러운 상황에서는 즉각적인 대응을 자제하는 것이 가장 중요한 예방책”이라고 강조했다.
안미향 기자 amiangs0210@gmail.com














