AI 기반 사기 범죄 급증, 고령층 타깃 피해 심화
최근 몇 년간 AI 기술의 발전으로 인해 딥페이크와 AI 음성 모방을 이용한 사기 범죄가 급증하고 있다. 특히 기관을 사칭한 전화금융사기가 나날이 진화하고 있으며, 이에 대응하는 기술적·제도적 방안이 요구되고 있다.
AI를 활용한 음성 모방 기술, 이른바 '딥보이스'는 특정인의 목소리를 정교하게 합성하여 보이스피싱에 악용되고 있다. 2023년 6월, 중국의 범죄 조직은 유명 검사의 목소리를 모방해 범죄를 저질렀고, 미국에서도 2024년 대선 과정 중 조 바이든 대통령의 목소리를 모방한 가짜 전화가 유포되었다.
이러한 신기술 기반 범죄는 기관사칭형 전화금융사기와 결합하여 더욱 정교해지고 있다. 60대 이상의 고령층, 특히 여성들이 주요 타겟이 되는 이유는 은퇴 후 사회적 활동이 줄어들며 정보 습득이 부족해지고, 심리적 압박에 취약해지는 경향이 있기 때문이다. 범죄 조직은 검찰이나 금융감독원을 사칭하며 선한 역할과 악역을 분담해 피해자를 세뇌하고, 피해자가 자신의 재산을 범죄 조직에 송금하게 만든다. 올해 1~9월까지 발생한 기관사칭형 피해 중 60대 여성의 피해 비율은 급증했으며, 1억 원 이상의 고액 피해 건수도 전년 대비 172% 증가했다.
AI 기반 사기 범죄는 이메일 피싱 분야에서도 그 영향력을 확대하고 있다. 생성형 AI의 발전으로 비즈니스 이메일 침해(BEC) 사기가 증가했으며, 보고서에 따르면 전체 스팸메일의 49%가 BEC 사기와 연관되어 있으며, 그중 40%가 AI로 생성된 것으로 밝혀졌다. 이러한 기술의 악용에 대응하기 위해 금융기관과 통신사들은 AI 기반 이상거래 탐지 시스템과 발신번호 관리 기술을 개발해 범죄 예방에 나서고 있다. 금융기관들은 AI와 머신러닝 기술을 활용해 실시간 거래 모니터링과 패턴 학습을 통해 의심스러운 거래를 탐지하고, 통신사들은 발신번호 통합 관리 시스템과 익명호 수신거부 서비스를 통해 전화금융사기를 방지하고 있다.
한편 피해자가 이러한 범죄에 노출될 경우 즉시 경찰에 신고하고 금융기관에 계좌 지급정지를 요청해야 한다. 경찰서에서 피해 신고확인서를 발급받은 후 금융회사를 통해 피해구제 절차를 진행할 수 있다. 뿐만아니라 개인정보 보호와 휴대전화 보안을 강화하고 피해금 환급 절차를 밟는 것이 중요하다. /윤소리 기자