베트남▪︎신시대

사이버 범죄 '여전'...AI법 등에 대응 효과 기대

급속한 디지털 기술 발전 속에서 온라인 사기는 점점 더 정교해지고 있으며, 특히 딥페이크 기술의 등장으로 인해 친척, 기관, 기업 등을 사칭해 자산을 탈취하는 사례가 늘고 있다. 이러한 현실은 디지털 플랫폼 관리 강화, 법적 제도 개선, 그리고 사이버 공간에서의 위험을 사전에 예방할 수 있도록 대중의 인식과 경계심을 높이는 노력이 필요함을 시사한다.

유엔 사이버범죄방지협약 서명식 개막식. (사진: 투이 응우옌)
유엔 사이버범죄방지협약 서명식 개막식. (사진: 투이 응우옌)

국가사이버보안협회가 실시한 2025년 개인 사용자 대상 사이버보안 설문조사 보고서에 따르면, 2025년 온라인 사기 피해자 수가 2024년에 비해 크게 감소한 것으로 나타났다. 구체적으로, 555명 중 약 1명꼴(0.18%)이 피해자가 되었으며, 이는 2024년의 0.45%에 비해 현저히 낮은 수치다. 이는 당국, 기술 기업, 전문 기관, 언론이 공동으로 지역사회의 인식 제고에 힘쓴 긍정적인 신호로 평가된다.

그러나 사기 행위가 완전히 사라진 것은 아니며, 오히려 더욱 정교한 형태로 진화하고 있다는 점에 주목할 필요가 있다. 특히 딥페이크 기술을 악용해 이미지, 음성, 신원을 도용하는 사례가 늘어나면서, 사용자들이 진짜와 가짜를 구별하기가 훨씬 어려워지고 있다.

부 듀이 히엔 국가사이버보안협회 부사무총장 겸 사무국장은 “현재 온라인 사기의 전반적인 상황을 보면 고무적인 개선이 있었으나, 새로운 도전 과제도 계속 등장하고 있다”고 밝혔다. 그는 “이제 이미지, 음성, 영상만으로는 신원 확인의 신뢰 수단이 될 수 없다”며, “딥페이크 기술은 사용자가 신속한 결정을 내리도록 유도하고 필수적인 검증 절차를 건너뛰게 만드는 시간 압박 시나리오와 결합되는 경우가 많다”고 했다.

따라서 개인정보 보호의 중요성이 더욱 커지고 있다. 딥페이크 기술은 실제 데이터가 제공될 때 비로소 효과를 발휘하기 때문이다. 소셜 네트워크나 검증되지 않은 플랫폼에 이미지, 음성, 개인정보를 부주의하게 공유하면, 정교한 신원 도용을 쉽게 만들 수 있다.

딥페이크는 인공지능(AI) 시대의 가장 심각한 도전 과제 중 하나로 부상하고 있다. 진짜와 가짜의 경계가 점점 모호해지고 있기 때문이다. Hung AI Creative의 전문가 훙은 “보고 듣는 것이 진짜가 아닐 수 있다"며 "이미지, 음성, 영상까지 오늘날의 AI 도구는 육안으로 구별하기 어려울 정도로 매우 사실적인 가짜 콘텐츠를 쉽게 생성할 수 있다”고 했다.

온라인 사기 위험을 넘어, AI가 생성한 콘텐츠 관리 역시 새롭고 복잡하며 민감한 과제로 떠오르고 있다. 실제로 일부 AI 챗봇은 민감한 딥페이크 콘텐츠를 생성·유포할 수 있어, 사이버 공간에서 인권, 존엄성, 프라이버시를 심각하게 침해하는 사례가 발생하고 있다. 이에 따라 위험을 통제하면서도 투명하고 책임감 있으며 지속 가능한 AI 발전 환경을 보장할 수 있는 효과적인 관리 체계 마련이 시급하다.

이 같은 상황의 원인에 대해, 베트남국립대학교 하노이 교육대학 부총장이자 베트남-프랑스 심리학연구소 전문가인 쩐 탄 남 부교수는 “정보 과잉 시대에 살고 있는 젊은 세대가 온라인 사기에 특히 취약하다”고 지적했다. 정보의 흐름이 빠르고, ‘놓칠까 봐 두려운 심리(FOMO)’로 인해 감정 조절이 어렵고 위험 평가가 부족해진다는 것이다. 군중 심리, 소셜 네트워크상의 조작된 증거에 대한 맹신, 비판적 사고 및 디지털 금융 사고의 부족, 검증보다 속도를 우선시하는 태도, 인정 욕구 등이 젊은 층이 사기 함정에 빠지는 주요 원인으로 꼽혔다.

AI가 빠르게 발전함에 따라, 대중에게 적절한 지식, 기술, 태도를 갖추게 하는 것이 가장 중요한 ‘방패’로 여겨진다. 전문가들은 “송금 요청, 거래 확인, 개인정보 제공 요청이 전화, 메시지, 영상 등으로 오더라도, 설령 지인, 리더, 기관, 익숙한 플랫폼에서 온 것처럼 보여도 각별히 주의해야 한다”고 조언한다.

공식 채널을 통한 정보 확인이나 관련 기관에 직접 연락해 사실을 검증하는 것이 위험을 줄이는 핵심이다. 인식 제고와 함께, 딥페이크를 식별하고 예방·통제할 수 있는 역량을 개인에게 갖추게 하는 것이 오늘날 정보보안과 디지털 보안 보호에 있어 시급한 과제로 강조되고 있다.

이러한 현실에 대응해, 당국은 온라인 거래, 쇼핑, 상호작용 시 국민 보호를 위한 권고를 지속적으로 발표하고, AI 관련 법적 기반도 강화하고 있다. 과학기술부 산하 국가디지털기술·디지털전환연구소 쩐 반 선 부소장에 따르면, 2025년 12월 10일 국회에서 통과되어 2026년 3월 1일부터 시행되는 ‘인공지능법’은 위험 분류, 이해관계자 책임 규정, 관리기관의 감독·개입·AI 시스템 위반 처리 권한 부여 등 비교적 포괄적인 법적 토대를 마련했다.

이 법은 딥페이크 기술을 사기나 불법 행위에 사용하는 것을 엄격히 금지하며, 생성형 AI 시스템이 AI가 생성·수정한 콘텐츠에 라벨을 부착하고, 관리 및 추적을 위한 식별 조치를 적용하도록 의무화했다. 과학기술부는 AI 국가 관리의 주관 부처로서 위험 분류 및 적합성 평가를 주도한다. 심각한 피해 위험이나 중대한 사고가 확인될 경우, 관계 당국은 해당 시스템의 중단, 회수, 재평가를 명령해야 한다.

특히 아동 피해, 사회 질서 및 안전 저해 등 중대한 위반이 발생할 경우, 관련 조직·개인은 인공지능법에 따라 서비스 제한·중단뿐 아니라 행정처분, 형사처벌, 손해배상 등 법률이 정한 제재를 받을 수 있다.

이러한 접근 방식은 혁신을 장려하되, 인권과 사회적 이익을 침해하는 AI 오용은 단호히 배격한다는 입장을 분명히 하며, 기술이 안전하고 책임감 있게, 지속 가능하게 발전할 수 있도록 보장한다.


top