본문 바로가기
IT

AI 음성 사기 주의! 가족과 친구의 목소리를 복제한 사기꾼들

by 크립토스탁 2025. 3. 1.

AI 음성 사기 주의! 가족과 친구의 목소리를 복제한 사기꾼들

마치 SF 영화 속 이야기 같지만, 인공지능(AI)을 활용한 음성 복제 사기가 현실이 되었습니다. 사기범들은 AI 기술을 이용해 가족, 친구, 동료의 목소리를 그대로 흉내 내어 우리를 속이려 합니다.

2023년 보안 소프트웨어 기업 맥아피(McAfee)의 조사에 따르면, 7개국 성인 중 4분의 1이 AI 음성 사기를 경험했으며, 피해자의 77%가 실제로 돈을 잃었다고 합니다.

AI 음성 사기는 어떻게 이루어질까요?

사기꾼들은 먼저 소셜 미디어에서 짧은 음성 클립을 찾습니다. 맥아피의 연구에 따르면 단 3초의 샘플만으로도 현실감 있는 음성을 생성할 수 있다고 합니다.

만약 SNS에 음성이 포함된 동영상이 없다면, 전화로 간단한 대화를 유도해 녹음하기도 합니다. 예를 들어, "여기 김철수 씨 계신가요?"라고 묻고, 상대가 "여긴 그런 사람 없어요, 10년째 여기 살고 있는데"라고 대답하는 것만으로도 충분한 샘플을 확보할 수 있습니다.

이렇게 확보한 음성은 AI 프로그램에 입력되어 음성 복제가 이루어지며, 이후 사기범들은 이 음성을 이용해 피해자에게 전화를 걸어 돈을 요구합니다.

누가 음성 복제 사기의 대상이 될까요?

가족과 친구

대표적인 사례가 ‘손자 사기(Grandparent Scam)’입니다. 사기범이 할아버지나 할머니에게 전화를 걸어 "할머니, 저예요. 감옥에 갇혔어요. 보석금이 필요해요"라고 하면, 많은 분들이 당황해서 돈을 보내게 됩니다.

상사나 회사 동료

만약 상사의 음성을 복제한 사기범이 "당장 이 계좌로 회사 자금을 이체하라"라고 지시한다면, 많은 직원들은 이를 따를 가능성이 큽니다.

부동산 중개인

부동산 거래에서는 거액의 돈이 오가기 때문에, 사기범들이 부동산 중개인의 음성을 복제해 계약금이나 보증금을 가로채는 사례가 발생하고 있습니다.

변호사 및 금융 전문가

법률 전문가나 금융 컨설턴트를 사칭해 "급한 법적 문제가 발생했으니 돈을 송금하라"고 요구하는 사례도 증가하고 있습니다.

AI 음성 사기를 구별하는 방법

  • 대화가 짧고 급박하다: 보통 짧고 다급한 메시지를 남깁니다. 예: "엄마, 나야! 지금 큰일 났어, 당장 돈 보내줘!"
  • 목소리는 같지만, 뭔가 이상하다: 목소리는 비슷하지만 대화 방식이나 감정이 다를 수 있습니다.
  • 비상 암호를 물어본다: 가족끼리 비상 시 사용할 암호를 미리 정해두고, 의심스러운 전화가 오면 확인하세요.
  • 알 수 없는 번호에서 전화가 온다: 신뢰할 수 없는 번호에서 걸려오는 전화는 주의하세요.
  • 결제 방법이 이상하다: 사기범들은 주로 기프트 카드, 가상화폐 등의 추적이 어려운 결제 수단을 요구합니다.

AI 음성 사기의 피해를 입었다면?

만약 AI 음성 사기에 당했다면 즉시 조치를 취하세요.

  1. 경찰 및 관련 기관에 신고: 
  2. 은행 및 금융 기관에 알리기: 카드 정보를 제공했다면 즉시 해당 금융사에 연락하여 계좌를 보호하세요.
  3. 신분 도용 방지 서비스 이용: ID 도용 보호 서비스를 활용하여 추가적인 피해를 예방하세요.
  4. 신용 보고 기관에 연락: 주요 신용 보고 기관(Experian, Equifax, TransUnion)과 연락하여 계정을 보호하세요.
  5. 해당 전화번호 차단: 사기범이 다시 연락할 수 없도록 차단하세요.
  6. 가족과 친구에게 알리기: 동일한 수법의 피해자가 발생하지 않도록 주의하세요.

스스로를 보호하세요!

AI 기술이 발전하면서 신종 사기 수법이 계속 등장하고 있습니다. 의심스러운 전화는 반드시 확인하고, 비상시 사용할 암호를 가족과 미리 정해두세요.

#AI사기 #음성복제 #신종사기 #보이스피싱 #금융사기 #사기예방

반응형