인공지능(AI) 도구는 여러 가지 이유로 합법적으로 유용할 수 있지만, 범죄자들이 이를 악용하여 현실적이면서도 가짜 목소리, 웹사이트, 비디오 및 기타 콘텐츠를 만들어 사기를 저지르는 데 사용할 수도 있습니다.
홍콩의 한 재무 담당자가 2월에 다국적 기업의 최고 재무 책임자로부터 화상 회의에 참석하라는 전화를 받았을 때, 모든 것이 평소와 다름없어 보였습니다. 최고 재무 책임자와 다른 임원들은 평소처럼 행동하고 들렸지만, 그가 불려간 이유는 평소와 달랐습니다. 그는 여러 은행 계좌에 2,560만 달러를 송금하라는 지시를 받았습니다. 물론 그는 상사의 요청을 따랐습니다.
놀랍게도, ‘최고 재무 책임자’의 이미지와 목소리는 컴퓨터로 생성된 것이었고, 전화에 출연한 다른 임원들의 이미지와 목소리도 마찬가지였습니다. 그리고 계좌는 사기꾼의 것이었습니다. 현지 언론 보도에 따르면, 이 노동자는 놀랍도록 정교한 인공지능 사기의 피해자였습니다. 수백만 달러가 사라졌습니다.
미국의 은퇴자를 대변하는 이익집단인 은퇴자협회(AAPR)는 “인공지능(AI), 새롭고 무섭게 효과적인 사기 행각을 부추기다(AI Fuels New, Frighteningly Effective Scams)”라는 제목의 정보를 게재했습니다.
AARP는 “인공지능 기술의 어두운 면에 오신 것을 환영합니다. 이 기술은 여러분의 돈이나 신원을 훔치기 위한 노력의 일환으로 여러분이 아는 사람들의 목소리와 얼굴을 완벽하게 위조할 수 있습니다.”라고 언급하면서, “이 기술은 범죄자들이 유명인, 법 집행 기관, 심지어 당신을 사칭하는 데 도움이 될 수 있습니다.”라고 말합니다.
과학자들은 수십 년 동안 컴퓨터가 생각하고 예측하도록 프로그래밍해 왔지만, 최근 몇 년 동안에야 컴퓨터가 인간의 목소리, 움직임, 글쓰기 스타일을 효과적으로 모방할 수 있는 수준에 도달했고, 더 어려운 것은 사람이 다음에 말하거나 할 일을 예측할 수 있는 수준에 도달했습니다. 지난 2년 동안 공개된 OpenAI의 ChatGPT, DALL-E, Google의 Gemini(구 Bard), Microsoft의 Copilot과 같은 도구와 기타 쉽게 사용할 수 있는 생성적 AI 프로그램은 이러한 기능 중 일부를 대중에게 제공했습니다.
인공지능(AI) 도구는 여러 가지 이유로 합법적으로 유용할 수 있지만, 범죄자들이 이를 악용하여 현실적이면서도 가짜 목소리, 웹사이트, 비디오 및 기타 콘텐츠를 만들어 사기를 저지르는 데 사용할 수도 있습니다. 많은 사람들이 최악의 상황이 아직 오지 않았다고 우려하고 있습니다.
AARP의 사기 방지 프로그램 책임자인 캐시 스톡스는 “우리는 사기 범죄자들을 위한 ‘산업 혁명’에 접어들고 있습니다”라고 말합니다. 인공지능(AI)은 “끝없는 가능성과, 안타깝게도 끝없는 피해자와 손실을 가져다줍니다.”라고 말하면서 범죄자들은 이미 이러한 “무한한 가능성”의 일부를 이용하고 있습니다.
비디오: 음성 복제 사기를 피하는 방법
유명인 사칭. 요리사 고든 램지가 헥스클래드 조리기구를 지지하는 것처럼 보이는 “딥페이크(deepfake)” (즉, 컴퓨터로 만든 가짜 사람 영상) 영상이 유포되었습니다. 그는 지지하지 않았습니다. 나중에 비슷한 딥페이크 영상이 테일러 스위프트가 르 크루제를 선전하는 모습을 담고 있었습니다. 오프라 윈프리, 켈리 클락슨, 그리고 다른 유명인들의 모습이 인공지능을 통해 복제되어 체중 감량 보충제를 판매하는 데 사용되었습니다.
누구나 이 기술을 사용할 수 있습니다. 다른 앱을 다운로드하는 것과 똑같습니다. 대화를 녹음하고 있다면, 소프트웨어에 입력하고 내가 말하길 원하는 것을 입력할 수 있습니다. 그러면 내 목소리가 그 말을 하는 것처럼 재생될 것입니다. 듣는 사람이 질문을 하면, 인공지능(AI)은 듣는 사람에게 이해가 되는 목소리로 응답을 만들어 낼 수 있는 잠재력을 가지고 있습니다.
피해자들은 이구동성으로 “그것을 보는 것은 믿을 수 없는 일입니다.”라고 그는 말합니다. ”알아차릴 수 없습니다. 마치 그 사람처럼 들립니다. … 무엇이 진짜이고 무엇이 가짜인지 구분하기가 훨씬 더 어렵습니다.”라고 말합니다.
AI가 더욱 정교한 사기를 부추기면서 자신을 보호하는 방법
발신자 ID를 믿지 마십시오. 사업체에서 전화가 오면 전화를 끊고 해당 회사의 전화번호를 찾아서 직접 전화하십시오(은행의 경우, 예를 들어, 재무제표에 나와 있을 것입니다). 연방거래위원회에 따르면, 어떤 제안을 하든 기프트 카드로 지불하라고 요구하는 사람은 사기꾼입니다.
클릭하기 전에 잠시 멈춰 보세요. 이메일이나 문자 메시지의 링크를 클릭하기 전에 그 링크가 합법적인 출처에서 온 것인지 확인하세요. 범죄자들은 매우 정교하게 보이는 메시지를 만들 수 있을 뿐 아니라 실제 웹사이트를 모방한 가짜 웹사이트를 만들 수도 있습니다.
가족을 위한 안전 단어를 선택하는 것을 고려해 보십시오. 가족이나 가까운 지인들과만 공유하십시오. 예를 들어, 누군가 손자라고 주장하며 전화를 걸면, 안전 단어(강아지 이름, 지난 주 함께 먹은 음식, 신체에 남은 상처)를 물어볼 수 있습니다. 만약 그 사람이 안전 단어를 모르면, 그것은 분명히 사기입니다.
위기에 처한 “손자”에게 다시 전화하십시오. 안전한 단어가 없는데 손주나 자녀가 의료 비상 사태나 다른 위급한 상황이 발생했다고 전화하는 경우(때로는 전화하는 사람이 납치되었다고 말하는 경우도 있습니다), 전화가 고장 나서 전화를 걸 수 없다고 말할 수 있습니다. 잠시 멈추고 숨을 쉬십시오(범죄자들은 여러분의 합리적인 사고를 방해하기 위해 여러분을 불안하게 하려고 합니다). 그리고 어쨌든 다시 전화해 보겠다고 말하십시오. 당신의 진짜 손자가 무사히 돌아올 가능성이 높습니다. 걱정하지 마세요.
소프트웨어를 다운로드하기 위해 광고를 클릭하지 마세요. 대한민국 금융위원회(www.fsc.go.kr)에서는 흥미를 유발하는 소프트웨어 광고를 발견하면 링크를 클릭하는 대신 해당 회사의 웹사이트 주소를 입력하여 방문하라고 조언합니다. 온라인으로 검색할 경우, 금융위원회는 “사기꾼들도 검색 엔진에 광고를 게재한다는 사실을 기억하세요. 검색 결과 페이지의 상단에 표시되며, ‘광고’ 또는 ‘후원’이라는 라벨이 붙어 있을 수 있습니다. 이 라벨을 지나쳐 스크롤을 내리면 검색 결과가 표시됩니다.”
개인 정보를 보호하십시오. 신원 도용을 방지하려면, 성명, 집 주소, 주민등록번호, 신용카드 및 은행 정보, 기타 개인 정보를 공개할 때 주의하십시오. 이메일이나 문자 메시지로만 알고 있는 사람과는 절대로 정보를 공유하지 마십시오.
소식을 널리 알리세요. 최신 사기 수법과 위의 조언을 사랑하는 사람들에게 알려 주세요.
사기 신고. 사기를 발견하거나 사기의 피해자가 된 경우, 금융위원회나 경찰에 신고하세요. 당국이 더 많은 정보를 확보할수록 패턴을 더 잘 파악하고, 사례를 연결하고, 궁극적으로 범죄자를 잡을 수 있습니다.
가짜 광고, 가짜 AI
챗봇을 가지고 놀면서 이 기술의 잠재력을 느껴보는 것도 좋은 방법입니다(그리고 꽤 재미있습니다). 그러나 사이버 범죄자들이 소셜 미디어와 검색 엔진에 광고를 내서, 클릭하면 컴퓨터에 악성코드를 다운로드할 수 있는 링크가 있는 AI 도구를 광고한다는 사실을 주의해야 합니다. 금융위원회(FSC)가 경고합니다.
FSC에 따르면 일부 사이트는 가짜라고 합니다. 그러나 “일부 광고는 실제로 실제 소프트웨어로 연결되고 ‘백도어’를 통해 멀웨어를 다운로드하게 해 해킹을 당했는지 알기 어렵게 만듭니다. 그러면 범죄자들이 여러분의 정보를 훔쳐 다크 웹의 다른 해커들에게 팔거나, 여러분의 온라인 계정에 액세스하여 다른 사람들을 속일 수 있습니다.”