사기꾼들은 점점 더 똑똑해지고 있기 때문에 우리는 매일 다른 사람을 속이는 새로운 방법을 찾고 과거에는 일부 사람들이 해킹 Facebook에 있는 귀하의 계정 또는 귀하의 이메일, 그런 다음 그는 친구, 가족 및 계정에 있는 모든 사람에게 이메일을 보내 그들이 귀하이며 귀하가 곤경에 처해 있고 그 돈이 빨리 필요하다는 구실로 돈을 요구하려고 합니다. 그 싸구려 속임수는 아주 적은 비율로 통했지만, 인공지능의 발달로 그 속임수가 무섭게 성공하게 된 것 같다.


신분 도용

사기꾼이 귀하의 소셜 미디어 계정이나 이메일을 해킹하려면 해커가 되어야 하고 대부분의 경우 다른 사람들이 그것을 믿지 않고 전화를 걸기 때문에 사칭 사기가 잘 작동하지 않는 이유를 아십니까? 그러나 만약 그가 당신의 친구, 또는 아마도 당신의 형제, 아내 또는 당신과 가까운 누군가가 당신에게 전화를 걸어 음성으로 말하고 그가 필요하기 때문에 당신에게 돈을 빌려달라고 요청한다면 어떻게 될까요? 물론 트릭은 즉시 작동하고 어떤 방법으로든 돈을 보낼 것입니다. 친척들이 도움을 청하는 줄 알았는데 알고 보니 인공지능 AI가 지원하는 사기일 뿐이라는 현시대 많은 사람들에게 일어난 일이다.


 트릭은 인공 지능으로 구동됩니다.

사기꾼은 인공지능을 이용해 곤경에 처했거나 고통을 겪어 금전적 도움이 필요한 가족처럼 보이도록 했으며, 워싱턴포스트가 발간한 보고서에 따르면 73세 여성 루스 카드(Ruth Card)에게 전화를 받았다. 전화도 지갑도 없이 감옥에 갇혀 보석금이 필요하다고 말한 손자 브랜든.

즉시 Ruth와 그녀의 남편 Greg는 가장 가까운 은행으로 달려가 약 $3000(일일 최대 인출액)를 인출한 다음 손자를 위해 더 많은 돈을 인출하기 위해 다른 은행으로 급히 갔지만 은행 직원은 그들을 진정시키고 말했습니다. 일부 고객은 지인의 전화를 받아 돈을 요구했지만 이 음성은 가짜로 밝혀졌다. 전화를 받는 사람이 손주가 아닌 경우에는 어떻게 해야 합니까?

그것이 Ruth와 그녀의 남편 Greg가 생각한 것입니다 Brandon처럼 들리지만 그 사람은 아니었고 그들은 즉시 속았다는 것을 깨달았습니다. "우리는 완전히 속았고 우리가 Brandon과 이야기하고 있다고 확신했습니다. "라고 Ruth는 말했습니다.

참고: 가짜 음성 사이트는 모든 사람이 사용할 수 있고 사용하기 쉽지만 아랍어를 지원하지 않으며 사이트는 다음과 같습니다. https://elevenlabs.io

이를 전문으로 하는 회사가 2022년 설립된 AI 음성 생성 스타트업 ElevenLabs로 짧은 오디오 샘플을 텍스트 음성 변환 도구를 통해 인공적으로 생성된 음성으로 변환할 수 있습니다. 이 회사의 도구는 무료 또는 $5부터 시작하는 비용으로 사용할 수 있습니다.


트릭은 어떻게 작동합니까?

인공 지능의 발전으로 사기꾼은 사용자가 직접 말하는 몇 가지 구 또는 문장의 오디오 샘플만 사용하여 오디오를 복제할 수 있습니다. 따라서 사기꾼은 인공 지능과 저렴하거나 심지어 무료인 온라인 도구를 통해 귀하와 다른 사람의 오디오 파일의 정확한 사본을 얻을 수 있으며 사기꾼은 인공 지능을 사용하여 귀하의 목소리와 동일한 톤으로 말하게 합니다.

사기는 다양한 형태가 있지만 사기꾼이 신뢰할 수 있는 사람(형제, 사촌 또는 친구)을 사칭하고 피해자가 곤경에 처해 있기 때문에 돈을 보내도록 설득하는 것과 같은 방식으로 작동합니다.

그러나 AI 기반 음성 기술은 트릭을 더욱 설득력있게 만듭니다. 이는 피해자들이 친족이 위험에 처했다는 사실을 알게 되었을 때 극도의 공포와 불안이 뒤섞인 반응을 보였다는 신문의 보도로 입증되었으며, 이는 타인에 대한 감정이 작용하기 때문에 사기꾼이 연주하는 민감한 코드입니다. 논리가 없기 때문에 제대로 생각할 수 없고 우리의 목표는 우리가 아끼는 사람들만 돕는 것이 됩니다.


인공 지능

이 트릭은 우리가 도달한 기술적 진보와 많은 놀라운 일을 할 수 있는 인공 지능의 발전을 의미하며, 미래에 당신을 위해 기사를 쓰는 인공 지능으로 대체될 수 있습니다.

사이트 관리자 iPhone 이슬람의 의견: 이미 작업 중입니다, Walid ????

그러나 우리가 알고 있듯이 모든 것에는 두 가지 측면이 있으며, 인공 지능의 다른 측면은 사기꾼과 사기꾼이 음성을 모방하고 희생자, 특히 노인을 설득하기 위해 오용하는 것입니다.

입력된 데이터를 기반으로 텍스트, 이미지 또는 사운드를 생성하는 프로그램을 구동하는 생성 AI의 현재 개발에 대한 암울한 암시입니다. 수학 및 컴퓨팅 능력의 발전으로 이러한 프로그램에 대한 교육 메커니즘이 개선되었습니다. 이로 인해 많은 기업들이 챗봇, 이미지 생성 도구, 심지어 원본과 구별할 수 없는 음성까지 출시하게 되었습니다.

전문가는 AI 음성 생성 소프트웨어가 연령, 성별, 억양 등 사람의 목소리를 독특하게 만드는 요소를 분석하고 광범위한 음성 데이터베이스를 검색하여 유사한 음성을 찾고 패턴을 예측한다고 말했다. 그런 다음 사람 목소리의 동일한 톤을 재현하고 유사한 효과를 만들 수 있습니다. YouTube 또는 Facebook 동영상, Instagram 또는 Facebook과 같은 곳에서 얻을 수 있는 작은 오디오 샘플이 필요합니다.


 다른 이야기

이야기는 그의 부모가 아들 버킨의 변호사라고 주장하는 사람으로부터 전화를 받고 자신이 교통사고로 누군가를 죽였고 버킨이 현재 감옥에 있으며 사건을 위해 돈이 필요하다고 말한 다음 그들에게 말하면서 시작되었습니다. 그들의 아들이 곧 그들에게 말할 것이라고.

변호사는 Birkin에게 전화를 걸고 곧 어머니는 Birkin이 그들을 사랑하고 돈이 필요하다는 목소리를 듣습니다. 몇 시간 후, 변호사는 Birkin의 부모에게 다시 전화를 걸어 그들의 아들이 그날 늦게 법정 날짜 전에 $21000가 필요하다고 말했습니다.

나중에 버킨의 부모는 그 전화가 이상하게 들렸고 약간의 의심이 있었지만 그들이 이미 아들과 통화했고 버킨이 도움이 필요하다는 직감에 의해 곧 사라졌다고 말했습니다.

아쉽게도 다음 계획은 사기꾼에게 이미 송금한 돈을 급하게 빼내어 인출하는 것이었습니다. 그리고 친아들이 전화를 걸어 진실이 밝혀졌고, 여기에서 이야기가 명확해졌고 그들은 그것이 속임수에 빠졌고 사기꾼이 돈을 가지고 탈출했다는 것을 알았습니다. 그리고 그들이 어떻게 버킨의 목소리를 얻었는지 궁금하다면 대답은 인터넷을 통해 쉽게 찾을 수 있습니다. 그는 YouTube에 스노보드에 대해 이야기하는 여러 비디오를 게시했으며 사기꾼은 검색을 통해 오디오 파일에 액세스하려고 시도할 가능성이 큽니다. YouTube나 소셜 계정, 심지어 TikTok이나 Instagram에 게시한 스토리에도 있습니다.

마지막으로 함정에 빠지지 않으려면 가족 중에 돈이 필요하다는 목소리로 전화가 온다면 이 전화를 보류하고 이 사람에게 연락해 사실 여부를 확인해보자. 또한 의심이 든다면 그 사람에게 당신이 알고 있는 것에 대해 이야기하고 그것이 가짜 목소리가 아닌지 확인하기 위해 무엇이든 물어보십시오.

이전에 이 문제에 직면한 적이 있으며 어떻게 처리했습니까? 의견에 알려주십시오.

한국어 :

워싱턴 포스트

관련 기사