Мошенники становятся все умнее, и именно поэтому мы каждый день находим новые способы обмана других, а в прошлом некоторые пытались Взлом Ваша учетная запись в Facebook или ваша электронная почта, а затем он отправляет электронные письма друзьям, семье и всем, у кого есть учетная запись, и пытается попросить денег под предлогом, что это вы, и что у вас проблемы и деньги нужны быстро, конечно этот дешевый трюк работал в очень небольшом проценте случаев, но кажется, что развитие искусственного интеллекта сделало этот трюк пугающе успешным.


кража личных данных

Знаете ли вы, почему мошенничество с выдачей себя за другое лицо не работает так хорошо, потому что мошенник должен быть хакером, чтобы взломать вашу учетную запись в социальной сети или вашу электронную почту, и в большинстве случаев другие не верят в это и пытаются сделать телефонный звонок с помощью вам, чтобы подтвердить историю, но что, если он попытается Ваш друг, или, возможно, ваш брат, жена или кто-то из ваших близких позвонит вам и заговорит с вами голосом и попросит вас одолжить немного денег, потому что они ему нужны. Результат?Конечно, трюк сработает сразу, и вы отправите деньги любым способом. Именно это произошло со многими людьми в текущий период, так как они думали, что их родственники просят о помощи, а оказалось, что это всего лишь мошенничество, поддерживаемое искусственным интеллектом ИИ.


 Трюк основан на искусственном интеллекте

Мошенник использует искусственный интеллект, чтобы выглядеть как член семьи, попавший в беду или испытавший бедствие и нуждающийся в финансовой помощи, и, согласно отчету, опубликованному Washington Post, Рут Кард, 73-летняя женщина, получила звонок от человека, как только она услышала его голос, она сразу поняла, что это он.Ее внук, Брэндон, который сказал ей, что он в тюрьме без телефона и кошелька и ему нужны деньги для внесения залога.

Тут же Рут и ее муж Грег бросились в ближайший банк и сняли около 3000 долларов (максимальное дневное снятие), потом они бросились в другой банк, чтобы снять еще денег для внука, но сотрудник банка их успокоил и сказал, некоторым клиентам звонили люди, которых они знали, и просили денег, но оказалось, что этот голос был фальшивым. Так что, если человек по телефону не ваш внук.

Так думали Рут и ее муж Грег.Похоже на Брэндона, но это не он, и они сразу понимают, что их обманули. «Мы были полностью обмануты и были убеждены, что разговариваем с Брэндоном», — сказала Рут.

Просто для информации: сайт поддельного голоса доступен всем и прост в использовании, но он не поддерживает арабский язык, и это сайт: https://elevenlabs.io

Одной из компаний, которая специализируется на этом, является ElevenLabs, стартап по генерации голоса с помощью ИИ, основанный в 2022 году, который может преобразовывать короткий аудиосэмпл в искусственно сгенерированный голос с помощью инструмента преобразования текста в речь. Инструмент компании можно использовать бесплатно или по цене от 5 долларов.


Как работает трюк?

Развитие искусственного интеллекта позволило мошенникам воспроизвести звук, используя всего лишь аудиосэмпл из нескольких фраз или предложений, которые вы произносите сами. Таким образом, с помощью искусственного интеллекта и дешевых или даже бесплатных онлайн-инструментов мошенник может получить точную копию аудиофайла с вами и другими людьми, а затем мошенник использует искусственный интеллект, чтобы заставить его говорить тем же тоном, что и вы.

Хотя мошенничество бывает разных форм, они работают одинаково, когда мошенник выдает себя за надежного человека, брата, двоюродного брата или друга, и убеждает жертву отправить ему деньги, потому что он в беде.

Но голосовая технология на базе искусственного интеллекта делает этот трюк еще более убедительным. Об этом свидетельствует сообщение газеты, где пострадавшие описывали, что их реакцией была тревога, смешанная с крайним ужасом, когда они узнавали, что их родственники в опасности, и это та чувствительная струна, на которой играет мошенник, так как эмоции по отношению к окружающим работают в отсутствие логики и поэтому мы не можем нормально мыслить и нашей целью становится Помочь только тем, кто нам небезразличен.


Искусственный интеллект

Этот трюк относится к техническому прогрессу, которого мы достигли, и развитию искусственного интеллекта, который способен делать много замечательных вещей, и меня может заменить искусственный интеллект, который будет писать для вас статьи в будущем, кто знает.

Комментарий от менеджера сайта iPhone Ислама: Мы уже работаем над этим, Валид. 🤣

Но, как известно, у всего есть две стороны, а другая сторона искусственного интеллекта — это его неправомерное использование мошенниками и аферистами для имитации голосов и убеждения жертв, особенно пожилых людей, в том, что их близкие и родственники находятся в бедственном положении и нуждаются в финансовой помощи.

Это мрачное последствие текущего развития генеративного ИИ, на котором работают программы, генерирующие текст, изображения или звуки на основе введенных данных. Достижения в математике и вычислительной мощности улучшили механизмы обучения для таких программ. Это побудило большое количество компаний запустить чат-ботов, инструменты для создания изображений и даже голоса, которые невозможно отличить от оригинала.

Эксперт сказал, что программное обеспечение для генерации голоса ИИ анализирует то, что делает голос человека уникальным, включая возраст, пол и акцент, и выполняет поиск в обширной базе данных голосов, чтобы найти похожие голоса и предсказать закономерности. Затем можно было воссоздать идентичный тон голоса человека и создать аналогичный эффект. Требуется небольшой образец аудио, который вы можете получить из таких мест, как YouTube или, возможно, одно из ваших видео в Facebook, Instagram или даже Facebook.


 Другая история

История началась, когда его родителям позвонил человек, представившийся адвокатом их сына Биркина, и сказал им, что он кого-то убил в автокатастрофе, а Биркин сейчас находится в тюрьме и ему нужны деньги на дело, тогда он сказал им что их сын вскоре поговорит с ними.

Адвокат звонит Биркину по телефону, и вскоре мать слышит голос Биркина, который говорит им, что любит их и нуждается в деньгах. Через несколько часов адвокат снова позвонил родителям Биркина и сказал, что их сыну нужно 21000 XNUMX долларов до суда в тот же день.

Родители Биркина впоследствии сказали, что звонок звучал необычно и были некоторые подозрения, но они быстро рассеялись нутром, подсказавшим им, что они уже поговорили со своим сыном и ему нужна их помощь.

К сожалению, следующий план состоял в том, чтобы спешить и снять деньги, которые уже были отправлены мошеннику. И правда вышла наружу, когда им позвонил настоящий сын, и тут история прояснилась, и они поняли, что это была уловка, в которую они попали, и мошенник сбежал с их деньгами. И если вам интересно, как они получили голос Биркина, ответ легко найти через Интернет, где он разместил ряд видеороликов, рассказывающих о сноуборде на YouTube, и, скорее всего, мошенник пытается получить доступ к аудиофайлу для вас, путем поиска на YouTube или в ваших социальных аккаунтах, или даже в историях, которые вы публикуете в TikTok или Instagram.

Наконец, чтобы не попасть в ловушку, если вам звонит голос, утверждающий, что он член вашей семьи и ему нужны деньги, поставьте этот звонок на удержание и попробуйте связаться с этим человеком, чтобы подтвердить этот вопрос. Кроме того, если вы сомневаетесь, попробуйте поговорить с человеком о том, что вам известно, и спросите его о чем угодно, чтобы убедиться, что это не фальшивый голос.

Сталкивались ли вы с этой проблемой раньше, и как вы с ней боролись? Сообщите нам в комментариях

المصدر:

Washingtonpost

Статьи по теме