Мошенники становятся все умнее, и именно поэтому мы каждый день находим новые способы обмана других, а в прошлом некоторые пытались Взлом Ваша учетная запись в Facebook или ваша электронная почта, а затем он отправляет электронные письма друзьям, семье и всем, у кого есть учетная запись, и пытается попросить денег под предлогом, что это вы, и что у вас проблемы и деньги нужны быстро, конечно этот дешевый трюк работал в очень небольшом проценте случаев, но кажется, что развитие искусственного интеллекта сделало этот трюк пугающе успешным.
кража личных данных
Знаете ли вы, почему мошенничество с выдачей себя за другое лицо не работает так хорошо, потому что мошенник должен быть хакером, чтобы взломать вашу учетную запись в социальной сети или вашу электронную почту, и в большинстве случаев другие не верят в это и пытаются сделать телефонный звонок с помощью вам, чтобы подтвердить историю, но что, если он попытается Ваш друг, или, возможно, ваш брат, жена или кто-то из ваших близких позвонит вам и заговорит с вами голосом и попросит вас одолжить немного денег, потому что они ему нужны. Результат?Конечно, трюк сработает сразу, и вы отправите деньги любым способом. Именно это произошло со многими людьми в текущий период, так как они думали, что их родственники просят о помощи, а оказалось, что это всего лишь мошенничество, поддерживаемое искусственным интеллектом ИИ.
Трюк основан на искусственном интеллекте
Мошенник использует искусственный интеллект, чтобы выглядеть как член семьи, попавший в беду или испытавший бедствие и нуждающийся в финансовой помощи, и, согласно отчету, опубликованному Washington Post, Рут Кард, 73-летняя женщина, получила звонок от человека, как только она услышала его голос, она сразу поняла, что это он.Ее внук, Брэндон, который сказал ей, что он в тюрьме без телефона и кошелька и ему нужны деньги для внесения залога.
Тут же Рут и ее муж Грег бросились в ближайший банк и сняли около 3000 долларов (максимальное дневное снятие), потом они бросились в другой банк, чтобы снять еще денег для внука, но сотрудник банка их успокоил и сказал, некоторым клиентам звонили люди, которых они знали, и просили денег, но оказалось, что этот голос был фальшивым. Так что, если человек по телефону не ваш внук.
Так думали Рут и ее муж Грег.Похоже на Брэндона, но это не он, и они сразу понимают, что их обманули. «Мы были полностью обмануты и были убеждены, что разговариваем с Брэндоном», — сказала Рут.
Просто для информации: сайт поддельного голоса доступен всем и прост в использовании, но он не поддерживает арабский язык, и это сайт: https://elevenlabs.io
Одной из компаний, которая специализируется на этом, является ElevenLabs, стартап по генерации голоса с помощью ИИ, основанный в 2022 году, который может преобразовывать короткий аудиосэмпл в искусственно сгенерированный голос с помощью инструмента преобразования текста в речь. Инструмент компании можно использовать бесплатно или по цене от 5 долларов.
Как работает трюк?
Развитие искусственного интеллекта позволило мошенникам воспроизвести звук, используя всего лишь аудиосэмпл из нескольких фраз или предложений, которые вы произносите сами. Таким образом, с помощью искусственного интеллекта и дешевых или даже бесплатных онлайн-инструментов мошенник может получить точную копию аудиофайла с вами и другими людьми, а затем мошенник использует искусственный интеллект, чтобы заставить его говорить тем же тоном, что и вы.
Хотя мошенничество бывает разных форм, они работают одинаково, когда мошенник выдает себя за надежного человека, брата, двоюродного брата или друга, и убеждает жертву отправить ему деньги, потому что он в беде.
Но голосовая технология на базе искусственного интеллекта делает этот трюк еще более убедительным. Об этом свидетельствует сообщение газеты, где пострадавшие описывали, что их реакцией была тревога, смешанная с крайним ужасом, когда они узнавали, что их родственники в опасности, и это та чувствительная струна, на которой играет мошенник, так как эмоции по отношению к окружающим работают в отсутствие логики и поэтому мы не можем нормально мыслить и нашей целью становится Помочь только тем, кто нам небезразличен.
Искусственный интеллект
Этот трюк относится к техническому прогрессу, которого мы достигли, и развитию искусственного интеллекта, который способен делать много замечательных вещей, и меня может заменить искусственный интеллект, который будет писать для вас статьи в будущем, кто знает.
Комментарий от менеджера сайта iPhone Ислама: Мы уже работаем над этим, Валид. 🤣
Но, как известно, у всего есть две стороны, а другая сторона искусственного интеллекта — это его неправомерное использование мошенниками и аферистами для имитации голосов и убеждения жертв, особенно пожилых людей, в том, что их близкие и родственники находятся в бедственном положении и нуждаются в финансовой помощи.
Это мрачное последствие текущего развития генеративного ИИ, на котором работают программы, генерирующие текст, изображения или звуки на основе введенных данных. Достижения в математике и вычислительной мощности улучшили механизмы обучения для таких программ. Это побудило большое количество компаний запустить чат-ботов, инструменты для создания изображений и даже голоса, которые невозможно отличить от оригинала.
Эксперт сказал, что программное обеспечение для генерации голоса ИИ анализирует то, что делает голос человека уникальным, включая возраст, пол и акцент, и выполняет поиск в обширной базе данных голосов, чтобы найти похожие голоса и предсказать закономерности. Затем можно было воссоздать идентичный тон голоса человека и создать аналогичный эффект. Требуется небольшой образец аудио, который вы можете получить из таких мест, как YouTube или, возможно, одно из ваших видео в Facebook, Instagram или даже Facebook.
Другая история
История началась, когда его родителям позвонил человек, представившийся адвокатом их сына Биркина, и сказал им, что он кого-то убил в автокатастрофе, а Биркин сейчас находится в тюрьме и ему нужны деньги на дело, тогда он сказал им что их сын вскоре поговорит с ними.
Адвокат звонит Биркину по телефону, и вскоре мать слышит голос Биркина, который говорит им, что любит их и нуждается в деньгах. Через несколько часов адвокат снова позвонил родителям Биркина и сказал, что их сыну нужно 21000 XNUMX долларов до суда в тот же день.
Родители Биркина впоследствии сказали, что звонок звучал необычно и были некоторые подозрения, но они быстро рассеялись нутром, подсказавшим им, что они уже поговорили со своим сыном и ему нужна их помощь.
К сожалению, следующий план состоял в том, чтобы спешить и снять деньги, которые уже были отправлены мошеннику. И правда вышла наружу, когда им позвонил настоящий сын, и тут история прояснилась, и они поняли, что это была уловка, в которую они попали, и мошенник сбежал с их деньгами. И если вам интересно, как они получили голос Биркина, ответ легко найти через Интернет, где он разместил ряд видеороликов, рассказывающих о сноуборде на YouTube, и, скорее всего, мошенник пытается получить доступ к аудиофайлу для вас, путем поиска на YouTube или в ваших социальных аккаунтах, или даже в историях, которые вы публикуете в TikTok или Instagram.
Наконец, чтобы не попасть в ловушку, если вам звонит голос, утверждающий, что он член вашей семьи и ему нужны деньги, поставьте этот звонок на удержание и попробуйте связаться с этим человеком, чтобы подтвердить этот вопрос. Кроме того, если вы сомневаетесь, попробуйте поговорить с человеком о том, что вам известно, и спросите его о чем угодно, чтобы убедиться, что это не фальшивый голос.
المصدر:
А если у меня забрали деньги, как я могу их вернуть?
Привет, Мохамед! 🍏 Во-первых, не волнуйтесь, все будет хорошо. Если вас обманули с помощью Apple Pay или любой другой платежной службы Apple, вы можете обратиться в их службу поддержки клиентов, и они помогут вам решить проблему. Также вам следует обратиться в полицию и сообщить о происшествии. Всегда не забывайте проверять личность получателя перед отправкой денег. Держите деньги в кармане, пока не будете уверены! 💸😉
Чтобы мы могли выйти из этой проблемы, когда звонит кто-то, кто хочет помочь, мы должны просить об особой ситуации, которую знает только этот человек и человек, просящий о помощи, например (ты мой внук или мой брат, дай мне подпишусь за это)
нет. Я не хочу давать советы. Игнорируйте любой номер, который вам звонит и просит о таких вещах. Даже если вы общаетесь по почте или через WhatsApp. Все, что вам нужно сделать, это заблокировать номер
Большинство людей попадают в это
Да, мы часто слышим о таких ситуациях. Я выиграл двести динаров. Жертвой станет тот, кого обманут. Когда ему пришел код подтверждения, он дал им код. Они украли его деньги. Это большая ошибка
Мир и технологии @iOS Спасибо за ваш комментарий. Да, мошенники используют технологии, чтобы заставить людей думать, что им нужна финансовая помощь. Искусственный интеллект может помочь создать реалистичный поддельный голос, но он не может справиться с человеческими эмоциями. Поэтому мы все должны быть осторожны и убедиться в правильности информации перед выполнением любой финансовой операции. 😊
Нет, ты не противостоял мне.
Не будет доверия ко всему, что мы видим или слышим, и кто знает, может быть, оно достигнет большей степени, чем эта.
😂😂
O Star - мощная тема
Честно говоря, не сталкивался, а проблема, с которой я столкнулся, другого рода, это искусственная глупость.Группа звонила нам, чтобы обновить информацию о вашем банке, а вы позвонили и испортили им жизнь, или Хамада принадлежит Египтону, а группа знает, что вы заработали две тысячи фунтов, подойдите к ближайшему банкомату и позвоните нам оттуда.
И так далее 😂😂