Los estafadores son cada vez más inteligentes y es por eso que todos los días encontramos nuevas formas de engañar a otros, y en el pasado algunos intentaban Hackear Tu cuenta en Facebook o tu correo electrónico, y luego envía correos electrónicos a amigos, familiares y cualquier persona en la cuenta e intenta pedir dinero con el pretexto de que eres tú y que estás en problemas y necesitas ese dinero rápidamente, por supuesto. ese truco barato funcionó en un porcentaje muy pequeño, pero parece que el desarrollo de la inteligencia artificial hizo que ese truco tuviera un éxito aterrador.


el robo de identidad

¿Sabe por qué la estafa de suplantación de identidad no funciona tan bien? Porque el estafador necesita ser un hacker para hackear su cuenta de redes sociales o su correo electrónico, y la mayoría de las veces otros no lo creen y tratan de hacer una llamada telefónica con usted para confirmar la historia, pero ¿qué pasa si intenta que su amigo, o tal vez su hermano, esposa o alguien cercano a usted, lo llame y le hable por voz y le pida prestado algo de dinero porque lo necesita? El resultado Por supuesto, el truco funcionará de inmediato y enviarás el dinero por cualquier medio. Esto es lo que sucedió con muchas personas en el período actual, ya que pensaron que sus familiares estaban pidiendo ayuda, pero resultó que solo era un fraude respaldado por inteligencia artificial IA.


 El truco funciona con inteligencia artificial.

El estafador utiliza inteligencia artificial para parecer un miembro de la familia que se ha metido en problemas o ha experimentado angustia y necesita ayuda financiera, y según un informe publicado por el Washington Post, Ruth Card, una mujer de 73 años, recibió una llamada. de una persona tan pronto como escuchó su voz, inmediatamente supo que era él, su nieto, Brandon, quien le dijo que estaba en la cárcel sin teléfono ni billetera y que necesitaba dinero para la fianza.

Inmediatamente Ruth y su esposo Greg corrieron al banco más cercano y retiraron alrededor de $ 3000 (el retiro máximo diario), luego corrieron a otro banco para retirar más dinero para su nieto, pero el empleado del banco los calmó y les dijo: algunos clientes recibieron una llamada de personas que conocían y estaban pidiendo dinero, pero resulta que esta voz era falsa. ¿Y qué si la persona que habla por teléfono no es su nieto?

Eso es lo que pensaron Ruth y su esposo Greg. Suena como Brandon, pero no es él, e inmediatamente se dan cuenta de que los han engañado. "Estábamos completamente engañados y estábamos convencidos de que estábamos hablando con Brandon", dijo Ruth.

Solo para información: el sitio de voz falsa está disponible para todos y es fácil de usar, pero no es compatible con el árabe, y este es el sitio: https://elevenlabs.io

Una empresa que se especializa en esto es ElevenLabs, una startup de generación de voz con IA fundada en 2022 que puede convertir una breve muestra de audio en una voz generada artificialmente a través de una herramienta de texto a voz. La herramienta de la empresa se puede utilizar de forma gratuita o con un costo a partir de $5.


¿Cómo funciona el truco?

El avance de la inteligencia artificial ha permitido a los estafadores replicar el audio usando solo una muestra de audio de algunas frases u oraciones que dices tú mismo. Así, a través de la inteligencia artificial y herramientas en línea baratas o incluso gratuitas, el estafador puede obtener una copia exacta de un archivo de audio tuyo y de otros, y luego el estafador usa la inteligencia artificial para hacerlo hablar en el mismo tono de tu voz.

Aunque las estafas vienen en muchas formas, funcionan de la misma manera en la que el estafador se hace pasar por una persona de confianza, un hermano, un primo o un amigo y convence a la víctima de que le envíe dinero porque está en apuros.

Pero la tecnología de voz impulsada por IA hace que el truco sea aún más convincente. Así lo comprobó el reportaje del diario, donde las víctimas describieron que su reacción fue de angustia mezclada con extremo horror al enterarse de que sus familiares corrían peligro, y esa es la cuerda sensible que toca el estafador, pues la emoción hacia los demás trabaja en la ausencia de lógica y, por lo tanto, no podemos pensar correctamente y nuestro objetivo se convierte en ayudar solo a aquellos que nos importan.


Inteligencia artificial

Este truco se refiere al progreso técnico que hemos alcanzado y al desarrollo de la inteligencia artificial que es capaz de hacer muchas cosas maravillosas, y puede que en el futuro me reemplace una inteligencia artificial que escriba artículos para ti, quién sabe.

Comentario del administrador del sitio iPhone Islam: Ya estamos trabajando en ello, Walid. ????

Pero como sabemos todo tiene dos caras, y la otra cara de la inteligencia artificial es su mal uso por parte de estafadores y estafadores para imitar voces y convencer a las víctimas, especialmente a los ancianos, de que sus seres queridos y familiares están en apuros y necesitan ayuda económica.

Es una implicación sombría del desarrollo actual en la IA generativa que impulsa los programas que generan texto, imágenes o sonidos en función de los datos ingresados. Los avances en las matemáticas y el poder de cómputo han mejorado los mecanismos de capacitación para tales programas. Esto motivó a un gran número de empresas a lanzar chatbots, herramientas de creación de imágenes e incluso voces que no se pueden diferenciar de la original.

Un experto dijo que el software de generación de voz de IA analiza lo que hace que la voz de una persona sea única, incluida la edad, el género y el acento, y busca en una extensa base de datos de voces para encontrar voces similares y predecir patrones. Entonces se podría recrear un tono idéntico de la voz de una persona y crear un efecto similar. Toma una pequeña muestra de audio que puede obtener de lugares como YouTube o tal vez uno de sus videos de Facebook, Instagram o incluso Facebook.


 Otra historia

La historia comenzó cuando sus padres recibieron una llamada telefónica de una persona que decía ser el abogado de su hijo Birkin y les dijo que mató a alguien en un accidente automovilístico, y Birkin ahora está en prisión y necesita algo de dinero para el caso, luego les dijo que su hijo hablaría con ellos en breve.

El abogado pone a Birkin al teléfono y pronto la madre escucha la voz de Birkin diciéndoles que los ama y necesita dinero. Unas horas más tarde, el abogado volvió a llamar a los padres de Birkin y les dijo que su hijo necesitaba $21000 antes de una cita en la corte ese mismo día.

Los padres de Birkin dijeron después que la llamada había sonado inusual y que había habido cierta sospecha, pero se disipó rápidamente por el presentimiento de que ya habían hablado con su hijo y que necesitaba su ayuda.

Desafortunadamente, el siguiente plan era salir corriendo y retirar el dinero que ya se había enviado al estafador. Y la verdad salió cuando el verdadero hijo los llamó, y aquí quedó clara la historia y supieron que era una trampa en la que cayeron y el estafador escapó con su dinero. Y en caso de que se pregunte cómo obtuvieron la voz de Birkin, la respuesta es fácil a través de Internet, donde publicó una serie de videos que hablan sobre el snowboard en YouTube, y lo más probable es que el estafador intente acceder a un archivo de audio para usted, buscando en YouTube o en tus cuentas sociales, o incluso en las historias que publicas en TikTok o Instagram.

Finalmente, para no caer en la trampa, si recibe una llamada de una voz que dice que es un miembro de su familia y que necesita dinero, ponga esta llamada en espera e intente contactar a esta persona para confirmar el asunto. Además, si tiene dudas, intente hablar con la persona sobre las cosas que sabe y pregúntele sobre cualquier cosa para asegurarse de que no sea una voz falsa.

¿Se ha encontrado con este problema antes y cómo lo resolvió? Dinos en los comentarios

Fuente:

Washington Post

Artículos relacionados