Oszuści stają się coraz sprytniejsi i dlatego każdego dnia znajdujemy nowe sposoby oszukiwania innych, a w przeszłości niektórzy próbowali Hakerstwo Twoje konto na Facebooku lub Twój e-mail, a potem wysyła e-maile do przyjaciół, rodziny i kogokolwiek na koncie i próbuje prosić o pieniądze pod pretekstem, że to ty i że masz kłopoty i oczywiście potrzebujesz tych pieniędzy szybko ta tania sztuczka zadziałała w bardzo małym procencie, ale wygląda na to, że rozwój sztucznej inteligencji sprawił, że ta sztuczka powiodła się przerażająco.


kradzież tożsamości

Czy wiesz, dlaczego oszustwo podszywania się nie działa tak dobrze, ponieważ oszust musi być hakerem, aby włamać się na Twoje konto w mediach społecznościowych lub pocztę e-mail, a przez większość czasu inni w to nie wierzą i próbują nawiązać połączenie telefoniczne z chcesz potwierdzić tę historię, ale co, jeśli spróbuje Twój przyjaciel, a może brat, żona lub ktoś bliski, zadzwoni do ciebie i porozmawia z tobą głosem i poprosi cię o pożyczenie pieniędzy, ponieważ są mu potrzebne. wynik?Oczywiście sztuczka zadziała natychmiast i wyślesz pieniądze w jakikolwiek sposób. Tak stało się z wieloma osobami w obecnym okresie, które myślały, że ich bliscy proszą o pomoc, ale okazało się, że to tylko oszustwo wspierane przez sztuczną inteligencję AI.


 Sztuczka jest napędzana przez sztuczną inteligencję

Oszust wykorzystuje sztuczną inteligencję, aby wyglądać jak członek rodziny, który wpadł w kłopoty lub był w niebezpieczeństwie i potrzebuje pomocy finansowej, a według raportu opublikowanego przez Washington Post, Ruth Card, 73-letnia kobieta, otrzymała telefon od osoby, gdy tylko usłyszała jego głos, od razu wiedziała, że ​​to on.Jej wnuk Brandon, który powiedział jej, że jest w więzieniu bez telefonu i portfela i potrzebuje pieniędzy na kaucję.

Natychmiast Ruth i jej mąż Greg pobiegli do najbliższego banku i wypłacili około 3000 $ (maksymalna dzienna wypłata), następnie pobiegli do innego banku, aby wypłacić więcej pieniędzy dla swojego wnuka, ale pracownik banku uspokoił ich i powiedział: niektórzy klienci otrzymali telefon od osób, które znali i prosili o pieniądze, ale okazuje się, że ten głos był fałszywy. Co z tego, że osoba, do której dzwonisz, nie jest twoim wnukiem.

Tak pomyśleli Ruth i jej mąż Greg. Brzmi jak Brandon, ale to nie on, i od razu zdają sobie sprawę, że zostali oszukani. „Zostaliśmy całkowicie oszukani i byliśmy przekonani, że rozmawiamy z Brandonem” – powiedziała Ruth.

Tylko dla informacji: strona z fałszywymi głosami jest dostępna dla wszystkich i łatwa w użyciu, ale nie obsługuje języka arabskiego, a oto strona: https://elevenlabs.io

Jedną z firm, która się w tym specjalizuje, jest ElevenLabs, startup zajmujący się generowaniem głosu AI, założony w 2022 r., który może przekształcić krótką próbkę audio w sztucznie wygenerowany głos za pomocą narzędzia zamiany tekstu na mowę. Z narzędzia firmy można korzystać za darmo lub za opłatą od 5 USD.


Jak działa sztuczka?

Postęp w sztucznej inteligencji umożliwił oszustom replikację dźwięku przy użyciu tylko próbki dźwiękowej kilku wyrażeń lub zdań, które sam wypowiadasz. Dzięki sztucznej inteligencji i tanim, a nawet darmowym narzędziom internetowym, oszust może uzyskać dokładną kopię pliku audio Twojego i innych osób, a następnie wykorzystuje sztuczną inteligencję, aby mówić tym samym tonem, co Twój głos.

Chociaż oszustwa przybierają różne formy, działają one w ten sam sposób, w którym oszust podszywa się pod godną zaufania osobę, brata, kuzyna lub przyjaciela i przekonuje ofiarę do wysłania mu pieniędzy, ponieważ jest w niebezpieczeństwie.

Ale technologia głosowa oparta na sztucznej inteligencji sprawia, że ​​sztuczka jest jeszcze bardziej przekonująca. Potwierdza to relacja gazety, w której ofiary opisywały, że ich reakcją był niepokój zmieszany z skrajnym przerażeniem, gdy dowiedziały się, że ich bliskim grozi niebezpieczeństwo, i to jest czuły akord, na którym gra oszust, ponieważ emocja wobec innych działa w brak logiki i dlatego nie potrafimy właściwie myśleć, a naszym celem staje się Pomoc tylko tym, na których nam zależy.


Sztuczna inteligencja

Ta sztuczka odnosi się do postępu technicznego, który osiągnęliśmy i rozwoju sztucznej inteligencji, która jest w stanie zrobić wiele wspaniałych rzeczy, a mnie może w przyszłości zastąpić sztuczna inteligencja, która pisze dla was artykuły, kto wie.

Komentarz kierownika serwisu iPhone Islam: Już nad tym pracujemy, Walid 🤣

Ale jak wiemy wszystko ma dwie strony, a drugą stroną sztucznej inteligencji jest jej nadużycie przez oszustów i oszustów do naśladowania głosów i przekonywania ofiar, zwłaszcza osób starszych, że ich bliscy i bliscy są w trudnej sytuacji i potrzebują pomocy finansowej.

To ponura implikacja obecnego rozwoju generatywnej sztucznej inteligencji, która napędza programy generujące tekst, obrazy lub dźwięki na podstawie wprowadzonych danych. Postępy w matematyce i mocy obliczeniowej poprawiły mechanizmy szkoleniowe dla takich programów. To zmotywowało wiele firm do uruchomienia chatbotów, narzędzi do kreowania wizerunku, a nawet głosów, których nie sposób odróżnić od oryginału.

Ekspert powiedział, że oprogramowanie do generowania głosu AI analizuje, co sprawia, że ​​​​głos danej osoby jest wyjątkowy, w tym wiek, płeć i akcent, oraz przeszukuje obszerną bazę głosów, aby znaleźć podobne głosy i przewidzieć wzorce. Następnie można odtworzyć identyczny ton głosu osoby i uzyskać podobny efekt. Wymaga niewielkiej próbki dźwięku, którą można uzyskać z miejsc takich jak YouTube lub jeden z twoich filmów na Facebooku, Instagramie, a nawet Facebooku.


 Inna historia

Historia zaczęła się, gdy jego rodzice otrzymali telefon od osoby podającej się za prawnika ich syna Birkina i powiedzieli im, że zabił kogoś w wypadku samochodowym, a Birkin jest teraz w więzieniu i potrzebuje trochę pieniędzy na sprawę, a potem powiedział im że ich syn wkrótce z nimi porozmawia.

Prawnik łączy Birkina z telefonem i wkrótce matka słyszy głos Birkina, który mówi im, że ich kocha i potrzebuje pieniędzy. Kilka godzin później adwokat ponownie zadzwonił do rodziców Birkina, mówiąc, że ich syn potrzebuje 21000 XNUMX dolarów przed rozprawą sądową, która odbędzie się później tego samego dnia.

Rodzice Birkina powiedzieli później, że telefon brzmiał nietypowo i był pewien sceptycyzm, ale szybko został on rozwiany przez wewnętrzne przeczucie, które mówiło im, że rozmawiali już z synem i że potrzebuje ich pomocy.

Niestety następnym planem było pospieszenie się i wycofanie pieniędzy, które zostały już wysłane do oszusta. I prawda wyszła na jaw, gdy zadzwonił do nich prawdziwy syn, i tutaj historia stała się jasna i wiedzieli, że to był podstęp, w który wpadli, a oszust uciekł z ich pieniędzmi. A jeśli zastanawiasz się, w jaki sposób zdobyli głos Birkina, odpowiedź można łatwo znaleźć w Internecie, gdzie zamieścił on wiele filmów mówiących o snowboardzie w serwisie YouTube. Najprawdopodobniej oszust próbuje uzyskać dla Ciebie dostęp do pliku audio, wyszukując na YouTube lub na twoich kontach społecznościowych, a nawet w relacjach, które publikujesz na TikTok lub Instagramie.

Na koniec, aby nie wpaść w pułapkę, jeśli zadzwoni do Ciebie głos, który twierdzi, że jest członkiem Twojej rodziny i że potrzebuje pieniędzy, odłóż to połączenie i spróbuj skontaktować się z tą osobą w celu potwierdzenia sprawy. Również jeśli masz wątpliwości, spróbuj porozmawiać z osobą o rzeczach, które znasz i zapytać ją o cokolwiek, aby upewnić się, że nie jest to fałszywy głos.

Czy napotkałeś już ten problem i jak sobie z nim poradziłeś? Powiedz nam w komentarzach

Źródło:

Waszyngton

Powiązane artykuły