Betrüger werden immer schlauer und deshalb finden wir jeden Tag neue Wege, andere zu täuschen, und in der Vergangenheit haben einige es versucht Hacken Ihr Konto auf Facebook oder Ihre E-Mail-Adresse, und dann sendet er E-Mails an Freunde, Familie und jeden auf dem Konto und versucht, Geld zu verlangen, unter dem Vorwand, dass Sie es sind und dass Sie in Schwierigkeiten sind und dieses Geld natürlich schnell brauchen Dieser billige Trick funktionierte in einem sehr kleinen Prozentsatz, aber es scheint, dass die Entwicklung der künstlichen Intelligenz diesen Trick erschreckend erfolgreich gemacht hat.


Identitätsdiebstahl

Wissen Sie, warum der Identitätsbetrug nicht so gut funktioniert, weil der Betrüger ein Hacker sein muss, um Ihr Social-Media-Konto oder Ihre E-Mail zu hacken, und die meiste Zeit glauben andere es nicht und versuchen, einen Anruf zu tätigen Sie müssen die Geschichte bestätigen, aber was ist, wenn er es versucht Ihr Freund oder vielleicht Ihr Bruder, Ihre Frau oder jemand, der Ihnen nahe steht, ruft Sie an und spricht Sie per Stimme an und bittet Sie, sich etwas Geld zu leihen, weil er es braucht Das Ergebnis: Der Trick funktioniert natürlich sofort und Sie schicken das Geld auf jeden Fall. Dies ist in der aktuellen Zeit vielen Menschen passiert, da sie dachten, dass ihre Angehörigen um Hilfe bitten, aber es stellte sich heraus, dass es sich nur um einen Betrug handelte, der von künstlicher Intelligenz AI unterstützt wurde.


 Der Trick basiert auf künstlicher Intelligenz

Der Betrüger nutzt künstliche Intelligenz, um wie ein Familienmitglied auszusehen, das in Schwierigkeiten geraten ist oder in Not geraten ist und finanzielle Unterstützung benötigt. Laut einem von der Washington Post veröffentlichten Bericht erhielt Ruth Card, eine 73-jährige Frau, einen Anruf von einer Person, sobald sie seine Stimme hörte, wusste sie sofort, dass er es war: Ihr Enkel Brandon, der ihr sagte, dass er ohne Telefon oder Brieftasche im Gefängnis sei und Geld für eine Kaution brauche.

Sofort eilten Ruth und ihr Mann Greg zur nächsten Bank und hoben ungefähr 3000 US-Dollar ab (die maximale tägliche Abhebung), dann eilten sie zu einer anderen Bank, um mehr Geld für ihren Enkel abzuheben, aber der Bankangestellte beruhigte sie und sagte ihnen: Einige Kunden erhielten einen Anruf von Bekannten und fragten nach Geld, aber es stellte sich heraus, dass diese Stimme falsch war. Was ist, wenn die Person am Telefon nicht Ihr Enkelkind ist?

Das dachten Ruth und ihr Mann Greg. Klingt nach Brandon, aber er ist es nicht, und sie erkennen sofort, dass sie hinters Licht geführt wurden. „Wir wurden völlig getäuscht und waren überzeugt, dass wir mit Brandon sprachen“, sagte Ruth.

Nur zur Information: Die Fake-Voice-Site ist für alle verfügbar und einfach zu bedienen, aber sie unterstützt kein Arabisch, und dies ist die Site: https://elevenlabs.io

Ein Unternehmen, das sich darauf spezialisiert hat, ist ElevenLabs, ein 2022 gegründetes Startup zur KI-Spracherzeugung, das ein kurzes Audio-Sample über ein Text-to-Speech-Tool in eine künstlich erzeugte Stimme umwandeln kann. Das Tool des Unternehmens kann kostenlos oder zu einem Preis ab 5 US-Dollar verwendet werden.


Wie funktioniert der Trick?

Fortschritte in der künstlichen Intelligenz haben es Betrügern ermöglicht, Audiodaten zu replizieren, indem sie nur ein Audiobeispiel einiger Sätze oder Phrasen verwenden, die Sie selbst sagen. So kann der Betrüger durch künstliche Intelligenz und billige oder sogar kostenlose Online-Tools eine exakte Kopie einer Audiodatei von Ihnen und anderen erhalten, und dann verwendet der Betrüger künstliche Intelligenz, um ihn dazu zu bringen, im gleichen Tonfall wie Sie zu sprechen.

Obwohl Betrügereien in vielen Formen auftreten, funktionieren sie auf die gleiche Weise, wenn der Betrüger sich als vertrauenswürdige Person, ein Bruder, Cousin oder Freund, ausgibt und das Opfer davon überzeugt, ihm Geld zu schicken, weil er in Not ist.

Aber die KI-gestützte Sprachtechnologie macht den Trick noch überzeugender. Das beweist der Zeitungsbericht, in dem die Opfer beschrieben, dass ihre Reaktion eine Mischung aus Angst und extremem Entsetzen war, als sie erfuhren, dass ihre Angehörigen in Gefahr waren, und dies ist der sensible Akkord, den der Betrüger anschlägt, wenn die Emotion gegenüber anderen wirkt das Fehlen von Logik und daher können wir nicht richtig denken und unser Ziel ist es, nur denen zu helfen, die uns wichtig sind.


Künstliche Intelligenz

Dieser Trick bezieht sich auf den technischen Fortschritt, den wir erreicht haben, und die Entwicklung der künstlichen Intelligenz, die viele wunderbare Dinge tun kann, und vielleicht werde ich durch eine künstliche Intelligenz ersetzt, die in Zukunft Artikel für Sie schreibt, wer weiß.

Kommentar des Site-Managers iPhone Islam: Wir arbeiten bereits daran, Walid 🤣

Aber wie wir wissen, hat alles zwei Seiten, und die andere Seite der künstlichen Intelligenz ist ihr Missbrauch durch Betrüger und Betrüger, um Stimmen nachzuahmen und Opfer, insbesondere ältere Menschen, davon zu überzeugen, dass ihre Lieben und Verwandten in Not sind und finanzielle Unterstützung benötigen.

Es ist eine düstere Folge der aktuellen Entwicklung in der generativen KI, die Programme antreibt, die Text, Bilder oder Töne basierend auf eingegebenen Daten generieren. Fortschritte in Mathematik und Rechenleistung haben die Trainingsmechanismen für solche Programme verbessert. Dies motivierte eine Vielzahl von Unternehmen, Chatbots, Bilderzeugungstools und sogar Stimmen auf den Markt zu bringen, die nicht vom Original zu unterscheiden sind.

Ein Experte sagte, die KI-Spracherzeugungssoftware analysiert, was die Stimme einer Person einzigartig macht, einschließlich Alter, Geschlecht und Akzent, und durchsucht eine umfangreiche Datenbank mit Stimmen, um ähnliche Stimmen zu finden und Muster vorherzusagen. Ein identischer Tonfall der Stimme einer Person könnte dann nachgebildet und ein ähnlicher Effekt erzeugt werden. Es braucht eine kleine Audioprobe, die Sie von Orten wie YouTube oder vielleicht einem Ihrer Facebook-Videos, Instagram oder sogar Facebook erhalten können.


 Eine andere Geschichte

Die Geschichte begann, als seine Eltern einen Anruf von einer Person erhielten, die behauptete, der Anwalt ihres Sohnes Birkin zu sein, und ihnen mitteilten, dass er jemanden durch einen Autounfall getötet habe und Birkin jetzt im Gefängnis sei und etwas Geld für den Fall brauche, dann erzählte er es ihnen dass ihr Sohn in Kürze mit ihnen sprechen würde.

Der Anwalt ruft Birkin an und bald hört die Mutter Birkins Stimme, die ihnen sagt, dass er sie liebt und Geld braucht. Ein paar Stunden später rief der Anwalt Birkins Eltern erneut an und sagte, ihr Sohn brauche 21000 Dollar vor einem Gerichtstermin später am Tag.

Birkins Eltern sagten hinterher, der Anruf habe sich ungewöhnlich angehört und es habe einen gewissen Verdacht gegeben, der aber schnell durch das Bauchgefühl zerstreut wurde, das ihnen sagte, dass sie bereits mit ihrem Sohn gesprochen hatten und er ihre Hilfe brauchte.

Leider war der nächste Plan, sich zu beeilen und das Geld abzuheben, das bereits an den Betrüger gesendet worden war. Und die Wahrheit kam heraus, als der echte Sohn sie anrief, und hier wurde die Geschichte klar und sie wussten, dass es ein Trick war, auf den sie hereingefallen waren und der Betrüger mit ihrem Geld entkommen war. Und falls Sie sich fragen, wie sie an Birkins Stimme gekommen sind, finden Sie die Antwort ganz einfach im Internet, wo er eine Reihe von Videos über das Snowboarden auf YouTube gepostet hat, und höchstwahrscheinlich versucht der Betrüger, durch Suchen auf eine Audiodatei für Sie zuzugreifen auf YouTube oder in Ihren sozialen Konten oder sogar in den Geschichten, die Sie auf TikTok oder Instagram posten.

Um schließlich nicht in die Falle zu tappen, wenn Sie einen Anruf von einer Stimme erhalten, die behauptet, dass er ein Mitglied Ihrer Familie ist und Geld braucht, halten Sie diesen Anruf und versuchen Sie, diese Person zu kontaktieren, um die Angelegenheit zu bestätigen. Wenn Sie Zweifel haben, versuchen Sie auch, mit der Person über Dinge zu sprechen, die Sie wissen, und fragen Sie sie nach irgendetwas, um sicherzustellen, dass es sich nicht um eine falsche Stimme handelt.

Ist Ihnen dieses Problem schon einmal begegnet und wie sind Sie damit umgegangen? Sag es uns in den Kommentaren

Quelle:

Washingtonpost

Verwandte Artikel