Fraudeurs worden steeds slimmer en daarom vinden we elke dag nieuwe manieren om anderen te misleiden, en in het verleden probeerden sommigen Hacken Je account op Facebook of je e-mail, en dan e-mailt hij vrienden, familie en iedereen in het account en probeert hij geld te vragen onder het voorwendsel dat jij het bent en dat je in de problemen zit en dat geld natuurlijk snel nodig hebt die goedkope truc werkte in een heel klein percentage, maar het lijkt erop dat de ontwikkeling van kunstmatige intelligentie ervoor heeft gezorgd dat die truc angstaanjagend is gelukt.


identiteitsdiefstal

Weet u waarom de imitatiezwendel niet zo goed werkt, omdat de oplichter een hacker moet zijn om uw sociale media-account of uw e-mail te hacken, en meestal geloven anderen het niet en proberen ze te bellen met u om het verhaal te bevestigen, maar wat als hij het probeert Uw vriend, of misschien uw broer, vrouw of iemand die dicht bij u staat, belt u en spreekt u met uw stem aan en vraagt ​​u om wat geld te lenen omdat hij het nodig heeft. Het resultaat: de truc werkt natuurlijk meteen en u stuurt het geld op welke manier dan ook. Dit is wat er in de huidige periode met veel mensen is gebeurd, omdat ze dachten dat hun familieleden om hulp vroegen, maar het bleek dat het slechts om fraude ging, ondersteund door kunstmatige intelligentie AI.


 De truc wordt aangedreven door kunstmatige intelligentie

De fraudeur gebruikt kunstmatige intelligentie om eruit te zien als een familielid dat in de problemen is gekomen of nood heeft ervaren en financiële hulp nodig heeft, en volgens een rapport gepubliceerd door de Washington Post, kreeg Ruth Card, een 73-jarige vrouw, een telefoontje van een persoon zodra ze zijn stem hoorde, wist ze meteen dat hij het was.Haar kleinzoon, Brandon, die haar vertelde dat hij in de gevangenis zat zonder telefoon of portemonnee en geld nodig had voor borgtocht.

Onmiddellijk haastten Ruth en haar man Greg zich naar de dichtstbijzijnde bank en namen ongeveer $ 3000 op (de maximale dagelijkse opname), daarna haastten ze zich naar een andere bank om meer geld op te nemen voor hun kleinzoon, maar de bankmedewerker kalmeerde hen en zei tegen hen: sommige klanten werden gebeld door mensen die ze kenden en vroegen geld, maar het bleek dat deze stem nep was. Dus wat als de persoon aan de telefoon niet uw kleinkind is?

Dat dachten Ruth en haar man Greg. Klinkt als Brandon, maar hij is het niet, en ze beseffen meteen dat ze bedrogen zijn. "We waren volledig misleid en we waren ervan overtuigd dat we met Brandon aan het praten waren", zei Ruth.

Ter informatie: de nep-stemsite is voor iedereen beschikbaar en gemakkelijk te gebruiken, maar ondersteunt geen Arabisch, en dit is de site: https://elevenlabs.io

Een bedrijf dat hierin is gespecialiseerd, is ElevenLabs, een in 2022 opgerichte AI-startup voor het genereren van stemmen die een kort audiofragment kan omzetten in een kunstmatig gegenereerde stem via een tekst-naar-spraak-tool. De tool van het bedrijf kan gratis of tegen een vergoeding vanaf $ 5 worden gebruikt.


Hoe werkt de truc?

Door vooruitgang op het gebied van kunstmatige intelligentie kunnen oplichters audio repliceren met slechts een audiofragment van een paar zinnen of zinnen die u zelf zegt. Zo kan de fraudeur via kunstmatige intelligentie en goedkope of zelfs gratis online tools een exacte kopie van een audiobestand van u en anderen verkrijgen, en vervolgens gebruikt de fraudeur kunstmatige intelligentie om hem op dezelfde toon van uw stem te laten spreken.

Hoewel oplichting in vele vormen voorkomt, werken ze op dezelfde manier als de oplichter zich voordoet als een betrouwbaar persoon, een broer, neef of vriend, en het slachtoffer overtuigt om hem geld te sturen omdat hij in nood verkeert.

Maar door AI aangedreven spraaktechnologie maakt de truc nog overtuigender. Dit werd bewezen door het rapport van de krant, waar de slachtoffers beschreven dat hun reactie angst was vermengd met extreme afschuw toen ze hoorden dat hun familieleden in gevaar waren, en dit is de gevoelige snaar waarop de fraudeur speelt, aangezien de emotie jegens anderen werkt in de afwezigheid van logica en daarom kunnen we niet goed denken en wordt ons doel alleen degenen helpen waar we om geven.


Kunstmatige intelligentie

Deze truc verwijst naar de technische vooruitgang die we hebben bereikt en de ontwikkeling in kunstmatige intelligentie die in staat is om veel prachtige dingen te doen, en ik kan worden vervangen door een kunstmatige intelligentie die in de toekomst artikelen voor je schrijft, wie weet.

Reactie van de sitebeheerder iPhone Islam: We zijn er al mee bezig, Walid ????

Maar zoals we weten heeft alles twee kanten, en de andere kant van kunstmatige intelligentie is het misbruik ervan door fraudeurs en oplichters om stemmen te imiteren en slachtoffers, vooral ouderen, ervan te overtuigen dat hun dierbaren en familieleden in nood verkeren en financiële hulp nodig hebben.

Het is een grimmige implicatie van de huidige ontwikkeling in generatieve AI die programma's aandrijft die tekst, afbeeldingen of geluiden genereren op basis van ingevoerde gegevens. Vooruitgang in wiskunde en rekenkracht hebben de trainingsmechanismen voor dergelijke programma's verbeterd. Dit motiveerde een groot aantal bedrijven om chatbots, tools voor het maken van afbeeldingen en zelfs stemmen te lanceren die niet van het origineel te onderscheiden zijn.

Een expert zei dat de AI-spraakgenererende software analyseert wat de stem van een persoon uniek maakt, inclusief leeftijd, geslacht en accent, en doorzoekt een uitgebreide database met stemmen om vergelijkbare stemmen te vinden en patronen te voorspellen. Een identieke toon van de stem van een persoon kan dan worden nagebootst en een soortgelijk effect kan worden gecreëerd. Er is een klein stukje audio voor nodig dat je kunt krijgen van plaatsen zoals YouTube of misschien een van je Facebook-video's, Instagram of zelfs Facebook.


 Nog een verhaal

Het verhaal begon toen zijn ouders een telefoontje kregen van een persoon die beweerde de advocaat van hun zoon Birkin te zijn en hen vertelde dat hij iemand had vermoord door een auto-ongeluk, en Birkin zit nu in de gevangenis en heeft wat geld nodig voor de zaak. dat hun zoon binnenkort met hen zou praten.

De advocaat legt Birkin aan de lijn en al snel hoort de moeder de stem van Birkin die zegt dat hij van ze houdt en geld nodig heeft. Een paar uur later belde de advocaat de ouders van Birkin opnieuw en zei dat hun zoon $ 21000 nodig had voor een rechtszaak later die dag.

Birkin's ouders zeiden achteraf dat het telefoontje ongebruikelijk had geklonken en dat er enige argwaan was geweest, maar dat werd snel weggenomen door het onderbuikgevoel dat hen vertelde dat ze hun zoon al hadden gesproken en dat hij hun hulp nodig had.

Helaas was het volgende plan om snel naar buiten te gaan en het geld op te nemen dat al naar de oplichter was gestuurd. En de waarheid kwam aan het licht toen de echte zoon hen belde, en hier werd het verhaal duidelijk en ze wisten dat het een truc was waar ze in vielen en de fraudeur ontsnapte met hun geld. En voor het geval je je afvraagt ​​hoe ze aan de stem van Birkin zijn gekomen, het antwoord is eenvoudig via internet, waar hij een aantal video's over snowboarden op YouTube plaatste, en hoogstwaarschijnlijk probeert de fraudeur toegang te krijgen tot een audiobestand voor je, door te zoeken op YouTube of op je sociale accounts, of zelfs in de verhalen die je op TikTok of Instagram plaatst.

Tot slot, om niet in de val te lopen, als u een telefoontje ontvangt van een stem die beweert dat hij een lid van uw familie is en dat hij geld nodig heeft, zet dit gesprek dan in de wacht en probeer contact op te nemen met deze persoon om de zaak te bevestigen. Als je twijfelt, probeer dan met de persoon te praten over dingen die je weet en vraag hem alles om er zeker van te zijn dat het geen valse stem is.

Ben je dit probleem eerder tegengekomen en hoe heb je het aangepakt? Vertel het ons in de reacties

Bron:

Washingtonpost

Gerelateerde artikelen