Dolandırıcılar daha akıllı hale geliyor ve bu yüzden her gün başkalarını kandırmak için yeni yollar buluyoruz ve geçmişte bazıları bunu deniyordu. Hacklemek Facebook'taki hesabınız veya e-postanız ve ardından arkadaşlarınıza, ailenize ve hesaptaki herhangi birine e-posta gönderir ve onların siz olduğunuz ve başınız belada olduğu ve bu paraya acil ihtiyacınız olduğu bahanesiyle elbette para istemeye çalışır. bu ucuz numara çok küçük bir oranda işe yaradı, ancak öyle görünüyor ki yapay zekanın gelişimi bu numarayı Korkutucu bir şekilde başarılı kıldı.


kimlik Hırsızı

Kimliğe bürünme dolandırıcılığının neden bu kadar iyi çalışmadığını biliyor musunuz, çünkü dolandırıcının sosyal medya hesabınızı veya e-postanızı hacklemesi için bir bilgisayar korsanı olması gerekir ve çoğu zaman diğerleri buna inanmaz ve sizinle bir telefon görüşmesi yapmaya çalışır. Hikayeyi doğrulamak için sizsiniz, ama ya denerse Arkadaşınız ya da belki kardeşiniz, karınız ya da bir yakınınız sizi arar ve sizinle sesli konuşur ve ihtiyacı olduğu için borç para almanızı ister. Sonuç tabii ki hile hemen çalışacak ve ne şekilde olursa olsun parayı göndereceksiniz. Yakınlarının yardım istediğini zannettikleri bu dönemde birçok kişinin başına gelen de bu oldu, ancak bunun sadece yapay zeka (AI) destekli bir dolandırıcılık olduğu ortaya çıktı.


 Hile yapay zeka tarafından desteklenmektedir

Dolandırıcı, yapay zekayı kullanarak başı belaya giren veya sıkıntı yaşayan ve maddi yardıma ihtiyacı olan bir aile üyesi gibi görünüyor ve Washington Post tarafından yayınlanan bir habere göre, 73 yaşındaki Ruth Card adlı bir kadın telefon aldı. Birinden sesini duyar duymaz onun olduğunu hemen anladı.Telefonsuz ve cüzdansız hapiste olduğunu ve kefalet için paraya ihtiyacı olduğunu söyleyen torunu Brandon.

Hemen Ruth ve kocası Greg en yakın bankaya koştular ve yaklaşık 3000 $ (günlük maksimum para çekme miktarı) çektiler, ardından torunları için daha fazla para çekmek üzere başka bir bankaya koştular, ancak banka çalışanı onları sakinleştirdi ve onlara şunları söyledi: bazı müşteriler, tanıdıkları ve Para istedikleri kişilerden bir telefon aldı, ancak bu sesin sahte olduğu ortaya çıktı. Peki ya telefondaki kişi torununuz değilse?

Ruth ve kocası Greg'in düşündüğü de buydu.Kulağa Brandon gibi geliyor ama o değil ve kandırıldıklarını hemen anlıyorlar. Ruth, "Tamamen kandırıldık ve Brandon ile konuştuğumuza ikna olduk," dedi.

Sadece bilgi için: sahte ses sitesi herkes tarafından kullanılabilir ve kullanımı kolaydır, ancak Arapça'yı desteklemiyor ve bu site: https://elevenlabs.io

Bu konuda uzmanlaşmış şirketlerden biri, kısa bir ses örneğini bir metinden konuşmaya aracı aracılığıyla yapay olarak oluşturulmuş bir sese dönüştürebilen, 2022'de kurulmuş bir AI ses oluşturma girişimi olan ElevenLabs'tır. Şirketin aracı ücretsiz olarak veya 5 dolardan başlayan fiyatlarla kullanılabilir.


Hile nasıl çalışır?

Yapay zekadaki ilerlemeler, dolandırıcıların kendi söylediğiniz birkaç kelime öbeği veya cümleden yalnızca bir ses örneğini kullanarak sesi kopyalamasına olanak tanıdı. Böylece, yapay zeka ve ucuz hatta ücretsiz çevrimiçi araçlar aracılığıyla, dolandırıcı sizin ve başkalarının ses dosyasının tam bir kopyasını elde edebilir ve daha sonra dolandırıcı, yapay zekayı kullanarak sizin ses tonunuzda konuşmasını sağlar.

Dolandırıcılık birçok biçimde ortaya çıksa da, dolandırıcının güvenilir bir kişiyi (kardeş, kuzen veya arkadaş) taklit etmesi ve mağduru zor durumda olduğu için kendisine para göndermeye ikna etmesiyle aynı şekilde çalışırlar.

Ancak AI destekli ses teknolojisi, numarayı daha da ikna edici hale getiriyor. Bu, gazetenin haberiyle kanıtlandı; burada kurbanlar, akrabalarının tehlikede olduğunu öğrendiklerinde tepkilerinin aşırı korkuyla karışık kaygı olduğunu ve bu, dolandırıcının çaldığı hassas akorttur, çünkü başkalarına karşı duygu iş başındadır. mantığın yokluğu ve bu nedenle düzgün düşünemiyoruz ve amacımız sadece değer verdiklerimize Yardım etmek oluyor.


yapay zeka

Bu hile, ulaştığımız teknik ilerlemeye ve pek çok harika şey yapabilen yapay zekadaki gelişmeye atıfta bulunuyor ve belki de ileride sizin için makaleler yazan bir yapay zeka ile yerimi alabilirim, kim bilir.

Site yöneticisi iPhone İslam'dan yorum: Üzerinde çalışıyoruz, Walid. 🤣

Ama bildiğimiz gibi her şeyin iki yüzü var ve yapay zekanın diğer yüzü de dolandırıcılar ve dolandırıcılar tarafından sesleri taklit etmek ve başta yaşlılar olmak üzere mağdurları sevdiklerinin ve yakınlarının zor durumda olduğuna ve maddi yardıma ihtiyacı olduğuna ikna etmek için kötüye kullanması.

Girilen verilere dayalı olarak metin, görüntü veya ses üreten programlara güç veren üretici yapay zekadaki mevcut gelişimin korkunç bir sonucu. Matematik ve bilgi işlem gücündeki gelişmeler, bu tür programlar için geliştirilmiş eğitim mekanizmalarına sahiptir. Bu, çok sayıda şirketi sohbet botları, görüntü oluşturma araçları ve hatta orijinalinden ayırt edilemeyen sesler başlatmaya motive etti.

Bir uzman, AI ses üreten yazılımın bir kişinin sesini yaş, cinsiyet ve aksan dahil olmak üzere benzersiz kılan şeyleri analiz ettiğini ve benzer sesleri bulmak ve kalıpları tahmin etmek için kapsamlı bir ses veritabanında arama yaptığını söyledi. Bir kişinin sesinin aynı tonu daha sonra yeniden yaratılabilir ve benzer bir etki yaratılabilir. YouTube gibi yerlerden veya Facebook videolarınızdan, Instagram'dan ve hatta Facebook'tan alabileceğiniz küçük bir ses örneği alır.


 Başka bir hikaye

Hikaye, ebeveynleri, oğulları Birkin'in avukatı olduğunu iddia eden bir kişiden bir telefon alıp onlara onun bir araba kazasında birini öldürdüğünü ve Birkin'in şu anda hapiste olduğunu ve dava için biraz paraya ihtiyacı olduğunu söylediğinde başladı. oğullarının kısa süre sonra onlarla konuşacağını.

Avukat telefonu Birkin'e verir ve kısa süre sonra anne, Birkin'in onları sevdiğini ve paraya ihtiyacı olduğunu söyleyen sesini duyar. Birkaç saat sonra avukat, Birkin'in ailesini tekrar aradı ve oğullarının o gün daha sonraki bir mahkeme tarihine kadar 21000 dolara ihtiyacı olduğunu söyledi.

Daha sonra Birkin'in ailesi, aramanın kulağa alışılmadık geldiğini ve bazı şüphelerin olduğunu söylediler, ancak onlara, oğullarıyla zaten konuştuklarını ve onun yardımına ihtiyacı olduğunu söyleyen içgüdüsel hisler, bu çağrıyı çabucak ortadan kaldırdı.

Ne yazık ki bir sonraki plan, aceleyle dolandırıcıya gönderilmiş olan parayı geri çekmekti. Ve gerçek, gerçek oğul onları aradığında ortaya çıktı ve burada hikaye netleşti ve bunun içine düştükleri bir oyun olduğunu anladılar ve dolandırıcı paralarını alarak kaçtı. Ve Birkin'in sesini nasıl aldıklarını merak ediyorsanız, yanıt internette kolayca bulunabilir, burada snowboard hakkında konuştuğu bir dizi videoyu YouTube'da yayınlamıştır ve büyük olasılıkla dolandırıcı arama yaparak sizin için bir ses dosyasına erişmeye çalışır. YouTube'da veya sosyal hesaplarınızda ve hatta TikTok veya Instagram'da yayınladığınız hikayelerde.

Son olarak, tuzağa düşmemek için, ailenizden biri olduğunu ve paraya ihtiyacı olduğunu söyleyen bir ses alırsanız, bu aramayı beklemeye alın ve bu kişiyle iletişime geçerek konuyu doğrulamaya çalışın. Ayrıca şüpheniz varsa, sahte bir ses olmadığından emin olmak için kişiyle bildiğiniz şeyler hakkında konuşmayı ve ona herhangi bir şey sormayı deneyin.

Bu sorunla daha önce karşılaştınız mı ve bununla nasıl başa çıktınız? Yorumlarda bize bildirin

المصدر:

Washington Post

İlgili Makaleler