Penipu semakin pintar dan itulah sebabnya kami menemukan cara baru setiap hari untuk menipu orang lain, dan di masa lalu ada yang mencoba Peretasan Akun Anda di Facebook atau email Anda, lalu dia mengirim email kepada teman, keluarga, dan siapa pun di akun tersebut dan mencoba meminta uang dengan dalih bahwa mereka adalah Anda dan bahwa Anda sedang dalam masalah dan membutuhkan uang itu dengan cepat, tentu saja Trik murahan itu berhasil dalam persentase yang sangat kecil, namun tampaknya perkembangan kecerdasan buatan membuat trik itu berhasil dengan dahsyatnya.


pencurian identitas

Tahukah Anda mengapa penipuan peniruan identitas gagal bekerja dengan baik, karena penipu harus menjadi peretas untuk meretas akun media sosial atau email Anda, dan sering kali orang lain tidak mempercayainya dan mencoba melakukan panggilan telepon dengan Anda untuk mengkonfirmasi ceritanya, tetapi bagaimana jika dia mencoba Teman Anda, atau mungkin saudara laki-laki, istri Anda, atau seseorang yang dekat dengan Anda, menelepon Anda dan berbicara kepada Anda melalui suara dan meminta Anda untuk meminjam uang karena dia membutuhkannya. hasilnya, tentu saja triknya akan langsung bekerja dan Anda akan mengirim uang dengan cara apa pun. Inilah yang terjadi pada banyak orang di masa sekarang, karena mereka mengira kerabat mereka meminta bantuan, tetapi ternyata itu hanya penipuan yang didukung oleh kecerdasan buatan AI.


 Trik ini didukung oleh kecerdasan buatan

Penipu menggunakan kecerdasan buatan untuk tampil seperti anggota keluarga yang telah jatuh ke dalam masalah atau sedang dalam kesusahan dan membutuhkan bantuan keuangan, dan menurut sebuah laporan yang diterbitkan oleh Washington Post, Ruth Card, seorang wanita berusia 73 tahun, menerima a telepon dari seseorang begitu dia mendengar suaranya, dia langsung tahu bahwa itu adalah dia.Cucunya, Brandon, yang mengatakan kepadanya bahwa dia dipenjara tanpa telepon atau dompet dan membutuhkan uang untuk jaminan.

Segera Ruth dan suaminya Greg bergegas ke bank terdekat dan menarik sekitar $ 3000 (penarikan maksimum harian), kemudian mereka bergegas ke bank lain untuk menarik lebih banyak uang untuk cucu mereka, tetapi pegawai bank menenangkan mereka dan memberi tahu mereka, beberapa pelanggan menerima telepon dari orang yang mereka kenal dan meminta Uang, tetapi ternyata suara ini palsu. Jadi bagaimana jika orang di telepon itu bukan cucu Anda.

Itulah yang dipikirkan Ruth dan suaminya Greg. Kedengarannya seperti Brandon tetapi bukan dia, dan mereka segera menyadari bahwa mereka telah ditipu. "Kami benar-benar tertipu, dan kami yakin kami sedang berbicara dengan Brandon," kata Ruth.

Sekadar informasi: situs suara palsu tersedia untuk semua orang dan mudah digunakan, tetapi tidak mendukung bahasa Arab, dan ini situsnya: https://elevenlabs.io

Salah satu perusahaan yang berspesialisasi dalam hal ini adalah ElevenLabs, startup penghasil suara AI yang didirikan pada tahun 2022 yang dapat mengubah sampel audio pendek menjadi suara yang dihasilkan secara artifisial melalui alat text-to-speech. Alat perusahaan dapat digunakan secara gratis atau dengan biaya mulai dari $5.


Bagaimana cara kerja triknya?

Kemajuan dalam kecerdasan buatan telah memungkinkan scammer mereplikasi audio hanya dengan menggunakan sampel audio dari beberapa frasa atau kalimat yang Anda ucapkan sendiri. Jadi, melalui kecerdasan buatan dan alat online yang murah atau bahkan gratis, penipu dapat memperoleh salinan persis dari file audio Anda dan orang lain, lalu penipu menggunakan kecerdasan buatan untuk membuatnya berbicara dengan nada yang sama dengan suara Anda.

Meskipun penipuan datang dalam berbagai bentuk, mereka bekerja dengan cara yang sama di mana penipu menyamar sebagai orang yang dapat dipercaya sebagai saudara, sepupu atau teman dan meyakinkan korban untuk mengiriminya uang karena dia dalam kesulitan.

Tapi teknologi suara bertenaga AI membuat triknya semakin meyakinkan. Hal ini dibuktikan dengan laporan surat kabar, di mana para korban menggambarkan bahwa reaksi mereka adalah kecemasan bercampur dengan kengerian yang ekstrim ketika mereka mengetahui bahwa kerabat mereka dalam bahaya, dan ini adalah nada sensitif yang dimainkan oleh penipu, karena emosi terhadap orang lain bekerja di dalamnya. tidak adanya logika dan oleh karena itu kita tidak dapat berpikir dengan benar dan tujuan kita menjadi Hanya membantu mereka yang kita sayangi.


Kecerdasan buatan

Trik ini mengacu pada kemajuan teknis yang telah kami capai dan pengembangan kecerdasan buatan yang mampu melakukan banyak hal luar biasa, dan saya mungkin akan digantikan oleh kecerdasan buatan yang menulis artikel untuk Anda di masa mendatang, siapa tahu.

Komentar dari pengelola situs iPhone Islam: Kami sudah mengerjakannya, Walid 🤣

Namun seperti yang kita ketahui semuanya memiliki dua sisi, dan sisi lain dari kecerdasan buatan adalah penyalahgunaannya oleh penipu dan penipu untuk meniru suara dan meyakinkan korban, terutama orang tua, bahwa orang yang mereka cintai dan kerabat sedang dalam kesulitan dan membutuhkan bantuan keuangan.

Ini adalah implikasi suram dari perkembangan AI generatif saat ini yang mendukung program yang menghasilkan teks, gambar, atau suara berdasarkan data yang dimasukkan. Kemajuan dalam matematika dan daya komputasi telah meningkatkan mekanisme pelatihan untuk program semacam itu. Ini memotivasi sejumlah besar perusahaan untuk meluncurkan chatbot, alat pembuat gambar, dan bahkan suara yang tidak dapat dibedakan dari aslinya.

Seorang ahli mengatakan perangkat lunak penghasil suara AI menganalisis apa yang membuat suara seseorang unik termasuk usia, jenis kelamin, dan aksen, serta mencari basis data suara yang luas untuk menemukan suara yang serupa dan memprediksi pola. Nada yang identik dari suara seseorang kemudian dapat dibuat ulang dan efek serupa dibuat. Dibutuhkan sedikit sampel audio yang bisa Anda dapatkan dari tempat-tempat seperti YouTube atau mungkin salah satu video Facebook, Instagram, atau bahkan Facebook Anda.


 Cerita lain

Cerita bermula ketika orang tuanya menerima telepon dari seseorang yang mengaku sebagai pengacara putra mereka Birkin dan memberi tahu mereka bahwa dia membunuh seseorang melalui kecelakaan mobil, dan Birkin sekarang berada di penjara dan membutuhkan sejumlah uang untuk kasus tersebut, kemudian dia memberi tahu mereka. bahwa putra mereka akan segera berbicara dengan mereka.

Pengacara meletakkan Birkin di telepon dan segera ibunya mendengar suara Birkin mengatakan kepada mereka bahwa dia mencintai mereka dan membutuhkan uang. Beberapa jam kemudian, pengacara menelepon orang tua Birkin lagi, mengatakan putra mereka membutuhkan $21000 sebelum tanggal pengadilan hari itu juga.

Orang tua Birkin mengatakan setelah itu bahwa panggilan itu terdengar tidak biasa dan ada beberapa kecurigaan, tetapi dengan cepat dihilangkan oleh firasat yang memberi tahu mereka bahwa mereka telah berbicara dengan putra mereka dan dia membutuhkan bantuan mereka.

Sayangnya rencana selanjutnya adalah bergegas keluar dan menarik uang yang sudah dikirim ke scammer. Dan kebenaran terungkap ketika putra kandung memanggil mereka, dan di sini ceritanya menjadi jelas dan mereka tahu bahwa itu adalah tipuan yang mereka lakukan dan penipu melarikan diri dengan uang mereka. Dan jika Anda bertanya-tanya bagaimana mereka mendapatkan suara Birkin, jawabannya mudah melalui Internet, di mana dia memposting sejumlah video berbicara tentang seluncur salju di YouTube, dan kemungkinan besar, penipu mencoba mengakses file audio untuk Anda, dengan mencari di YouTube atau di akun sosial Anda, atau bahkan di cerita yang Anda posting di TikTok atau Instagram.

Terakhir, agar tidak jatuh ke dalam perangkap, jika Anda menerima panggilan dari suara yang mengklaim bahwa dia adalah anggota keluarga Anda dan dia membutuhkan uang, tunda panggilan ini dan coba hubungi orang ini untuk mengonfirmasi masalah tersebut. Juga jika Anda ragu, cobalah berbicara dengan orang tersebut tentang hal-hal yang Anda ketahui dan tanyakan tentang apa saja untuk memastikan bahwa itu bukan suara palsu.

Pernahkah Anda mengalami masalah ini sebelumnya, dan bagaimana Anda mengatasinya? Beri tahu kami di komentar

Sumber:

washingtonpost

Artikel terkait