المحتالون أصبحوا أكثر ذكاء ولهذا نجد كل يوم طرقاً جديدة للنصب على الآخرين، وفي السابق كان البعض يحاول تهكير حسابك على فيسبوك أو بريدك الإلكتروني ومن ثم يقوم بمراسلة الأصدقاء والعائلة وأي شخص في الحساب ويحاول طلب الأموال بحجة أنهم أنت وأنك في مأزق وتحتاج لتلك النقود سريعا، بالطبع كانت تلك الحيلة الرخيصة تعمل بنسبة ضئيلة جدا، لكن يبدو أن تطور الذكاء الاصطناعي جعل تلك الحيلة تنجح بشكل مخيف.


انتحال الشخصية

هل تعلم سبب فشل حيلة انتحال الشخصية في العمل بشكل قوي، لأن المحتال بحاجة لأن يكون هاكر ليخترق حسابك على مواقع التواصل الاجتماعي أو بريدك الإلكتروني، كما أن الآخرين في معظم الأحيان لا يصدقون الأمر ويحاولون إجراء مكالمة هاتفية معك للتأكد من القصة، لكن ماذا لو حاول صديقك أو ربما أخوك أو زوجتك أو شخص قريب منك أن يتصل عليك ويتحدث معك صوتيا ويطلب منك اقتراض بعض الأموال لأنه بحاجة لها، ماذا ستكون النتيجة، بالطبع سوف تنجح الحيلة على الفور وسوف ترسل المال بأي وسيلة. هذا ما حدث مع الكثير من الأشخاص الفترة الحالية، حيث ظنوا أن أقرباءهم كانوا يطلبون المساعدة لكن اتضح الأمر أنها مجرد عملية احتيال مدعومة من قبل الذكاء الاصطناعي AI.


 الحيلة مدعومة بالذكاء الاصطناعي

يستخدم المحتال الذكاء الاصطناعي ليظهر مثل أحد أفراد أسرتك الذي وقع في مأزق أو تعرض إلى محنة ويحتاج للمساعدة المالية، ووفقا لتقرير نشرته صحيفة واشنطن بوست، تلقت روث كارد وهي سيدة تبلغ من العمر 73 عاما مكالمة من شخص بمجرد ما سمعت صوته، عرفت على الفور بأنه حفيدها براندون الذي قال لها بأنه في السجن بدون هاتف أو محفظة ويحتاج نقود للإفراج عنه بكفالة.

فورا هرعت روث وزوجها جريج إلى أقرب بنك وسحبا حوالي 3000 دولار (الحد الأقصى للسحب اليومي)، ثم أسرعوا لبنك آخر من أجل سحب المزيد من الأموال لحفيدهما، إلا أن موظف البنك هدء من روعهم وقال لهما، بعض العملاء تلقوا مكالمة من أشخاص يعرفونهم وكانوا يطلبون المال لكن اتضح أن هذا الصوت كان مزيفا. لذا ماذا لو لم يكن الشخص على الهاتف هو حفيدكما.

هنا فكرت روث وزوجها جريج، الصوت يشبه براندون لكنه ليس هو، وهنا أدركا على الفور أنهما تعرضا للخداع. وقالت روث “لقد تم خداعنا بالكامل، وكنا مقتنعين بأننا كنا نتحدث مع براندون”.

فقط للمعلومة: موقع تزيف الأصوات متاح للجميع وسهل الاستخدام، لكن لا يدعم العربية، وهذا هو الموقع: https://elevenlabs.io

وهو إحدى الشركات المتخصصة في هذا الأمر هي ElevenLabs وتعتبر شركة ناشئة لإنشاء الصوت بالذكاء الاصطناعي وتأسست عام 2022 ويمكنها تحويل عينة صوتية قصيرة إلى صوت تم إنشاؤه صناعيًا من خلال أداة تحويل النص إلى كلام. وأداة الشركة يمكن استخدامها بشكل مجاني أو بتكلفة تبدأ من 5 دولارات.


كيف تعمل الحيلة؟

التطور في مجال الذكاء الاصطناعي سمح للمحتالين بتكرار الصوت باستخدام عينة صوتية فقط من بضع عبارات أو جمل تنطقها بنفسك. وهكذا من خلال الذكاء الاصطناعي وأدوات رخيصة أو حتى مجانية على الإنترنت، يمكن للمحتال الحصول على نسخة طبق الأصل من ملف صوتي لك ولغيرك، وبعدها يستخدم المحتال الذكاء الاصطناعي ليجعله يتحدث بنفس نبرة صوتك.

على الرغم من أن عمليات الاحتيال تأتي في أشكال عديدة إلا أنها تعمل بنفس الطريقة حيث ينتحل المحتال شخصية شخص جدير بالثقة أخ أو ابن عم أو صديق ويقنع الضحية بإرسال الأموال إليه لأنه في محنة.

لكن تقنية الصوت المدعومة بالذكاء الاصطناعي تجعل الحيلة أكثر إقناعًا. وهذا ما أثبته تقرير الصحيفة حيث وصف الضحايا أن رد فعلهم كان عبارة عن قلق ممزوج برعب شديد عند علموا أن أقرباءهم في خطر وهذا هو الوتر الحساس الذي يلعب عليه المحتال، حيث تعمل العاطفة تجاه الآخرين في غياب المنطق وبالتالي لا نستطيع التفكير بشكل صحيح ويصبح هدفنا هو مساعدة من نهتم بهم فقط.


الذكاء الاصطناعي

تلك الحيلة تشير إلى التقدم التقني الذي وصلنا إليه والتطور في الذكاء الاصطناعي الذي أصبح قادراً على فعل الكثير من الأشياء الرائعة وربما يتم استبدالي بذكاء اصطناعي يكتب لكم المقالات في المستقبل، من يدري.

تعليق من مدير موقع آي-فون إسلام: نحن نعمل على ذلك بالفعل يا وليد 🤣

ولكن كما نعرف لكل شيء وجهين، والوجه الآخر للذكاء الاصطناعي هو استغلاله بشكل سئ من قبل المحتالين والنصابين لتقليد الأصوات وإقناع الضحايا وتحديدا كبار السن بأن أحباءهم وأقرباءهم في محنة ويحتاجون للمساعدة المالية.

إنه تأثير قاتم للتطور الحالي في الذكاء الاصطناعي التوليدي الذي يدعم البرامج التي تنشئ نصوصًا أو صورًا أو أصواتًا بناءً على البيانات التي يتم إدخالها. حيث أدى التقدم في الرياضيات وقوة الحوسبة إلى تحسين آليات التدريب لمثل هذه البرامج. وهذا الأمر حفز عدد كبير من الشركات على إطلاق روبوتات المحادثة وأداوت إنشاء الصور وحتى الأصوات التي لا يمكن التفريق بينها وبين الأصلية.

قال أحد الخبراء أن برنامج توليد الصوت بالذكاء الاصطناعي يحلل ما يجعل صوت الشخص فريدًا بما في ذلك العمر والجنس واللهجة ويبحث في قاعدة بيانات واسعة من الأصوات للعثور على أصوات مماثلة والتنبؤ بالأنماط. ويمكن بعد ذلك إعادة إنشاء نغمة متطابقة لصوت الشخص وخلق تأثير مشابه. الأمر يتطلب عينة صغيرة من الصوت يمكن الحصول عليها من أماكن مثل يوتيوب أو ربما أحد فيديوهاتك على فيسبوك أو إنستجرام أو حتى الفيس بوك.


 قصة أخرى

بدأت القصة عندما تلقى والداه مكالمة هاتفية من شخص يدعي أنه محام ابنهما بيركين وأخبرهما بأنه قتل شخصاً ما عبر حادث سيارة، وبيركين الآن في السجن ويحتاج إلى بعض الأموال الخاصة بالقضية، ثم قال لهما أن ابنهما سوف يتحدث معهما بعد قليل.

وضع المحامي بيركين على الهاتف وسرعان من سمعت الأم صوت بيركين الذي أخبرهما أنه يحبهما ويحتاج إلى المال. بعد ساعات قليلة، اتصل المحامي بوالدي بيركين مرة أخرى، قائلاً إن ابنهما يحتاج إلى 21000 دولار قبل موعد المحكمة في وقت لاحق من ذلك اليوم.

قالا والدا بيركين بعد ذلك أن المكالمة قد بدت غير عادية وكان هناك بعض الشكوك، لكن سرعان ما اختفى بسبب الشعور الداخلي الذي أخبرهما بأنهما تحدثا بالفعل إلى ابنهما وهو بحاجة إلى مساعدتهما.

للأسف كانت الخطة التالية هي الإسراع وسحب الأموال التي تم إرسالها بالفعل للمحتال. وظهرت الحقيقة عندما اتصل الابن الحقيقي بهما، هنا اتضحت القصة وعلموا بأنك الأمر كان حيلة وقعوا فيها وهرب المحتال بأموالهم. وفي حال كنت تتساءل كيف حصلوا على صوت بيركين، والإجابة بكل سهولة من خلال الإنترنت حيث قام بنشر عدد من الفيديوهات وهو يتحدث عن رياضة التزلج على الجليد عبر اليوتيوب، وفي الغالب، يحاول المحتال الوصول إلى ملف صوتي لك، عبر البحث في يوتيوب أو على حساباتك الاجتماعية أو حتى في القصص التي تقوم بنشرها على تيك توك أو إنستجرام.

أخيرا، حتى لا تقع في الفخ، إذا جاءتك مكالمة من صوت يدعي أنه أحد أفراد أسرتك وأنه بحاجة إلى المال، ضع هذه المكالمة في الانتظار وحاول الاتصال بهذا الشخص للتأكد من الأمر. أيضا إذا كان لديك شك، حاول التحدث مع الشخص في أمور تعرفونها وسؤاله عن أي شيء للتأكد من أنه ليس صوتا مزيفا.

هل واجهتك تلك المشكلة من قبل، وكيف تعاملت معها؟ أخبرنا في التعليقات

المصدر:

washingtonpost

مقالات ذات صلة