المحتالون يستخدمون الذكاء الاصطناعي في مكالمات الفيديو للإيقاع بضحاياهم
كيف يعمل الاحتيال باستخدام الذكاء الاصطناعي في مكالمات الفيديو؟
1. إنشاء شخصيات افتراضية
بفضل تقنية التزييف العميق (Deepfake)، يمكن للمحتالين إنشاء مقاطع فيديو واقعية لشخصيات حقيقية أو مزيفة باستخدام صور وفيديوهات متاحة على الإنترنت.
2. تزوير الصوت والصورة في الوقت الحقيقي
التكنولوجيا الحديثة تتيح للمحتالين تزوير الصوت وتحريك الفيديو في الوقت الحقيقي، مما يجعل الخداع أكثر واقعية.
3. استهداف الضحايا
المحتالون يستخدمون هذه التقنيات في الابتزاز، التصيد الاحتيالي، والاحتيال العاطفي للحصول على أموال أو معلومات حساسة.
لماذا يصعب اكتشاف هذا النوع من الاحتيال؟
- الواقعية العالية: التزييف العميق ينتج مقاطع فيديو وصوت لا يمكن تمييزها بسهولة عن الواقع.
- التكنولوجيا المتطورة: المحتالون يستخدمون تقنيات ذكاء اصطناعي متقدمة.
- الثقة في مكالمات الفيديو: الناس يثقون بما يرونه ويسمعونه عبر الفيديو.
أبرز الحالات التي استُخدمت فيها هذه التقنية
- الابتزاز المالي: خداع الضحية لإرسال أموال بناءً على مكالمة فيديو مزورة.
- خداع الشركات: انتحال صفة مدراء تنفيذيين لطلب تحويل أموال.
- الاحتيال العاطفي: التلاعب بالمشاعر للحصول على أموال وهدايا.
كيفية حماية نفسك من هذا النوع من الاحتيال
- تحقق من الهوية دائمًا: إذا شعرت بالشك، استخدم وسيلة اتصال مختلفة للتحقق من هوية الشخص.
- استخدم التكنولوجيا لكشف التزييف: استعن بأدوات تحليل الفيديو والصوت.
- احذر من الطلبات المفاجئة: لا تستجب لطلبات تحويل الأموال دون التحقق.
- قلل من مشاركة بياناتك على الإنترنت: احرص على حماية صورك ومقاطع الفيديو الخاصة بك.
- قم بتثقيف نفسك وأحبائك: شارك المعلومات حول الاحتيال الرقمي لتجنب الوقوع ضحية.
اغلاق