حذّر مجلس الأمن السيبراني في حكومة دولة الإمارات، الأفراد من الوقوع ضحية لعمليات النصب والاحتيال التي تتم عبر تقنيات الذكاء الاصطناعي. حيث يمكن أن ينتحل المحتالون صفة أحد معارفهم أو أقاربهم، ويقومون بتزييف أصواتهم وصورهم لإجراء مكالمات فيديو، بهدف طلب تحويل أموال. وقد نبه المجلس إلى أن الذكاء الاصطناعي أداة يمكن استخدامها للنصب والاحتيال، داعياً الأفراد إلى ضرورة التدقيق في هوية المتصل والانتباه إلى التقنيات التي يستخدمها المحتالون لتضليلهم.
ونشر المجلس عبر حسابه على موقع "إكس" مقطع فيديو توعوياً يظهر شخصاً يتلقى اتصال فيديو من شخص يبدو كأحد أصدقائه، يطلب منه تحويل أموال بشكل عاجل. لكن الشخص يدرك سريعاً أن هناك اختلافاً في نبرة الصوت، مما يجعله يشك في هوية المتصل.
وفي هذا السياق، أكد الخبير في الأمن السيبراني، عبدالنور سامي، أن تقنية تزييف الصوت والصورة لم تعد حكراً على المحترفين، بل أصبحت متاحة للجميع، مما يزيد من مخاطر استخدامها في عمليات النصب. وذكر أن هناك نوعين من الاحتيال باستخدام هذه التقنية: الأول هو طلب المساعدة المالية عبر تزييف الهوية، والثاني هو الإعلانات الزائفة التي تروج للاستثمار.
وأشار عبدالنور إلى أن هذه الحيل لم تنجح كثيراً في العالم العربي، بسبب عدم دقة اللهجات العربية في تقنيات الذكاء الاصطناعي. كما أن المحتالين يواجهون صعوبة في تقليد اللهجات المختلفة داخل الإمارات. وأوضح أن نجاح هذه التقنيات يتطلب نماذج صوتية كثيرة، مما يجعل استخدامها في الاحتيال أمراً صعباً.
للحماية من هذه الحيل، يجب على الأفراد العودة إلى الأساسيات، مثل التأكد من هوية المتصل قبل اتخاذ أي قرار، خاصة في حال حدوث تغييرات مفاجئة في أسلوب الحديث أو الطلبات. كما أطلق مجلس الأمن السيبراني حملات توعوية تحذر من تصديق المحتوى الناتج عن تقنيات التزييف العميق.
وأكد المجلس على أهمية متابعة التطورات في هذا المجال، والتدقيق في مصادر المعلومات، وتطوير مهارات كشف التلاعب، وذلك لحماية الأفراد من الأخبار الكاذبة والتضليل.