في الدوحة، خلال مؤتمر أخلاقيات الذكاء الاصطناعي الذي نظمته جامعة حمد بن خليفة، تم تسليط الضوء على القضايا الأخلاقية المرتبطة بتكنولوجيا الذكاء الاصطناعي. المهندسة المغربية ابتهال أبو السعد، التي أثارت الجدل بعد موقفها في شركة مايكروسوفت، تحدثت عن كيفية استخدام الذكاء الاصطناعي في الحروب. انتقدت تسخير التكنولوجيا لخدمة آلة الحرب الإسرائيلية، مشددة على أهمية الأخلاق في معادلة الذكاء الاصطناعي.
كيف يُستخدم الذكاء الاصطناعي في الحروب؟
تعتبر ابتهال أن هناك جانبين رئيسيين يساهمان في جعل الذكاء الاصطناعي قوة مدمرة في الصراعات. الأول هو المراقبة والتحليل، حيث تتيح التقنيات الحديثة جمع كميات ضخمة من البيانات، مثل المكالمات والرسائل والصور، وتحليلها بواسطة أنظمة الذكاء الاصطناعي. هذه العمليات تؤدي إلى إنتاج معلومات استخباراتية مفيدة لمتخذي القرار.
اتخاذ القرار والضربات الموجهة
توضح ابتهال أن الذكاء الاصطناعي لا يقتصر على كونه أداة مساعدة، بل يمكن أن يُستخدم أحيانًا في اتخاذ قرارات مباشرة بشأن الأهداف العسكرية. هذا التكامل بين الاستخبارات الواسعة والقدرة التنفيذية الدقيقة يزيد من سرعة وكفاءة العمليات العسكرية، مما يؤدي إلى نتائج مدمرة.
شركات التكنولوجيا ودورها في الحروب
تؤكد ابتهال أن شركات التكنولوجيا ليست محايدة، بل هي شريك في الجرائم من خلال تزويد الجيوش بأدوات مصممة خصيصًا لأغراض عسكرية. هذه الشركات تعطي الأولوية للربح على حساب الأخطار الأخلاقية، مما يثير تساؤلات حول مسؤوليتها في الصراعات.
تحديات مطوري الذكاء الاصطناعي
تتساءل ابتهال عن تحيز مطوري الذكاء الاصطناعي في الغرب ضد المسلمين، وتقترح عدة مسارات للتعامل مع هذه القضايا. من بينها، ضرورة بناء بدائل محلية لتقنيات الذكاء الاصطناعي، مما يقلل من الاعتماد على الشركات العالمية.
تقييم مشاريع الذكاء الاصطناعي العربية
تشير ابتهال إلى أن الموارد البشرية متاحة في المنطقة، لكن العائق الرئيسي هو نقص التمويل. لذا، يجب أن يكون هناك توازن بين الاستثمار في البحث وتطوير الصناعة، مع التركيز على الأخلاق والتشريع في كل مراحل التطوير.
ما طرحته ابتهال أبو السعد هو دعوة سياسية وأخلاقية لبناء بدائل مسؤولة في مجال الذكاء الاصطناعي، تضمن حقوق الإنسان وتحد من استخدام التكنولوجيا في الحروب.