Table of Contents
سوريا – سوكة نيوز
مشان نعرف كيف ممكن تقنيات الاستهداف اللي بتعتمد على الخوارزميات تدفع المدنيين لقلب «سلسلة القتل» بدون ما تكون في مسؤولية واضحة أو قدرة على المحاسبة، بنشوف قصة طالب عراقي راح ضحية غارة أميركية سنة 2024، واللي اعترفوا بعدين إنو استخدموا فيها الذكاء الاصطناعي لتحديد الهدف. هالشي عم يزيد المخاوف اليوم مع استخدام هالتقنيات على نطاق واسع بالحروب، من العراق لإيران، ووقتها الخبراء عم يحذروا من إنو دور البشر بالتحكم عم يتراجع، والاعتماد على الآلة عم يزيد، والفرق عم يكبر بين سرعة الضربات والقدرة على محاسبة اللي بيغلط.
عبد الرحمن الراوي، شب عمرو عشرين سنة كان عم يدرس ليحصل على دبلوم بالبناء، طلع من بيتو بشارع هادي بمدينة القائم بغرب العراق بعد ما سمع صوت انفجارات بالسما. بثواني، راح ضحية صاروخ أميركي دمر السيارة اللي كان واقف جنبها.
أخوه أنمار، بيوصف الهجوم بشكل مفجع وبتحقيق مشترك ساوتو «اندبندنت» مع منظمة «إيروارز» Airwars، وقال: «احتجنا يومين كاملين لنجمع أشلاء أخي.»
عبد الرحمن راح ضحية وحدة من 85 ضربة منسقة نفذتها الولايات المتحدة بهديك الليلة من شباط 2024 ضد فصائل عراقية موالية للحكومة وميليشيات مدعومة من إيران بالعراق وسوريا. اعتبروا العملية ناجحة، وحتى مسؤول أميركي كبير تفاخر بعدين باستخدام تكنولوجيا ذكاء اصطناعي متطورة كتير كرمال دقة الاستهداف. بس هالتباهي بسرعة تلاشى بعد ما تبين إنو ممكن يكون في 3 مدنيين أبرياء سقطوا بالهجوم. وما كان موت عبد الرحمن موضع خلاف، حتى إنو مسؤولين أميركيين بعتوا رسالة تعزية لعيلتو واعترفوا فيها إنو قضى بالغلط.
بس التسلسل الدقيق للي صار، والدور اللي لعبه الذكاء الاصطناعي بالعمليات الهجومية العسكرية، ومنها العمليات الأميركية والإسرائيلية اللي عم تصير بإيران، صاروا بقلب التدقيق والجدل. تحقيق «اندبندنت» و«إيروارز» بيرجح إنو عبد الرحمن هو أول ضحية مدنية معروفة بيعترفوا إنو سقطت بغارة جوية استخدموا فيها الذكاء الاصطناعي لتحديد الهدف.
بس لما سألوا القيادة المركزية الأميركية «سنتكوم» عن هالشي، قالت إنو ما عندن طريقة يعرفوا إذا الغارة اللي قضت على عبد الرحمن كانت من بين الضربات اللي استخدموا فيها الذكاء الاصطناعي لتحديد الأهداف. وواحد من الخبراء شاف إنو هالحكي لحالو بكفي ليثير أقصى درجات القلق.
«سنتكوم» قالت: «ما عندن طريقة نعرف إذا هالضربة كانت وحدة من الضربات الـ85 المذكورة… وما لقينا أي أخطاء بعملية التدقيق اللي ساواها المحللين أو بعملية تقدير الأضرار الجانبية، كمان قوة المهام المشتركة بعملية “العزم الصلب” التزمت بكل قواعد الاشتباك.»
بس الخبراء حذروا بشدة، بمقابلات مع «اندبندنت»، من دلالات هالتصريحات.
مخاوف الخبراء من تراجع الحكم البشري
جيسيكا دورسي، أستاذة القانون الدولي المختصة بحروب الذكاء الاصطناعي بجامعة أوتريخت، بتقول: «إذا كانوا عم يقولوا إنو ما عندن طريقة يعرفوا إذا هالضربة كانت وحدة من الضربات الـ85 اللي استخدموا فيها الذكاء الاصطناعي، فهاد بيعني ببساطة إنو ما عم يحتفظوا بسجلات لتقييمات الاستهداف.»
وبتضيف: «هنن مو قادرين يتبعوا مصدر المعلومات والاستخبارات اللي أدت لاختيار هاد الهدف بالتحديد ليضربوه.»
كمان الدكتورة إلكا شوارتز، من جامعة كوين ماري، بتحذر من إنو هالأنظمة المدعومة بالذكاء الاصطناعي اللي عم تكبر وتصير أسرع «عم تخلي الحكم البشري يتراجع لحد ما.»
كيف غارة بمساعدة الذكاء الاصطناعي قضت على مدني
الهجوم على القائم، اللي بتيجي جنب الحدود السورية وعلى بعد حوالي 400 كم شمال غرب بغداد، كان رد على هجوم استهدف قاعدة أميركية بشمال الأردن بآخر كانون الثاني 2024، واللي راح ضحيتو 3 جنود. الضربات الأميركية حولت عدد من مباني القائم لأنقاض. وانصاب حوالي 15 شخص، كمان بيعتقدوا إنو بين 3 و 5 من العاملين بالمجال الطبي ضمن قوات الحشد الشعبي راحوا ضحية، وهدول العاملين بالمجال الطبي محميين حسب القانون الإنساني الدولي.
موت عبد الرحمن كان مدمر لعيلتو. بيقول أنمار، وهو ممرض بمشفى محلي: «أبي لسا غرقان باكتئاب شديد. أما أمي، فانصابت بنوبة قلبية وعم تعاني من ارتفاع ضغط الدم من وقتها. وكل ما تذكرت طفلها الصغير بتنهار.»
«سنتكوم» قالت إنو الأهداف المقصودة بضربات 2 و 3 شباط من هديك السنة، واللي أدانتها الحكومة العراقية، شملت مراكز قيادة وتحكم، ومنصات إطلاق صواريخ، ومنشآت مرتبطة بسلاسل الإمداد.
وبعدين بهداك الشهر، قالت شويلر مور، كبيرة مسؤولي التكنولوجيا بـ«سنتكوم» وقتها، بمقابلة مع «بلومبيرغ»، إنو أهداف هديك الليلة تحددت بمساعدة خوارزميات تعلم آلي بيعرفوها باسم «مشروع مافن» Project Maven. وبيعتقدوا إنو هاد كان أول إعلان علني من نوعو بيصدر عن الجيش الأميركي بخصوص استخدام الذكاء الاصطناعي بضربات محددة.
البنتاغون كان طور مشروع «مافن» بالأصل، قبل ما تتبناه بعدين الوكالة الوطنية للاستخبارات الجغرافية المكانية. المشروع بيستخدم خوارزميات للرؤية الحاسوبية لتحديد مواقع الأهداف والتعرف عليها من خلال صور الأقمار الاصناعية، بالإضافة لاستخدام الرادار لرصد الحركة وتتبع الأهداف.
مور قالت: «كنا عم نستخدم الرؤية الحاسوبية لنحدد الأماكن اللي ممكن يكون فيها تهديدات. ومن المؤكد إنو صار عنا فرص أكبر للاستهداف بآخر 60 لـ 90 يوم.» وبمقابلة تانية مع «بلومبيرغ»، قالت: «مافن صار كتير مهم لشغلنا.»
بعد شهور، وبتقرير عن الأضرار المدنية صدر بآخر 2024، اعترف الجيش الأميركي لأول مرة إنو «المرجح بدرجة كبيرة» إنو الغارة تسببت بموت مدنيين اثنين. وبتاريخ تموز من السنة اللي بعدها، أكد تقرير لوزارة الدفاع الأميركية إنو راح ضحية رجل بالغ بالغارة، وضافوا إنو تواصلوا مع عيلتو ليقدموا التعازي.
رسالة التعزية، اللي وقعها جنرال بسلاح الجو الأميركي، وحصلت عليها «إيروارز» بعد ما لاحقت عيلة عبد الرحمن عالإنترنت، قالت: «حبينا نعبر عن تعازينا بفقدانكم عزيزكم عبد الرحمن خالد الراوي. ونتقدم بأصدق مشاعر المواساة إلكم وإلى عيلتكم.»
أنمار بيقول إنو العيلة استقبلت الرسالة، اللي ما تجاوزت سطرين، بغضب، لأنو الجيش الأميركي امتنع فيها عن الاعتراف بشكل صريح بمسؤوليتو عن القتل. وبيضيف: «ما حصلنا منن على شي… غير البؤس.» وهاد بدورو بيفتح الباب قدام أسئلة تانية عن مشروع «مافن».
مشروع «مافن» ومستقبل الحرب المقلق
مشروع «مافن»، وهو المشروع الأميركي الأبرز لإدخال التعلم الآلي للمؤسسة العسكرية، انطلق سنة 2017، وهو بقلب المخاوف من إنو الذكاء الاصطناعي يتغلب على القرار البشري. الجيوش المتطورة عم تسعى بشكل متزايد لتدمج الذكاء الاصطناعي بكل حلقات اللي بيعرفوه بـ«سلسلة القتل»، كرمال تسرع عملية الاستهداف وتحصل على أفضلية على الخصوم.
من بين أسباب القلق إنو «مافن»، بالتحديد، بيواجه صعوبة بالتكيف مع تضاريس مختلفة، وممكن تنزل دقتو ببعض الظروف لأقل من 30%، حسب ما قال مسؤولين أميركيين لـ «بلومبيرغ».
في خطر تاني اللي بتوصفو البروفيسورة دورسي بـ«تحيز الأتمتة»، يعني إنو البشر، مع مرور الوقت، بيبدوا يوثقوا بمخرجات الحاسوب بدون ما يخضعوا الهدف لتقييم نقدي مستقل. فكل ما زاد اعتماد الجيوش على الاستهداف المدعوم بالذكاء الاصطناعي، زادت درجة نقل الأفراد مسؤولياتن للآلات. دورسي بتقول: «نحن عم نفقد مهاراتنا شوي شوي. والقادة عم يصيروا أقل كفاءة بتحديد شو لازم يتحملوا مسؤوليتو بساحة المعركة.»
وبتضيف الدكتورة شوارتز، المختصة بتكنولوجيا الحرب، إنو الاستهداف المدعوم بالذكاء الاصطناعي «عم يقوض الفهم التقليدي لشو كان بيعني القتال والقتل بالحرب لهلأ.» وبتقول كمان: «البشر بيميلوا إنو ما يشككوا بالقرارات اللي بتنتجها أنظمة الحاسوب.»
بالولايات المتحدة، استخدام الذكاء الاصطناعي من قبل الجيش كان محور خلاف واضح بين شركة الذكاء الاصطناعي «أنثروبيك» ووزارة الدفاع الأميركية. بتاريخ 26 شباط، رفضت «أنثروبيك» مطالب وزارة الدفاع إنها تسمح باستخدام أدواتها، متل «كلود»، بعمليات مراقبة داخلية جماعية وبأسلحة ذاتية التشغيل بالكامل.
وبتاريخ 6 آذار، استقالت كيتلين كالينوفسكي، اللي كانت عم تقود مبادرات الروبوتات بـ«أوبن أي آي»، بعد ما ساوت الشركة اتفاق مع وزارة الدفاع بيسمح باستخدام تقنياتها ببيئات سرية، وهالشي حذرت منو إنو ممكن يؤدي لـ«مراقبة الأميركيين بدون إشراف قضائي، وتشغيل أنظمة قاتلة ذاتية بدون إذن بشري.»
وبهاد الأسبوع، رفعت «أنثروبيك» دعوى قضائية ضد إدارة دونالد ترامب، عم تسعى لإلغاء قرار البنتاغون بتصنيفها «خطر على سلسلة التوريد.»
من 28 شباط، تقارير أفادت باستخدام الاستهداف المدعوم بالذكاء الاصطناعي على نطاق واسع بهجمات طالت مناطق مختلفة بإيران، وقالت وكالة أنباء نشطاء حقوق الإنسان (HRANA) إنها أدت لموت أكتر من 1200 مدني، منن 194 طفل. وذكرت «واشنطن بوست» إنو نظام Maven Smart System (MSS) تبع شركة «بالانتير» ربطوه بنظام الذكاء الاصطناعي «كلود» تبع «أنثروبيك» لتنفيذ هالضربات. ونظام MSS بيعتبر نظام أشمل لدعم القرار، لأنو بيدمج أنظمة استهداف مختلفة مدعومة بالذكاء الاصطناعي، متل مشروع «مافن» تبع الوكالة الوطنية للاستخبارات الجغرافية المكانية. والولايات المتحدة استخدمت هالنظامين بمهام قتالية حقيقية.
من الجوانب الحاسمة بفهم موت عبد الرحمن هو معرفة قديش الذكاء الاصطناعي ساهم باتخاذ قرار تنفيذ الضربة، وقديش الثقة اللي عطوها للي نفذها إنو الهدف مشروع. بس بالنسبة لأنمار، اللي بيقول إنو العيلة ما تلقت أي تعويض من الجيش الأميركي، ما في أي فهم متأخر أو مراجعة بعدين رح ترجع أخوه الصغير للحياة.