Tuesday 1 July 2025
منبر أنفاس

عبدالرحمان رفيق: الحرب تُبرمج والمحاسبة تغيب.. الذكاء الاصطناعي يربك قواعد القانون الدولي"

عبدالرحمان رفيق: الحرب تُبرمج والمحاسبة تغيب.. الذكاء الاصطناعي يربك قواعد القانون الدولي" عبدالرحمان رفيق
لم نعد أمام مجرد تقدم تقني في أدوات الحرب، بل أمام نقطة تحول تزعزع جوهر العلاقة بين القانون، والقرار، والقتل. في عالم تُدار فيه المعارك بخوارزميات، وتُتخذ فيه قرارات إطلاق النار دون تدخل بشري، تظهر أنظمة قتالية ذاتية تُحلل، وتختار، وتُنفّذ الهجوم خلال أجزاء من الثانية. لم تعد الآلة تطيع، بل بدأت تأمر. وهكذا تنتقل حياة الإنسان من أن تكون مسؤولية سياسية أو عسكرية إلى أن تصبح ناتجًا لخوارزمية لا تملك ضميرًا ولا تحاسب على خطأ. في هذا الواقع المتسارع، يقف القانون الدولي حائرًا أمام سؤال مصيري: من يُحاسب حين ترتكب الآلة مجزرة ؟ ولفهم خطورة هذا التحول، لا بد من العودة إلى المفهوم الجوهري الذي بات يتصدر هذا الجدل القانوني والأخلاقي.
 
أولًا: ما المقصود بالأسلحة الذاتية القاتلة؟
 
الأسلحة الذاتية القاتلة (LAWs) قد تكون قادرة على تحديد الهدف، وتقييم الخطر، وتنفيذ الهجوم، كل ذلك خلال أجزاء من الثانية، وبلا مراجعة بشرية تشمل هده الفئة طائرات بدون طيار، روبوتات برية مسلحة، أنظمة بحرية ذاتية التشغيل.
 
ويختلف ذلك عن "الأسلحة الموجهة" التي تحتاج لتأكيد بشري في لحظة إطلاق النار.
 
ثانيًا: من يتحمّل المسؤولية القانونية ؟
 
وفقًا للقانون الدولي الإنساني، يخضع استخدام القوة لمبادئ أساسية مثل التمييز، التناسب، والضرورة العسكرية. لكن عندما تكون الآلة هي من تتخذ قرار القتل، تظهر أسئلة شائكة :
 
•من يتحمل المسؤولية عند ارتكاب مجزرة ؟ هل هو المبرمج؟ القائد العسكري؟ الدولة؟
 
•كيف يمكن التحقيق في "نية" الخوارزمية ؟
 
• هل يمكن أن تُحاكم آلة على "قراراتها" القتالية ؟
 
1. القائد العسكري؟
 
في القانون الدولي، القائد مسؤول عن الأوامر التي يصدرها. لكن ماذا لو لم يكن هو من أعطى الأمر النهائي، بل كانت "الخوارزمية"؟
 
2. المبرمج أو الشركة المصنّعة؟
 
ممكن تحميلهم مسؤولية مدنية، لكن من الصعب إثبات "النية الجنائية" أو "القصد"، وهي عناصر أساسية في القانون الجنائي الدولي.
 
3. الدولة المستخدمة؟
 
هذه أقوى الاحتمالات: إذ أن القانون الدولي الإنساني يُحمّل الدولة المسؤولية عن أعمال قواتها أو أدواتها. لكن في حالة العمليات ذاتية القرار، قد تحاول الدولة التنصل بحجة "خطأ تقني" أو "سلوك غير متوقع".
 
النتيجة : نحن أمام فراغ قانوني خطير، فالقانون لا يحدد بعد من هو الفاعل القانوني حين تكون الآلة هي من قررت القتل.
 
ثالثًا: هل يمكن محاكمة خوارزمية ؟
 
قانونًا، لا يمكن محاكمة خوارزمية، لأنها ببساطة ليست كيانًا قانونيًا. فهي ليست شخصًا طبيعيًا يمكن مساءلته جنائيًا، ولا شخصًا معنويًا يملك ذمة قانونية مستقلة. كما أنها لا تملك نية أو وعي، ولا تستطيع الدفاع عن نفسها أو تمثيل ذاتها أمام محكمة. وبالتالي، فإنها لا تخضع لأي من المبادئ الأساسية للمسؤولية الجنائية الفردية المعروفة في القانون الدولي أو الوطني.
 
وعليه، لا تُحاسب الخوارزمية نفسها، وإنما يُوجَّه النظر نحو من صمّمها أو شغّلها أو أمر باستخدامها. لكن الإشكال القانوني الخطير يظهر عندما لا تتوفر نية إجرامية مباشرة أو تقصير واضح من قبل أي عنصر بشري، فتدخل المساءلة في منطقة رمادية يصعب ضبطها قانونيًا.
 
لهذا السبب، يطالب كثير من الخبراء القانونيين والحقوقيين بإعادة التفكير في قواعد المسؤولية، واقتراح مفاهيم جديدة مثل "النية الآلية"، أو على الأقل فرض مبدأ دائم يُلزم بوجود "إشراف بشري هادف" (Meaningful Human Control) في كل قرار تتخذه الأنظمة القتالية الذاتية. وبدون ذلك، سيبقى القانون في موقع المتفرج أمام "قتل آلي" بلا محاسبة.ج
 
رابعًا: كيف نقيّم "نية" الآلة ؟
 
القانون الجنائي يعتمد على الركن المعنوي (القصد أو الإهمال)، لكن الخوارزمية ليست كائنًا عاقلًا... فكيف يمكن مساءلتها؟ هل الخطأ في البرمجة يُعد جريمة ؟ أم أن انحياز الخوارزمية في تحديد الأهداف هو نتيجة لبيانات منحازة؟
 
هذا يعقّد مسألة المسؤولية الفردية، ويُظهر الحاجة لإعادة تعريف النية في سياق الذكاء الاصطناعي.
 
خامسًا: هل يمكن للقانون الدولي أن يُخضع التكنولوجيا لأحكامه؟ أم سنشهد ميلاد حروب بلا قانون ؟
 
القانون الدولي، عبر تاريخه، أثبت قدرته على التطور بعد الكوارث لا قبلها. تأسس ميثاق الأمم المتحدة بعد الحرب العالمية الثانية، وجاءت اتفاقيات جنيف ردًا على الجرائم الجماعية، وتم إنشاء المحكمة الجنائية الدولية بعد فظائع البوسنة ورواندا. لكنه كان دائمًا رد فعل أكثر مما هو استباق.
 
اليوم، الذكاء الاصطناعي لا يمنحنا هذه "الرفاهية الزمنية". فالآلة التي تتخذ قرار القتل دون بشر تُعيد تعريف الحرب، والمسؤولية، والنية، والعدالة. وهي تفعل ذلك قبل أن يتشكل لها إطار قانوني ناظم.
 
إذًا، نعم، يستطيع القانون الدولي أن يُطوّر نفسه – لكنه لم يفعل ذلك بعد. وحتى الآن، معظم ما يُطرح هو توصيات غير ملزمة، وجدل فلسفي أكثر منه أدوات ضبط حقيقية.
 
•هل نشهد ميلاد "حروب بلا قانون ؟
جزئيًا...جج نعم، حين تُستخدم طائرات مسيرة في اغتيال خارج ساحة المعركة، دون إعلان حرب، وبلا مسؤولية قانونية واضحة، وحين تُبرمج خوارزميات لتحديد "أنماط التهديد" فتستهدف أشخاصًا بسبب حركتهم أو صورتهم الحرارية، فنحن عمليًا ندخل منطقة رمادية جديدة: حروب بلا قانون، وبلا قاضٍ، وبلا مدنيين محميين فعليًا.
القانون لم يختفِ، لكنه لم يعد يسيطر. والذكاء الاصطناعي، في بعض الحالات، صار أقوى من كل المواثيق.
 
سادسًا : هل هي معركة قانونية أم إنسانية؟
 
إنها الاثنتان معًا، لكنها في الجوهر معركة على جوهر إنسانيتنا.
 
من يُقرر القتل؟
في القانون، الإنسان هو من يُقرر.
في التكنولوجيا، القرار انتقل إلى الخوارزمية.
 
إننا نُخاطر بأن نُعطي الحق في إنهاء الحياة لكيان لا يعي معنى "الحياة" أصلًا.
 
من يُحاسب ؟ لا أحد، كل طرف يشير إلى الآخر: القائد يقول "اتّبعنا البرمجة"، والمبرمج يقول "نفذنا الأوامر"، والدولة تقول "الآلة أخطأت".
وإذا استمر كل طرف يُحمّل الآخر المسؤولية — القائد للبرمجة، والمبرمج للدولة، والدولة للآلة — فإن النتيجة الحتمية هي: القتل بلا مساءلة.
 
ختامًا، نحن في عصر تتسارع فيه تقنيات الذكاء الاصطناعي لتصبح حاسمة في ساحات الحرب، يقف القانون الدولي أمام تحدٍ وجودي. إما أن يتطور ليضبط هذا الواقع الجديد، أو نشهد ولادة حروب بلا ضوابط، حيث تُتخذ قرارات القتل بلا ضمير، وتغيب المحاسبة.
الإنسانية لا تحتمل أن يُترك مصيرها لمعادلات رقمية، والقانون لا بد أن يظل الحصن الحامي لكرامتها.
 
 
عبدالرحمان رفيق، مهندس مدني، وباحث سياسي متخصص في الشأن الدولي.