المسؤولية الجنائية الدولية عن استخدام تقنيات الذكاء الاصطناعي في ارتكاب جرائم دولية ضد المدنيين أثناء النزاعات المسلحة
International criminal responsibility for the use of (AI) in the commission of international crimes against civilians during armed conflicts
| المؤلف |
د. خالد بن صالح الغامدي* |
| محكمة |
نعم |
| الدولة |
اليمن |
| سنة النشر |
2026 |
| الشهر |
February |
| المجلد |
13 |
| العدد |
153 |
| DOI |
https://doi.org/10.35781/1637-000-153-005
|
| ISSN |
2410-1818 |
| نوع المحتوى |
بحوث ومقالات |
| اللغة |
العربية |
| قواعد المعلومات |
HumanIndex |
| رابط المحتوى |
تحميل PDF
|
الملخص
يتناول هذا البحث مسألة المسؤولية الجنائية الدولية المترتبة على استخدام تقنيات الذكاء الاصطناعي في الأعمال العسكرية، في ظل التحول المتسارع في طبيعة وسائل وأساليب القتال، واتساع نطاق الاعتماد على نُظُم عسكرية قادرة على العمل بدرجات متفاوتة من الاستقلال عن التدخل البشري. ويأتي هذا الموضوع في سياق تزايد المخاوف القانونية والإنسانية المرتبطة بإمكانية ارتكاب انتهاكات جسيمة لقواعد القانون الدولي الإنساني نتيجة استخدام نظم الذكاء الاصطناعي، مع ما يثيره ذلك من صعوبات تتعلق بتحديد المسؤول الجنائي عن هذه الانتهاكات.
ويهدف البحث إلى دراسة مدى قابلية قواعد القانون الدولي الجنائي القائمة لإسناد المسؤولية الجنائية الدولية عن الأفعال غير المشروعة التي قد تنتج عن استخدام الذكاء الاصطناعي في النزاعات المسلحة، وذلك من خلال تحليل الأطر القانونية المنظمة للمسؤولية الجنائية الدولية، وبيان حدود تطبيقها في الحالات التي يتراجع فيها الدور البشري المباشر في اتخاذ القرار أو تنفيذ الفعل. كما يسعى البحث إلى التمييز بين صور المسؤولية المحتملة، سواء تعلق الأمر بمسؤولية الدولة، أو القادة العسكريين، أو المستخدمين، أو الجهات القائمة على تطوير وتصنيع هذه النظم، مع إبراز الأساس القانوني لكل صورة من هذه الصور.
ويناقش البحث بعض الأسئلة التي تُثار حول من يتحمل المسئولية الجنائية الدولية عن هذه الأفعال، وما إذا كان يمكن تطبيق المفاهيم التقليدية للمسئولية الجنائية الدولية على هذا النوع من السلوك غير المسبوق. لا سيما في ظل الطبيعة الخاصة للذكاء الاصطناعي، كما أن استخدام الذكاء الاصطناعي في المجال العسكري يطرح إشكاليات تتعلق بتطبيق المبادئ الأساسية للقانون الدولي الإنساني، وعلى رأسها مبدأ التمييز بين المقاتلين والمدنيين، ومبدأ التناسب، ومبدأ الضرورة العسكرية. فمدى قدرة أنظمة الذكاء الاصطناعي على الالتزام بهذه المبادئ يظل محل نقاش فقهي وقانوني واسع، لا سيما في ظل احتمالات الخطأ التقني، أو القصور البرمجي، أو إساءة الاستخدام، أو غياب الرقابة البشرية الفعالة أثناء تنفيذ العمليات العسكرية.
ويستخدم البحث المنهج الاستقرائي التحليلي من خلال الاطلاع على الدراسات السابقة والاستفادة منها والعمل على تحليل النصوص القانونية الدولية المتعلقة بالنزاعات المسلحة لمعرفة مدى التناسق بين استخدام تطبيقات الذكاء الاصطناعي العسكري مع النصوص القانونية ذات الصلة.
الكلمات المفتاحية: الذكاء الاصطناعي، الروبوت، المسؤولية الجنائية الدولية، الأعمال العسكرية، المدنيين، النزاعات المسلحة.
Abstract
Abstract:
This study addresses the issue of international criminal responsibility arising from the use of artificial intelligence technologies in military operations, in light of the rapid transformation in the nature of warfare methods and tactics, and the increasing reliance on military systems capable of operating with varying degrees of autonomy from human intervention. This topic arises within the context of growing legal and humanitarian concerns related to the potential for serious violations of international humanitarian law resulting from the use of artificial intelligence systems, and the consequent difficulties in determining criminal responsibility for such violations.
This study aims to examine the extent to which existing rules of international criminal law can be used to establish international criminal responsibility for unlawful acts that may result from the use of artificial intelligence in armed conflicts. This will be achieved through an analysis of the legal frameworks governing international criminal responsibility and by clarifying the limits of their application in cases where direct human involvement in decision-making or execution is diminished. The research also seeks to differentiate between potential forms of responsibility, whether related to the responsibility of the state, military commanders, users, or entities responsible for developing and manufacturing these systems, highlighting the legal basis for each.
This study addresses several questions surrounding international criminal responsibility for these acts and whether traditional concepts of international criminal responsibility can be applied to this unprecedented type of behavior. This is particularly relevant given the unique nature of artificial intelligence (AI). Furthermore, the use of AI in the military raises issues concerning the application of fundamental principles of international humanitarian law, most notably the principle of distinction between combatants and civilians, the principle of proportionality, and the principle of military necessity. The extent to which AI systems can adhere to these principles remains a subject of extensive legal and scholarly debate, especially considering the potential for technical errors, software malfunctions, misuse, or the absence of effective human oversight during military operations.
This study uses an inductive-analytical approach, reviewing and building upon previous studies and analysing international legal texts related to armed conflict to determine the consistency between the use of military artificial intelligence applications and relevant legal provisions.
Keywords: Artificial intelligence, robotics, international criminal responsibility, military actions, civilians, armed conflict.