چکیده:
یکی از چالشبرانگیزترین حوزههای نوظهور، بحث واگذاری اختیار کشتن انسان با هوش مصنوعی در شرایط جنگی است که به مباحث حقوقی متعددی میانجامد. این نخستینبار است که دانش حقوق با پدیدهای مواجه میشود که هرچند ساختۀ دست بشر است، اما برعکس تمامی پیشرفتهای علمی ـ صنعتی تحققیافته در طول تاریخ، در تفکر و تصمیمگیری مستقل از بشر است و ممکن است پس از طی مراحلی حتی سازنده و خالق سیستم نیز قادر به درک چگونگی عملکرد یا مهار آن نباشد؛ ازاینرو، نوشتۀ حاضر، به این بحث میپردازد که در شرایطی که اسلحۀ هوش مصنوعی منجر به قتل غیرنظامیان و جنایت جنگی شده، دیوان کیفری بینالمللی برای اعمال مسئولیت کیفری مستقیم و همچنین دکترین مسئولیت فرمانده با چه مسائلی مواجه است و برای تفوق بر این مشکلات، چه اقداماتی باید انجام شود. پژوهش حاضر، به روش اسنادی و با رویکردی توصیفی ـ تحلیلی پیش رفته و به این نتیجه رسیده است که با توجه به ظهور مفهومی به نام شکاف در مسئولیت، که ناشی از ذات منحصربهفرد هوش مصنوعی است، مقررات فعلی اساسنامه درخصوص آن نارسایی دارد و جامعۀ بینالمللی باید برای تطبیق با شرایط جدید، سازندگان را ملزم به ارائۀ شفافیت حداکثری کند؛ همچنین تولید برخی از انواع هوش مصنوعی را ممنوع کند؛ و درنهایت دربارۀ کشتار احتمالی ناشی از بهکارگیری سلاح هوش مصنوعی با قابلیت خودبهبودی پس از تولید، اساسنامۀ دیوان را اصلاح کند و صراحتاً و انحصاراً قواعد مسئولیت کیفری را طوری مشخص کند که وجود سلاح هوش مصنوعی منجر به بیکیفرمانی نشود.
The issue of delegating the authority to kill humans to artificial intelligence in wartime is one of the most challenging emerging disciplines, as it raises numerous legal issues. This is the first time that legal knowledge has encountered a phenomenon that, despite being created by humans, is independent of humans in thinking and decision-making, and it may be possible after multiple stages that even the creator of the system cannot comprehend or control its operation. Therefore, this article discusses the obstacles that the International Criminal Court must overcome to apply direct criminal responsibility and the doctrine of commander's responsibility in cases where artificial intelligence weapons have led to the killing of civilians and war crimes, as well as the steps that should be taken to overcome these obstacles. Following a documentary approach and a descriptive-analytical analysis, this article concludes that the current provisions of the statute regarding artificial intelligence need to be revised due to the emergence of a concept called the gap in responsibility, which is caused by the unique nature of artificial intelligence. To adapt to the new conditions, the international community must require manufacturers to provide maximum transparency and prohibit producing certain types of artificial intelligence. Regarding the possible killings caused by the use of artificial intelligence weapons with the ability to self-learning after production, the court statute must explicitly and exclusively specify the rules of criminal responsibility so that the existence of AI weapons does not lead to impunity.