سه‌شنبه ۲۲ اردیبهشت ۱۴۰۵
الثلاثاء ٢٥ ذی‌القعده ١٤٤٧
Tuesday 12 May 2026
متن خبر

ضرورت بازتنظیم حقوق بین‌الملل در عصر جنگ‌های هوشمند

سه‌شنبه ۲۲ اردیبهشت ۱۴۰۵
ضرورت بازتنظیم حقوق بین‌الملل در عصر جنگ‌های هوشمند
جنگ در قرن بیست‌ویکم، دیگر صرفاً میدان تقابل انسان‌ها نیست؛ بلکه به‌طور فزاینده‌ای به عرصه تعامل میان «انسان، داده و الگوریتم» تبدیل شده است.

به گزارش خبرنگار خبرگزاری آگاه، محمدمهدی سیدناصری  حقوقدان، مدرس دانشگاه و پژوهشگر حقوق بین‌الملل کودکان: جنگ در قرن بیست‌ویکم، دیگر صرفاً میدان تقابل انسان‌ها نیست؛ بلکه به‌طور فزاینده‌ای به عرصه تعامل میان «انسان، داده و الگوریتم» تبدیل شده است.

ورود هوش مصنوعی به فرآیند‌های نظامی به‌ویژه در تحلیل اطلاعات، شناسایی اهداف و پشتیبانی تصمیم‌گیری ماهیت مخاصمات را به‌طور بنیادین دگرگون کرده است. در این چارچوب، گزارش‌ها و تحلیل‌های متعدد نشان می‌دهد که ایالات متحده و رژیم اسرائیل در عملیات‌های اخیر خود، از سامانه‌های مبتنی بر هوش مصنوعی برای پردازش داده‌های میدانی و شناسایی اهداف استفاده کرده‌اند؛ سامانه‌هایی که با ترکیب تصاویر ماهواره‌ای، داده‌های سیگنالی و الگو‌های رفتاری، «پروفایل هدف» تولید می‌کنند. این تحول، در ظاهر، وعده «دقت بیشتر» را به همراه دارد.

اما در عمل، پرسش‌های عمیق‌تری را درباره خطا، مسئولیت و مشروعیت ایجاد می‌کند.

در بستر چنین فناوری‌هایی، یکی از نگران‌کننده‌ترین سناریوها، «شناسایی نادرست هدف» است. اگر یک سامانه هوش مصنوعی بر اساس داده‌های ناقص، سوگیری الگوریتمی یا تفسیر نادرست یک مکان غیرنظامی را به‌عنوان هدف نظامی طبقه‌بندی کند، پیامد آن می‌تواند فاجعه‌بار باشد.

در تحلیل حمله به زیرساخت‌های غیرنظامی، از جمله مدارس، این احتمال به‌طور جدی مطرح می‌شود که فرآیند شناسایی هدف، به‌طور کامل یا جزئی، مبتنی بر خروجی‌های الگوریتمی بوده باشد. در چنین حالتی، ما با پدیده‌ای مواجه هستیم که می‌توان آن را «خطای الگوریتمی مرگبار» نامید. این خطاها، برخلاف خطا‌های انسانی سنتی، ویژگی‌های خاصی دارند:

۱. مقیاس‌پذیرند (می‌توانند در چندین هدف تکرار شوند)

۲. غیرشفاف‌اند (فرآیند تصمیم‌گیری قابل ردیابی کامل نیست)

۳. و بازآفرینی آنها دشوار است (برای بررسی حقوقی و قضایی)

مسئولیت در عصر هوش مصنوعی: آیا می‌توان ماشین را مقصر دانست؟

با وجود پیچیدگی‌های فنی، پاسخ حقوق بین‌الملل نسبتاً روشن است، هوش مصنوعی، فاقد شخصیت حقوقی است و نمی‌تواند به‌عنوان فاعل مسئول شناخته شود. بنابراین، مسئولیت همچنان بر عهده: دولت‌ها، فرماندهان نظامی و تصمیم‌گیرندگان انسانی باقی می‌ماند. اما چالش اصلی در اینجاست که استفاده از هوش مصنوعی، «زنجیره مسئولیت» را پیچیده می‌کند. در یک عملیات مبتنی بر هوش مصنوعی، تصمیم نهایی ممکن است حاصل تعامل چندین لایه باشد: طراحی الگوریتم، جمع‌آوری داده، تحلیل خودکار و تأیید انسانی در چنین شرایطی، تعیین اینکه «چه کسی دقیقاً مسئول است»، به‌مراتب دشوارتر از مدل‌های سنتی جنگ می‌شود.

چالش اصول بنیادین حقوق بشردوستانه در جنگ‌های الگوریتمی

استفاده از هوش مصنوعی، اصول کلاسیک حقوق بشردوستانه را نیز با چالش مواجه می‌کند:

۱-اصل تفکیک: آیا یک الگوریتم می‌تواند با قطعیت میان هدف نظامی و غیرنظامی تمایز قائل شود، آن هم در محیط‌های پیچیده شهری؟

۲-اصل تناسب: آیا ماشین قادر است ارزش‌گذاری انسانی لازم برای سنجش «تناسب» را انجام دهد؟

اصل احتیاط: در صورت خطا، آیا سازوکار‌های کافی برای جلوگیری از تکرار آن وجود دارد؟

خطر فاصله اخلاقی: جنگی بدون لمس پیامد

یکی از پیامد‌های کمتر مورد توجه، «فاصله اخلاقی» است. وقتی تصمیم‌گیری از میدان واقعی فاصله می‌گیرد و به خروجی‌های الگوریتمی وابسته می‌شود، احتمال کاهش حساسیت نسبت به پیامد‌های انسانی افزایش می‌یابد. به بیان دیگر:

هرچه فناوری پیشرفته‌تر می‌شود، احتمال نادیده گرفتن رنج انسانی نیز بیشتر می‌شود، مگر آنکه چارچوب‌های حقوقی و اخلاقی همزمان تقویت شوند.

ضرورت بازتنظیم حقوق بین‌الملل در عصر جنگ‌های هوشمند

تحولات اخیر نشان می‌دهد که چارچوب‌های موجود، برای مواجهه با جنگ‌های مبتنی بر هوش مصنوعی کافی نیستند. در این راستا، چند ضرورت اساسی قابل طرح است:

۱. الزام به «کنترل انسانی معنادار» در تمامی تصمیمات مرگبار

۲. ایجاد سازوکار‌های شفافیت و قابلیت حسابرسی برای الگوریتم‌های نظامی

۳. توسعه قواعد مسئولیت‌پذیری در زنجیره تصمیم‌گیری فناورانه

۴. و به‌روزرسانی تفسیر اصول حقوق بشردوستانه در بستر فناوری‌های نوین

ورود هوش مصنوعی به جنگ، نه‌تنها دقت را افزایش داده، بلکه مسئولیت را نیز پیچیده‌تر کرده است. در چنین شرایطی، خطر اصلی آن است که فناوری، به‌جای کاهش رنج انسانی، به ابزاری برای پنهان‌سازی خطا و کاهش پاسخگویی تبدیل شود. پرسش نهایی این است: اگر یک الگوریتم اشتباه کند و یک کودک قربانی شود، چه کسی پاسخ خواهد داد؟ تا زمانی که پاسخ روشنی به این سؤال داده نشود، جنگ‌های هوشمند، بیش از آنکه «پیشرفته» باشند، ممکن است «غیرپاسخگو» باشند.

انتهای خبر/247885/

اخبار اقتصادی
آژانس مسافرتی سلام پرواز ایرانیان
اخبار اجتماعی
فروشگاه اینترنتی سفیر