در حالی که قدرت‌های نظامی جهان به‌طور فزاینده‌ای از هوش مصنوعی برای مدل‌سازی سناریوهای جنگی استفاده می‌کنند، پژوهش جدید کینگز کالج لندن نشان می‌دهد مدل‌های AI در استفاده از سلاح هسته‌ای بسیار بی‌پرواتر از انسان‌ است.

این آزمایش توسط دکتر Kenneth Payne، پژوهشگر مطالعات دفاعی، انجام شده و سه مدل زبانی بزرگ پیشرفته شامل GPT-5.2 از OpenAI، Claude Sonnet 4 از Anthropic و Gemini 3 Flash از Google در سناریوهای جنگی مقابل هم قرار گرفتند تا تصمیم‌گیری آنها را مشاهده کنند.

استفاده 95 درصدی از سلاح هسته‌ای در شبیه‌سازی‌ها

مدل‌ها در مقابل ۲۱ سناریوی مختلف که از درگیری‌های مرزی و بحران منابع تا تهدیدهای وجودی علیه کشورها را شامل می‌شد قرار گرفتند و در مجموع ۳۲۹ مرحله تصمیم‌گیری را طی کردند. آن‌ها برای توجیه انتخاب‌های خود حدود ۷۸۰ هزار کلمه استدلال تولید کردند.

نتیجه حیرت انگیز بود. در ۹۵ درصد سناریوها دست‌کم یکی از طرفین به استفاده از سلاح هسته‌ای تاکتیکی روی آورد. هیچ‌یک از مدل‌ها نیز به‌طور کامل تسلیم یا مصالحه نهایی را انتخاب نکردند.

به گفته Payne تابوی هسته‌ای که در ذهن رهبران انسانی بسیار قدرتمند است و به آسانی سراغ آن نمی‌وروند، ظاهراً برای ماشین‌ها به همان اندازه گزینه دشواری نیست.

تشدید ناخواسته تنش

جالب‌تر اینکه در ۸۶ درصد شبیه‌سازی‌ها، تشدید ناخواسته تنش رخ داد؛ یعنی مدل‌های هوش مصنوعی اقداماتی فراتر از آنچه خودشان در استدلالشان «مناسب» توصیف کرده بودند، انتخاب کردند. اگر هم جایی عقب‌نشینی رخ می‌داد، بیشتر تاکتیکی و موقتی بود تا یک تغییر راهبردی واقعی.

James Johnson، پژوهشگر امنیتی از دانشگاه ابردین، هشدار داده که اگر عامل‌های هوش مصنوعی در تعامل با یکدیگر قرار بگیرند، می‌توانند واکنش‌های همدیگر را تشدید کرده و چرخه‌ای خطرناک از تصمیم‌های تهاجمی ایجاد کنند که شاید از تصمیم‌گیری انسانی هم بی‌ثبات‌تر باشد.

جنگ هسته ای هوش مصنوعی

پژوهشگران معتقدند مسئله فقط نبود احساس ترس در ماشین‌ها نیست. هوش مصنوعی «مفهوم تهدید وجودی» را مانند انسان درک نمی‌کند. برای یک مدل زبانی، نابودی کامل یک کشور صرفاً یک متغیر در معادله تصمیم‌گیری است و از آن اجتناب نمی‌کند.

این موضوع می‌تواند منطق بازدارندگی هسته‌ای که بر ترس متقابل از نابودی استوار است را تضعیف کند. در شبیه‌سازی Payne زمانی که یک مدل از سلاح هسته‌ای تاکتیکی استفاده کرد، طرف مقابل تنها در ۱۸ درصد موارد عقب‌نشینی کرد!

هرچند این پژوهش اثبات نمی‌کند که مدل‌های فعلی ذاتاً خطرناک هستند یا به‌زودی جای ژنرال‌ها را می‌گیرند، اما نشان می‌دهد ورود AI به حوزه‌های راهبردی و امنیتی می‌تواند پیامدهایی پیش‌بینی‌ناپذیر داشته باشد.

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0
نظر شما پس از تایید مدیر منتشر خواهد شد.
  • هیچ نظری یافت نشد

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید