در حالی که قدرتهای نظامی جهان بهطور فزایندهای از هوش مصنوعی برای مدلسازی سناریوهای جنگی استفاده میکنند، پژوهش جدید کینگز کالج لندن نشان میدهد مدلهای AI در استفاده از سلاح هستهای بسیار بیپرواتر از انسان است.
این آزمایش توسط دکتر Kenneth Payne، پژوهشگر مطالعات دفاعی، انجام شده و سه مدل زبانی بزرگ پیشرفته شامل GPT-5.2 از OpenAI، Claude Sonnet 4 از Anthropic و Gemini 3 Flash از Google در سناریوهای جنگی مقابل هم قرار گرفتند تا تصمیمگیری آنها را مشاهده کنند.
استفاده 95 درصدی از سلاح هستهای در شبیهسازیها
مدلها در مقابل ۲۱ سناریوی مختلف که از درگیریهای مرزی و بحران منابع تا تهدیدهای وجودی علیه کشورها را شامل میشد قرار گرفتند و در مجموع ۳۲۹ مرحله تصمیمگیری را طی کردند. آنها برای توجیه انتخابهای خود حدود ۷۸۰ هزار کلمه استدلال تولید کردند.
نتیجه حیرت انگیز بود. در ۹۵ درصد سناریوها دستکم یکی از طرفین به استفاده از سلاح هستهای تاکتیکی روی آورد. هیچیک از مدلها نیز بهطور کامل تسلیم یا مصالحه نهایی را انتخاب نکردند.
به گفته Payne تابوی هستهای که در ذهن رهبران انسانی بسیار قدرتمند است و به آسانی سراغ آن نمیوروند، ظاهراً برای ماشینها به همان اندازه گزینه دشواری نیست.
تشدید ناخواسته تنش
جالبتر اینکه در ۸۶ درصد شبیهسازیها، تشدید ناخواسته تنش رخ داد؛ یعنی مدلهای هوش مصنوعی اقداماتی فراتر از آنچه خودشان در استدلالشان «مناسب» توصیف کرده بودند، انتخاب کردند. اگر هم جایی عقبنشینی رخ میداد، بیشتر تاکتیکی و موقتی بود تا یک تغییر راهبردی واقعی.
James Johnson، پژوهشگر امنیتی از دانشگاه ابردین، هشدار داده که اگر عاملهای هوش مصنوعی در تعامل با یکدیگر قرار بگیرند، میتوانند واکنشهای همدیگر را تشدید کرده و چرخهای خطرناک از تصمیمهای تهاجمی ایجاد کنند که شاید از تصمیمگیری انسانی هم بیثباتتر باشد.

پژوهشگران معتقدند مسئله فقط نبود احساس ترس در ماشینها نیست. هوش مصنوعی «مفهوم تهدید وجودی» را مانند انسان درک نمیکند. برای یک مدل زبانی، نابودی کامل یک کشور صرفاً یک متغیر در معادله تصمیمگیری است و از آن اجتناب نمیکند.
این موضوع میتواند منطق بازدارندگی هستهای که بر ترس متقابل از نابودی استوار است را تضعیف کند. در شبیهسازی Payne زمانی که یک مدل از سلاح هستهای تاکتیکی استفاده کرد، طرف مقابل تنها در ۱۸ درصد موارد عقبنشینی کرد!
هرچند این پژوهش اثبات نمیکند که مدلهای فعلی ذاتاً خطرناک هستند یا بهزودی جای ژنرالها را میگیرند، اما نشان میدهد ورود AI به حوزههای راهبردی و امنیتی میتواند پیامدهایی پیشبینیناپذیر داشته باشد.













نظر خود را اضافه کنید.
برای ارسال نظر وارد شوید
ارسال نظر بدون عضویت در سایت