شرکت OpenAI برای رقابت با مدل هوش‌مصنوعی جنجالی Mythos مدلی به نام GPT-5.4-Cyber را منتشر کرده که برای امنیت سایبری دفاعی طراحی شده و خط قرمز کمتری را دارد. در ادامه با معرفی بیشتر قابلیت‌ها و خطرات احتمالی آن همراه ما باشید.

به گزارش وب‌سایت The Next Web، شرکت OpenAI یک نسخه از مدل GPT-5.4 را با نام GPT-5.4 Cyber منتشر کرده که محدودیت‌های کمتری دارد و مخصوص افزایش امنیت سایبری طراحی شده است.

محدودیت کمتر، دسترسی بیشتر

این نسخه که برای رقابت با مدل هوش‌مصنوعی جنجالی Mythos شرکت Anthropic طراحی شده، دارای محدودیت کمتری نسبت به نسخه استاندارد مدل GPT-5.4 است.

بدین معنی که در صورت تأیید هویت کاربر به‌عنوان یک متخصص امنیت معتبر، امکان استفاده از آن برای یافتن آسیب‌پذیری‌ها، آنالیز Exploit یا رفتارشناسی بدافزار وجود دارد.

همچنین این مدل دارای قابلیت مهندسی معکوس باینری است که به کاربر اجازه می‌دهد تا بدون دسترسی به سورس کد، نرم‌افزار کامپایل شده را بررسی کند!

دسترسی با احراز هویت توسط OpenAI TAC

شرکت OpenAI در ماه فوریه از یک برنامه به نام Trusted Access for Cyber رونمایی کرد که دروقع دروازه‌ای برای احراز هویت و دسترسی به مدل‌های هوش‌مصنوعی خاص را فراهم می‌کرد.

تا پیش از این، استفاده از این برنامه تنها از طریق دعوت‌نامه و برای تعداد محدودی کاربر ممکن بود، اما اکنون به گفته OpenAI، متخصصین امنیت سایبری بیشتری می‌توانند با احراز هویت و تایید در این برنامه، به مدل GPT 5.4-Cyber دسترسی داشته باشند.

البته باید گفت که این دسترسی‌ها بستگی به آزادی عمل مدل، دارای سطوح مختلفی است که در بالاترین سطح (بیشترین آزادی) نحوه استفاده از مدل، تحت نظر OpenAI است.

در واقع می‌توان این سیستم را اینگونه توصیف کرد که به جای اینکه دسترسی کاربر توسط مدل محدود شود، OpenAI تصمیم می‌گیرد که با توجه به هویت کاربر و سطح دسترسی آن، کدام مدل پاسخ دهد. به گفته OpenAI این سیستم بر سه اصل بنا شده است: دسترسی دموکراتیک با استفاده از معیارهای تأیید هدفمند، استقرار تدریجی که سیستم‌های ایمنی را با بروز شدن خطرات به‌روزرسانی می‌کند و افزایش مقاومت اکوسیستم از طریق اعانه‌سازی و مشارکت‌های متن‌باز.

پاسخ به مدل آنتروپیک

شاید به سختی می‌توان گفت که زمان‌بندی عرضه این مدل توسط OpenAI اتفاقی است و ربطی به معرفی مدل Mythos توسط آنتروپیک ندارد. مدلی که به گفته آنتروپیک هیچ‌وقت قرار نیست به صورت عمومی عرضه شود و نسخه پیش‌نمایش آن، تنها در اختیار 11 سازمان از جمله اپل، گوگل، مایکروسافت، AWS، سیسکو، CrowStrike و JP Morgan Chase قرار دارد.

اما شرکت OpenAI تقریباً مسیری متفاوت را در پیش گرفته و با وجود توانایی کمتر مدل در بخش یافتن آسیب‌پذیری داده‌های خام، آن را در اختیار کاربران بیشتری قرار می‌دهد.

البته در این بین، بحث‌هایی وجود دارد که عرضه انحصاری این گونه ابزارهای امنیتی تنها برای شرکت‌های بزرگ، باعث می‌شود تا بسیاری از شرکت‌های کوچک‌تر که از ارگان‌های حیاتی و دولتی در مقابل حملات سایبری دفاع می‌کنند، از آن محروم باشند.

مدل GPT-5.4-Cyber چه کارهایی می‌تواند انجام دهد؟

این مدل به جز محدودیت کمتر در درخواست‌های بررسی امنیت سایبری، از قابلیت مهندسی معکوس باینری برخوردار است که به کاربر اجازه می‌دهد تا فایل اجرایی کامپایل شده یک نرم‌افزار را بررسی کند و بدافزار و آسیب‌پذیری‌های آن را پیدا کند.

همچنین قابلیت استفاده از آن به عنوان ابزار پیشگیری از حملات سایبری نیز وجود دارد، چرا که این قابلیت در نسخه استاندارد GPT 5.4 محدود بود و گاهی حتی به سوالاتی برای افزایش امنیت نیز پاسخ نمی‌داد.

در کنار این‌ها، قابلیت Codex Security که یک ابزار اسکن کد خودکار است، باعث تقویت این مدل شده. این قابلیت که از زمان راه‌اندازی‌اش توسط OpenAI، در پیدا کردن بیش از 3000 آسیب‌پذیری حیاتی در اکوسیستم منبع‌باز شرکت داشته، اکنون بیش از 100 پروژه منبع باز را از طریق یک برنامه اسکن رایگان پشتیبانی می‌کند.

شمشیری دو لبه!

بر کسی پنهان نیست که قابلیت‌های امنیت سایبری هوش‌مصنوعی به مانند یک شمشیر دولبه است. بدین معنی همانطور که این فناوری می‌تواند به مدافعان امنیت سایبری کمک کند، به مهاجمان نیز کمک کند.

به خصوص که این ابزار دارای قابلیت مهندسی معکوس باینری است و مهاجم می‌تواند برای یافتن آسیب‌پذیری و حمله به این نرم‌افزار، از این مدل سوء‌استفاده کند. اگرچه OpenAI در این مورد گفته که احراز هویت و نظارت (توسط شرکت)، بهتر از ممنوعیت کامل (توسط خود مدل) است. به عقیده این شرکت، احراز هویت به سبک KYC، سطح دسترسی مختلف و نظارت مستقیم در شرایط حساس، احتمال سوء استفاده از این مدل را کاهش می‌دهد.

در همین راستا، پژوهشی که در ژانویه منتشر شد، نشان داد که امکان دورزدن قفل یا همان جیل‌باکس مدل توسط مهاجمان پیشرفته وجود دارد و در 85 درصد مواقع، حملات تزریق پرسش‌های سازگار (adaptive prompt injection) حتی در مقابل پیشرفته‌ترین سپرهای امنیتی، موفق هستند. بنابر این می‌توان گفت که امنیت مبتنی بر رد پاسخ، تقریباً بی‌اثر است و خطرناک‌تر است.

البته این موضوع باعث نمی‌شود که راه جایگزین یعنی نظارت، کاملاً مطمئن باشد و آن نیز خود بحث‌هایی را به وجود آورده. برای مثال، نظارت و دسترسی OpenAI به نحوه استفاده از مدل در سطح بالا، ممکن است به این شرکت اجازه دهد تا به اطلاعات حساسی دسترسی پیدا کند که شاید قدرت و نفوذ این شرکت را در آینده افزایش دهد.

همچنین یک مشکل بزرگتر نیز وجود دارد، در صورتی که OpenAI هک شود و اطلاعات نظارتی آن‌ها لو برود، باعث می‌شود تا عملاً به یک نقشه و راهنمای رایگان برای حمله به هر آسیب‌پذیری تبدیل شود.

دو رویکرد متفاوت

در هر صورت می‌توان گفت که اکنون هوش‌مصنوعی امنیت سایبری به دو دسته تبدیل شده است: دسته اول که به عقیده آن‌ها این گونه مدل‌ها بسیار خطرناک هستند و تنها باید در اختیار شرکت‌های بسیار بزرگ قرار گیرد و دسته دوم، امکان دسترسی به این ابزار با قدرت کمتر، اما توسط کاربران بیشتر، به شرط احراز هویت و نظارت مستقیم در سطوح بالا.

البته قانون هوش مصنوعی اتحادیه اروپا، که بیشترین تعهدات واقعی‌اش در تاریخ 2 اگوست 2026 (11 مرداد 1405) اجرا می‌شود، متغیر دیگری را اضافه خواهد کرد.

به این صورت که سیستم‌های هوش مصنوعی با ریسک بالا (دسته‌ای که احتمالاً شامل ابزارهای خودکارسازی امنیتی می‌شود) باید با الزامات مدیریت ریسک، حاکمیت داده، شفافیت و نظارت انسانی منطبق شوند. اگرچه اینکه مدل‌های امنیت سایبری با دسترسی مرحله‌ای چگونه در این چارچوب جای می‌گیرند، هنوز یک سؤال بی‌پاسخ است که نه OpenAI و نه Anthropic پاسخ آن را نداده‌اند.

در همین رابطه بخوانید:

- پشت پرده Mythos؛ هوش مصنوعی ترسناک انتروپیک واقعاً چقدر قدرتمند است؟

در نهایت باید گفت که در حال حاضر، واقعیت این است که دو شرکت برجستهٔ هوش مصنوعی جهان برای تجهیز متخصصان امنیت سایبری با مدل‌هایی که قادر به پیدا کردن و تحلیل آسیب‌پذیری‌ها با سرعت و مقیاسی هستند که سال گذشته غیرممکن بود، با یک دیگر رقابت می‌کنند. اینکه این رقابت منجر به اینترنتی ایمن‌تر یا خطرناک‌تر شود، بستگی دارد به اینکه چقدر اصول و مقررات پایدار باشند.

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0
نظر شما پس از تایید مدیر منتشر خواهد شد.
  • هیچ نظری یافت نشد

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید