هر روزی که میگذرد اخبار و اتفاقات جدیدی را از چاقوی جدید و دو لبه صنعت هوش مصنوعی یعنی چت بات ChatGPT میشنویم. به تازگی گزارشی منتشر شده که در آن یک کاربر تازه کار برنامهنویس مدعی شده که به کمک ChatGPT موفق به نوشتن یک بدافزار پیچیده برای انجام عملیات جاسوسی استخراج داده از سیستم قربانی شده است. در ادامه این خبر با توضیحات بیشتر در مورد این بدافزار همراه ما باشید.
این روزها که ابزارهای هوش مصنوعی مانند Bard و ChatGPT در دسترس عموم قرار گرفتهاند، ممکن است زمان آن رسیده باشد که سوالات بسیاری ار در مورد ایمنی هر چه بیشتر این ابزارها از خودمان و البته شرکتهای توسعه دهنده آنها بپرسیم؛ به صورت ویژه که شاید برخی از کاربران از این ابزار برای خلق بدافزارهای مخصوص به خود استفاده کنند.
ساخت بدافزار با ChatGPT بدون دانش برنامه نویسی
به گزارش Digital Trends، محقق امنیتی Forcepoint، آرون مولگرو، میگوید که او بدافزار روز صفر عجیبی را تنها با استفاده از ChatGPT ایجاد کرده است. در حالی که چت بات ویژه Open AI دارای پروتکلهای مخافظتی ویژهای برای جلوگیری از ساخت، توسعه و استفاده از ابزارهای مخرب توسط کاربران است، این کاربر که در امر نگارش نرمافزارهای جاسوسی، ویروسها و برنامههای مخرب تازه کار محسوب میشود با استفاده از حفرهای که بیشتر به نبوغ او بستگی داشته موفق به خلق این بدافزار شده است.
در همین رابطه بخوانید:
- ربات هوش مصنوعی چت جی پی تی (ChatGPT) چیست و چگونه کار می کند؟
- آینده AI؛ نابودی دنیا مثل بمب اتم یا موتور پولسازی خارج از تصور!
Mulgrew به جای اینکه به صورت یکباره بدافزار خود را بنویسد، به هوش مصنوعی ربات دستور داد خطوط جداگانهای از کدهای مخرب را در چندین مرحله تولید کند. پس از طی چند مرحله، مولگرو توانسته توابع منفرد ایجاد شده را در یک برنامه منسجم برای سرقت اطلاعات سیستم قربانی کامپایل کرده و با موفقیت آزمایش کند.
ظاهراً ساختار اینطور بوده که بدافزار مورد بحث، خود را به عنوان یک برنامه محافظ صفحه نمایش از نظرها پنهان کرده و به طور خودکار در سیستمعامل ویندوز اجرا میشود. این بدافزار میتواند دادهها را از فایلها بگیرد، آنها را به قطعات کوچکتر که در دل فایلهای تصویری پنهان میشوند، تقسیم کرده و آن دادهها را در پوشه Google Drive مقصد خود آپلود کند.
این واقعیت که Mulgrew توانست بدافزار را از این طریق ایجاد کند به اندازه کافی ترسناک است، اما اتفاق بدتری نیز با خلق آن به وجود آمده است. پس از خلق اولیه، Mulgrew توانسته کُد خود را با استفاده ChatGPT اصلاح و تقویت کند تا جایی که تست های VirusTotal دیگر قادر به شناسایی آن نیستند. همچنین گفته میشود که سطح پیچیدگی و نفوذ این نرمافزار به حدی رسیده که شاید بتواند به راحتی در سطح امنیت ملی سایبری توسط نهادهای حاکمیتی، دسته بندی شود.
در همین رابطه بخوانید:
- خط و نشان مدیر عامل گوگل برای ChatGPT؛ به زودی قدرت هوش مصنوعی واقعی ما را میبینید!
- ChatGPT در ایتالیا مسدود شد
اما شاید بخش واقعاً ترسناک این واقعیت آن است که توسعه دهنده مورد بحث ما این کار را به تنهایی و تنها در عرض چند ساعت انجام داده است. ایجاد بدافزاری در این سطح معمولاً به یک تلاش گروهی از مجموعه مختصصان نیاز داشته که باید بنشینند و ساعتها کار هماهنگ با هم را برنامهریزی نموده و به مرحله اجرا و سپس عیبیابی بگذارند.
خوشبختانه این محقق بدافزار مورد بحث را به صورت عمومی منتشر نکرده و صرفاً آن را برای آزمایش تواناییهای چتبات ChatGPT به خدمت گرفته است.
با این حال این اتفاق نشان میدهد که استفاده از رباتهای هوش مصنوعی در جهت اهداف مجرمانه تا چه حد میتواند خطرناک بوده و نتایجی خارج از باور را خلق کند.
نظر خود را اضافه کنید.
برای ارسال نظر وارد شوید
ارسال نظر بدون عضویت در سایت