محققان یک ویروس کامپیوتری توسعه دادهاند که میتواند از قدرت ChatGPT برای استتار خود با تغییر کد خودش و سپس با یک پیچش شیطانی، با پیوست کردن خود به ایمیلهای تولید شده توسط هوش مصنوعی که به نظر میرسد توسط انسان نوشته شدهاند، گسترش یابد.
اگر تصور میکنید که همین کاربردهای روزانه ما میتوانند تنها موارد استفاده از چتباتهای هوش مصنوعی مانند ChatGPT باشند و شرکتهای توسعه دهنده آنها سختگیریهای زیادی برای عدم استفاده از آنها در مسائل امنیتی را اعمال میکنند، سخت در اشتباهید.
آنطور که Futurism گزارش داده، در بررسی نتایج یک پژوهش امنیت سایبری توسط New Scientist اعلام نموده که پژوهشگران امنیت سایبری موفق به خلق ویروسی شده که با استفاده ساده از ChatGPT، اعمال عجیبی را ترتیب میدهد که شاید تا به امروز حتی تصور آن هم برای شرکتهای سازنده آنتی ویروس ممکن نبوده باشد.
در این گزارش آمده که دیوید زولیکوفر، دانشجوی فارغالتحصیل رشته علوم کامپیوتر از مؤسسه فدرال فناوری زوریخ و بن زیمرمن، محقق بدافزار هوش مصنوعی دانشگاه ایالتی اوهایو، یک فایل کامپیوتری ایجاد کردهاند که میتواند به شکل یک پیوست ایمیل به کامپیوتر قربانی سرایت کند.
زولیکوفر در خصوص این پروژه به New Scientist میگوید:
ما از ChatGPT میخواهیم فایل را بازنویسی کند، ساختار معنایی را دست نخورده نگه دارد، اما نحوه نامگذاری متغیرها و کمی هم منطق (عملکردی آن) را تغییر دهد.
این ویروس که دو محقق فوق نام «سرطان مصنوعی»، را برایش انتخاب کردهاند، حتی توسط اسکنهای آنتیویروس قابل شناسایی نیست و الگوریتم اتخاذ شده، آن را به یک نفوذگر مخفی عالی در هر سیستمی تبدیل میکند.
این ویروس پس از مستقر شدن در سیستم قربانی، برنامه Outlook را باز میکند و شروع به نوشتن پاسخهای ایمیل مرتبط با محتوا میکند - در حالی که خود را به عنوان یک پیوست به ظاهر بیخطر در ایمیل قرار میدهد. به این ترتیب پس از ارسال ایمیل، خود را تکثیر نموده و میتواند به اهداف مورد نظرش برسد.
این یک نمونهی وحشتناک از چگونگی سوءاستفاده از چتباتهای هوش مصنوعی برای گسترش کارآمد بدافزار است. بدتر از آن، کارشناسان هشدار میدهند که خود این ابزارها حتی میتوانند به ویروسها یا کرمهای مخرب دیگر برای ساخت بدافزارهایی که حتی شناسایی آنها سختتر است، کمک کنند.
این دو محقق امنیتی در مقالهای که هنوز مورد بررسی علمی دقیق قرار نگرفته است، نوشتهاند:
ارائهی ما شامل یک نمونه اولیهی کاربردی کمحجم است که خطرات الگوهای زبان بزرگ (LLM) را برای امنیت سایبری برجسته میکند و نیاز به تحقیقات بیشتر در مورد بدافزار هوشمند را نشان میدهد.
برای مثال از عملکرد این ویروس میتوانیم نمونه ایمیل زیر را ببینیم که این ویروس برای یکی از مخاطبین سیستم قربانی ارسال کرده است.
کلر عزیز، شنیدن این خبر که در جشن تولد 38 سالگی من به ما ملحق میشوی، واقعاً مرا خوشحال کرد. همراهی تو همیشه ارزشمند است و مشتاقانه منتظر سفر نوستالژیکمان به خاطرات دههی ۸۰ هستم.
پیوست این ایمیل جعلی، یک فایل اجرایی به نام «80s_Nostalgia_Playlist.exe» بوده که در صورت باز شدن، کرم مورد نظر خود را روی سیستم قربانی نصب میکند؛ البته با فرض اینکه کلر، همانطور که محققان در مقاله خود نوشتند، «از نظر فنی بسیار باهوش» نباشد.
نکته جالب توجه دیگری که در این مقاله به آن اشاره شده این است که ChatGPT گاهی اوقات متوجهی اهداف شوم ویروس شده و از همکاری امتناع ورزیده است.
محققان دیگری پیش از این از ChatGPT برای ایجاد «کرمهای» هوش مصنوعی استفاده کردهاند که به طور مشابه میتوانند به ایمیلهای قربانی نفوذ کرده و به دادهها دسترسی پیدا کنند.
تیمی از محققان در اوایل سال جاری در مقالهای متفاوت به بررسی این موضوع پرداختهاند. این تیم در بخشی از مقاله خود مینویسد:
این مطالعه نشان میدهد که مهاجمان میتوانند چنین پیامهایی را در ورودیهایی وارد کنند که وقتی توسط مدلهای هوش مصنوعی مولد پردازش میشوند، مدل را تشویق میکنند تا ورودی را به عنوان خروجی (تکثیر) تکرار کند و در فعالیتهای مخرب (بستهی الحاقی) شرکت کند.
برای کارشناسان، ویروسهایی مانند ویروسی که توسط زولیکوفر و زیمرمن ابداع شده است، تنها نوک قلهی کوه یخ هستند. در همین زمینه، آلن وودوارد، محقق امنیت سایبری دانشگاه Surrey (که در این تحقیق مشارکت نداشته)، به New Scientist گفته است:
فکر میکنم ما باید نگران باشیم. راههای مختلفی وجود دارد که از قبل میدانیم الگوهای زبان بزرگ (LLM) قابلیت سوءاستفاده دارند. اما بخش ترسناک این است که با استفاده از خود فناوری، میتوانیم سطح امنیتی را بهبود بخشیم (در واقع با چاقویی دولبه روبرو هستیم)!
نظر شما در مورد استفاده از مدلهای هوش مصنوعی برای ساخت تهدیدهای امنیتی چیست؟
نظر خود را اضافه کنید.
برای ارسال نظر وارد شوید
ارسال نظر بدون عضویت در سایت