محققان یک ویروس کامپیوتری توسعه داده‌اند که می‌تواند از قدرت ChatGPT برای استتار خود با تغییر کد خودش و سپس با یک پیچش شیطانی، با پیوست کردن خود به ایمیل‌های تولید شده توسط هوش مصنوعی که به نظر می‌رسد توسط انسان نوشته شده‌اند، گسترش یابد.

اگر تصور می‌کنید که همین کاربردهای روزانه ما می‌توانند تنها موارد استفاده از چت‌بات‌های هوش مصنوعی مانند ChatGPT باشند و شرکت‌‌های توسعه دهنده آنها سخت‌گیری‌های زیادی برای عدم استفاده از آنها در مسائل امنیتی را اعمال می‌کنند، سخت در اشتباهید.

آنطور که Futurism گزارش داده، در بررسی نتایج یک پژوهش امنیت سایبری توسط ‌New Scientist اعلام نموده که پژوهشگران امنیت سایبری موفق به خلق ویروسی شده که با استفاده ساده از ChatGPT، اعمال عجیبی را ترتیب می‌دهد که شاید تا به امروز حتی تصور آن هم برای شرکت‌های سازنده آنتی ویروس ممکن نبوده باشد.

در این گزارش آمده که دیوید زولیکوفر، دانشجوی فارغ‌التحصیل رشته علوم کامپیوتر از مؤسسه فدرال فناوری زوریخ و بن زیمرمن، محقق بدافزار هوش مصنوعی دانشگاه ایالتی اوهایو، یک فایل کامپیوتری ایجاد کرده‌اند که می‌تواند به شکل یک پیوست ایمیل به کامپیوتر قربانی سرایت کند.

زولیکوفر در خصوص این پروژه به New Scientist می‌گوید:

ما از ChatGPT می‌خواهیم فایل را بازنویسی کند، ساختار معنایی را دست نخورده نگه دارد، اما نحوه نامگذاری متغیرها و کمی هم منطق (عملکردی آن) را تغییر دهد.

این ویروس که دو محقق فوق نام «سرطان مصنوعی»، را برایش انتخاب کرده‌اند، حتی توسط اسکن‌های آنتی‌ویروس قابل شناسایی نیست و الگوریتم اتخاذ شده، آن را به یک نفوذگر مخفی عالی در هر سیستمی تبدیل می‌کند.

این ویروس پس از مستقر شدن در سیستم قربانی، برنامه Outlook را باز می‌کند و شروع به نوشتن پاسخ‌های ایمیل مرتبط با محتوا می‌کند - در حالی که خود را به عنوان یک پیوست به ظاهر بی‌خطر در ایمیل قرار می‌دهد. به این ترتیب پس از ارسال ایمیل، خود را تکثیر نموده و می‌تواند به اهداف مورد نظرش برسد.

این یک نمونه‌ی وحشتناک از چگونگی سوءاستفاده از چت‌بات‌های هوش مصنوعی برای گسترش کارآمد بدافزار است. بدتر از آن، کارشناسان هشدار می‌دهند که خود این ابزارها حتی می‌توانند به ویروس‌ها یا کرم‌های مخرب دیگر برای ساخت بدافزارهایی که حتی شناسایی آن‌ها سخت‌تر است، کمک کنند.

این دو محقق امنیتی در مقاله‌ای که هنوز مورد بررسی علمی دقیق قرار نگرفته است، نوشته‌اند:

ارائه‌ی ما شامل یک نمونه اولیه‌ی کاربردی کم‌حجم است که خطرات الگوهای زبان بزرگ (LLM) را برای امنیت سایبری برجسته می‌کند و نیاز به تحقیقات بیشتر در مورد بدافزار هوشمند را نشان می‌دهد.

برای مثال از عملکرد این ویروس می‌توانیم نمونه ایمیل زیر را ببینیم که این ویروس برای یکی از مخاطبین سیستم قربانی ارسال کرده است.

کلر عزیز، شنیدن این خبر که در جشن تولد 38 سالگی من به ما ملحق می‌شوی، واقعاً مرا خوشحال کرد. همراهی تو همیشه ارزشمند است و مشتاقانه منتظر سفر نوستالژیک‌مان به خاطرات دهه‌ی ۸۰ هستم.

پیوست این ایمیل جعلی، یک فایل اجرایی به نام «80s_Nostalgia_Playlist.exe» بوده که در صورت باز شدن، کرم مورد نظر خود را روی سیستم قربانی نصب می‌کند؛ البته با فرض اینکه کلر، همانطور که محققان در مقاله خود نوشتند، «از نظر فنی بسیار باهوش» نباشد.

نکته جالب توجه دیگری که در این مقاله به آن اشاره شده این است که ChatGPT گاهی اوقات متوجه‌ی اهداف شوم ویروس شده و از همکاری امتناع ورزیده است.

محققان دیگری پیش از این از ChatGPT برای ایجاد «کرم‌های» هوش مصنوعی استفاده کرده‌اند که به طور مشابه می‌توانند به ایمیل‌های قربانی نفوذ کرده و به داده‌ها دسترسی پیدا کنند.

تیمی از محققان در اوایل سال جاری در مقاله‌ای متفاوت به بررسی این موضوع پرداخته‌اند. این تیم در بخشی از مقاله خود می‌نویسد:

این مطالعه نشان می‌دهد که مهاجمان می‌توانند چنین پیام‌هایی را در ورودی‌هایی وارد کنند که وقتی توسط مدل‌های هوش مصنوعی مولد پردازش می‌شوند، مدل را تشویق می‌کنند تا ورودی را به عنوان خروجی (تکثیر) تکرار کند و در فعالیت‌های مخرب (بسته‌ی الحاقی) شرکت کند.

برای کارشناسان، ویروس‌هایی مانند ویروسی که توسط زولیکوفر و زیمرمن ابداع شده است، تنها نوک قله‌ی کوه یخ هستند. در همین زمینه، آلن وودوارد، محقق امنیت سایبری دانشگاه Surrey (که در این تحقیق مشارکت نداشته)، به New Scientist گفته است:

فکر می‌کنم ما باید نگران باشیم. راه‌های مختلفی وجود دارد که از قبل می‌دانیم الگوهای زبان بزرگ (LLM) قابلیت سوءاستفاده دارند. اما بخش ترسناک این است که با استفاده از خود فناوری، می‌توانیم سطح امنیتی را بهبود بخشیم (در واقع با چاقویی دولبه روبرو هستیم)!

نظر شما در مورد استفاده از مدل‌های هوش مصنوعی برای ساخت تهدیدهای امنیتی چیست؟

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0
نظر شما پس از تایید مدیر منتشر خواهد شد.
  • هیچ نظری یافت نشد

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید