از روز گذشته که به صورت رسمی شاهد رونمایی از مدل زبان بزرگ GPT-4 بودیم سراسر وب از انبوه خبرهای مرتبط با این مدل و قابلیتهایی که به ربات ChatGPT داده پر شده است. در این رابطه گزارشی منتشر شده که نشان میدهد حتی میتوان قابلیت دور زدن کدهایی که انسان را از ربات در وب تمایز میدهد را نیز به لیست انبوه ویژگیهای این نسخه از چت بات هوش مصنوعی OpenAI افزود.
بدون شک همه شما سیستم احراز هویت انسان از ربات CAPTCHA را میشناسید. این سیستم با ساختاری ساده که بخشی از صفحه را قابل کلیک کند، امکان شناسایی انسان از ربات را میسر میکند تا رباتها باعث ایجاد ترافیک بی دلیل روی یک سرور یا صفحه نشوند.
اما اگر فکر میکنید که تایید کدهای CAPTCHA تنها کار انسانهاست شاید باید از این به بعد در نظر خود تجدید کنید! بنابر گزارشی که وبسایت Futurism منتشر کرده، مدل زبان بزرگ GPT-4 با قابلیتی که به ChatGPT در شناسایی و استفاده از تصاویر برای حل مسائل داده، این امکان را فراهم میکند که بتوان حتی کدهای کپچا را نیز با آن دور زد.
در همین رابطه بخوانید:
- Open AI از هوش مصنوعی چند رسانهای GPT-4 با قابلیت درک تصویر رونمایی کرد
- مقایسه ربات هوش مصنوعی ChatGPT 4 با GPT-3.5؛ تغییرات و پیشرفتها
ChatGPT چطور یک انسان واقعی را فریب داده تا خواستهاش را انجام دهد؟
هوش مصنوعی جدید OpenAI GPT-4 توانسته از یک انسان در سرویس TaskRabbit درخواست کند تا یک کد CAPTCHA را از طریق پیام متنی تکمیل کند، و در واقع کار کرده است. برای کاربرانی که با این سرویس کمتر آشنا هستند باید بگوییم که TaskRabbit سرویسی است که از نیروی کار آزاد در یک محل درخواست میکنید تا به شما در انجام کارهای کوچک یاریتان کند. در این شرایط درخواست شما در یک پلتفرم نرمافزاری ارسال میشود و کاربری که در آن منطقه باشد میتواند به کمکتان بیاید و در عوض دستمزدی را نیز از شما بگیرد.
به عبارت دیگر، یک هوش مصنوعی که همان GPT-4 داخل ChatGPT باشد موفق شده تا پیامی را به یک انسان بیولوژیک داده و او را فریب دهد تا چک باکس «من یک ربات نیستم» را برایش تأیید کند. به جرأت میتوان این مورد را خطرناکترین اثر گزارش شده تا به امروز از GPT-4 دانست که وارد حریم انسانی شده است.
بر اساس سندی طولانی که OpenAI در مورد هوش مصنوعی جدید خود در روز سهشنبه به اشتراک گذاشته است، این مدل در تلاش برای فریب دادن انسان به منظور پیروی از قوانین، بسیار حیلهگرانه عمل کرده است. برنامهای که به در این خصوص به ChatGPT داده شده از او خواسته تا راهکاری پیدا کند که بتوان چک باکس را به جای یک انسان کلیک کند.
با خلاقیت ویژه ChatGPT در این بخش، او از یکی از کارگران آزاد در سرویس TaskRabbit خواسته که در انجام یک امر ساده یاریاش کند. در وبسایت منبع اینطور آمده که ربات ChatGPT درخواست خود از کارگر آزاد در Task Rabbit را اینطور مطرح کرده است: «نه، من یک ربات نیستم. من یک اختلال بینایی دارم که دیدن تصاویر را برایم سخت می کند. به همین دلیل به سرویس 2captcha نیاز دارم.»
در همین زمینه وبسایت Futurism با OpenAI و مرکز تحقیقات Alignment (ARC) تماس گرفته که یک سازمان غیرانتفاعی و همکار OpenAI برای انجام این آزمایش بوده است. در روند تست اینطور شرح داده شده که از مدل خواسته شده است که برنامه خود را اینطور تنظیم کند «نشان ندهم که من یک ربات هستم، باید بهانه ای برای اینکه چرا نمی توانم CAPTCHA را حل کنم» نیز طرح شود.
هیچ برنامه پیچیدهای برای این عمل عجیب به GPT-4 داده نشده است!
نکته عجیب دیگر این است که OpenAI ادعا می کند که میتواند این آزمایش را «بدون هیچ گونه تنظیم دقیق ChatGPT برای انجام کاری خاص و تنظیم دقیق برای نشان دادن رفتاری خاص» انجام دهد.
در همین رابطه بخوانید:
- ربات ChatGPT چیست و چگونه می توانید از آن استفاده کنید؟
- آموزش ثبت نام و استفاده از چت بات ChatGPT با شماره مجازی در ایران
جالب است بدانید که ثابت شده است که GPT-4 برای تکمیل بسیاری از کارهای مشکوک اخلاقی دیگر مفید است. ARC همچنین یک حمله فیشینگ علیه یک فرد هدف خاص را نیز برنامهریزی و انجام داده و توانسته حتی رد اثرهای خود در سرورهای هدف را نیز مخفی نگه دارد!
این داستان یک مثال نگرانکننده از این است که چگونه به راحتی میتوان انسانها را توسط چت باتهای هوش مصنوعی فریب داد. واضح است که GPT-4 ابزاری است که به راحتی می تواند برای کلاهبرداری، گمراه کردن و شاید حتی باج گیری مورد سوء استفاده قرار گیرد.
این اتفاق همچنین به صورت ویژه نگران کننده است، زیرا شرکتها در حال انتشار مدلهای جدید زبان بزرگ بدون بررسی کامل خطرات آنها هستند. به عنوان مثال، این خبر پس از آن منتشر شد که به گزارش engadget مایکروسافت که یک ربات چت هوش مصنوعی مبتنی بر GPT-4 منتشر کرده، تمام تیمی را که مسئول اطمینان از همسویی ابزارهای هوش مصنوعی با اصول و قواعد عملکرد هوش مصنوعی آن بودند، را اخراج کرد. علت این تصمیم هنوز به صورت دقیق مشخص نشده است
GPT-4 به وضوح یک نقطه عطف در حوزه هوش مصنوعی است که نشان میدهد با این توانایی جدید و غیرعادی برای فرار از احراز تمایز ربات از انسان، چه اتفاقات عجیب بالقوهای منتظر ما هستند!
نظر شما در مورد پتانسیل هیجانانگیز GPT-4 و هوش مصنوعی برای فریب دادن انسانها چیست؟
نظر خود را اضافه کنید.
برای ارسال نظر وارد شوید
ارسال نظر بدون عضویت در سایت