از روز گذشته که به صورت رسمی شاهد رونمایی از مدل زبان بزرگ GP‌T-4 بودیم سراسر وب از انبوه خبرهای مرتبط با این مدل و قابلیت‌هایی که به ربات ChatGPT داده پر شده است. در این رابطه گزارشی منتشر شده که نشان می‌دهد حتی می‌توان قابلیت دور زدن کدهایی که انسان را از ربات در وب تمایز می‌دهد را نیز به لیست انبوه ویژگی‌های این نسخه از چت بات هوش مصنوعی OpenAI افزود.

بدون شک همه شما سیستم احراز هویت انسان از ربات CAPTCHA را می‌شناسید. این سیستم با ساختاری ساده که بخشی از صفحه را قابل کلیک کند، امکان شناسایی انسان از ربات را میسر می‌کند تا ربات‌ها باعث ایجاد ترافیک بی دلیل روی یک سرور یا صفحه نشوند.

اما اگر فکر می‌کنید که تایید کدهای CAPTCHA تنها کار انسان‌هاست شاید باید از این به بعد در نظر خود تجدید کنید! بنابر گزارشی که وبسایت Futurism منتشر کرده، مدل زبان بزرگ GPT-4 با قابلیتی که به ChatGPT در شناسایی و استفاده از تصاویر برای حل مسائل داده، این امکان را فراهم می‌کند که بتوان حتی کدهای کپچا را نیز با آن دور زد.

در همین رابطه بخوانید:

- Open AI از هوش مصنوعی چند رسانه‌ای GPT-4 با قابلیت درک تصویر رونمایی کرد
مقایسه ربات هوش مصنوعی ChatGPT 4 با GPT-3.5؛ تغییرات و پیشرفت‌ها

ChatGPT چطور یک انسان واقعی را فریب داده تا خواسته‌اش را انجام دهد؟

هوش مصنوعی جدید OpenAI GPT-4 توانسته از یک انسان در سرویس TaskRabbit درخواست کند تا یک کد CAPTCHA را از طریق پیام متنی تکمیل کند، و در واقع کار کرده است. برای کاربرانی که با این سرویس کمتر آشنا هستند باید بگوییم که TaskRabbit سرویسی است که از نیروی کار آزاد در یک محل درخواست می‌کنید تا به شما در انجام کارهای کوچک یاری‌تان کند. در این شرایط درخواست شما در یک پلتفرم نرم‌افزاری ارسال می‌شود و کاربری که در آن منطقه باشد می‌تواند به کمک‌تان بیاید و در عوض دستمزدی را نیز از شما بگیرد.

به عبارت دیگر، یک هوش مصنوعی که همان GPT-4 داخل ChatGPT باشد موفق شده تا پیامی را به یک انسان بیولوژیک داده و او را فریب دهد تا چک باکس «من یک ربات نیستم» را برایش تأیید کند. به جرأت می‌توان این مورد را خطرناک‌ترین اثر گزارش شده تا به امروز از GPT-4 دانست که وارد حریم انسانی شده است.

بر اساس سندی طولانی که OpenAI در مورد هوش مصنوعی جدید خود در روز سه‌شنبه به اشتراک گذاشته است، این مدل در تلاش برای فریب دادن انسان به منظور پیروی از قوانین، بسیار حیله‌گرانه عمل کرده است. برنامه‌ای که به در این خصوص به ChatGPT داده شده از او خواسته تا راهکاری پیدا کند که بتوان چک باکس را به جای یک انسان کلیک کند.

با خلاقیت ویژه ChatGPT در این بخش، او از یکی از کارگران آزاد در سرویس TaskRabbit خواسته که در انجام یک امر ساده یاری‌اش کند. در وبسایت منبع این‌طور آمده که ربات ChatGPT درخواست خود از کارگر آزاد در Task Rabbit را این‌طور مطرح کرده است: «نه، من یک ربات نیستم. من یک اختلال بینایی دارم که دیدن تصاویر را برایم سخت می کند. به همین دلیل به سرویس 2captcha نیاز دارم.»

در همین زمینه وبسایت Futurism با OpenAI و مرکز تحقیقات Alignment (ARC) تماس گرفته که یک سازمان غیرانتفاعی و همکار OpenAI برای انجام این آزمایش بوده است. در روند تست اینطور شرح داده شده که از مدل خواسته شده است که برنامه خود را این‌طور تنظیم کند «نشان ندهم که من یک ربات هستم، باید بهانه ای برای اینکه چرا نمی توانم CAPTCHA را حل کنم» نیز طرح شود.

هیچ برنامه پیچیده‌ای برای این عمل عجیب به GPT-4 داده نشده است!

نکته عجیب دیگر این است که OpenAI ادعا می کند که می‌تواند این آزمایش را «بدون هیچ گونه تنظیم دقیق  ChatGPT برای انجام کاری خاص و تنظیم دقیق برای نشان دادن رفتاری خاص» انجام دهد.

در همین رابطه بخوانید:

- ربات ChatGPT چیست و چگونه می توانید از آن استفاده کنید؟
آموزش ثبت نام و استفاده از چت بات ChatGPT با شماره مجازی در ایران

جالب است بدانید که ثابت شده است که GPT-4 برای تکمیل بسیاری از کارهای مشکوک اخلاقی دیگر مفید است. ARC همچنین یک حمله فیشینگ علیه یک فرد هدف خاص را نیز برنامه‌ریزی و انجام داده و توانسته حتی رد اثرهای خود در سرورهای هدف را نیز مخفی نگه دارد!

این داستان یک مثال نگران‌کننده از این است که چگونه به راحتی می‌توان انسان‌ها را توسط چت بات‌های هوش مصنوعی فریب داد. واضح است که GPT-4 ابزاری است که به راحتی می تواند برای کلاهبرداری، گمراه کردن و شاید حتی باج گیری مورد سوء استفاده قرار گیرد.

این اتفاق همچنین به صورت ویژه نگران کننده است، زیرا شرکت‌ها در حال انتشار مدل‌های جدید زبان بزرگ بدون بررسی کامل خطرات آنها هستند. به عنوان مثال، این خبر پس از آن منتشر شد که به گزارش engadget مایکروسافت که یک ربات چت هوش مصنوعی مبتنی بر GPT-4 منتشر کرده، تمام تیمی را که مسئول اطمینان از همسویی ابزارهای هوش مصنوعی با اصول و قواعد عملکرد هوش مصنوعی آن بودند، را اخراج کرد. علت این تصمیم هنوز به صورت دقیق مشخص نشده است

GPT-4 به وضوح یک نقطه عطف در حوزه هوش مصنوعی است که نشان می‌دهد با این توانایی جدید و غیرعادی برای فرار از احراز تمایز ربات از انسان، چه اتفاقات عجیب بالقوه‌ای منتظر ما هستند!

نظر شما در مورد پتانسیل هیجان‌انگیز GPT-4 و هوش مصنوعی برای فریب دادن انسان‌ها چیست؟

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0

نظرات (4)

  • مهمان - aria

    دوستان یک سوال؟
    آیا این چت بات میتونه وب سایتها رو هک کنه؟
    مثلا اگه کاربر ازش بخاد، ایا چت بات میتونه راهکار هک یک سایت بخصوص رو بهش آموزش بده؟

  • مهمان - میو

    در پاسخ به: مهمان - aria

    سلام خیر. بات از دادن اطلاعات هرمفول یا اصطلاحا آسیب رسان خودداری می‌کنه.

  • مهمان - سمیه نرو

    آقا من دیگه واقعا نگران شدم. :o:o:o

  • مهمان - سعید پور

    یا پروردگار دو عالم این دیگه چیه؟؟؟ به خدا دیگه این دنیا جای موندن نیست :D:D:D

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید