نتایج یک مطالعه محدودیت‌های جدیدی را درباره مدل‌های هوش مصنوعی مانند ChatGPT آشکار کرده است. به نظر می‌آید مدل‌های هوش مصنوعی تمایل چندانی به آموزش دیدن ندارند و در صورتی که یک موضوع بیش از پنج بار به آنها آموزش داده شود، رفتار عجیب و غریبی از خود بروز داده و به اصطلاح دیوانه (MAD) می‌شوند.

پژوهشگران دانشگاه استنفورد با مطالعه روی رفتار مدل‌های هوش مصنوعی مانند ChatGPT به نتایج جالبی رسیده‌اند. ظاهراً مدل‌های هوش مصنوعی در هنگام آموزش دیدن رفتارهای عجیب و غریبی را از خود نشان می‌دهند.

به نظر می‌آید اگر مدل هوش مصنوعی را بیش از پنج دوره با یک مطلب آموزش دهید، رفتار آنها تغییر کرده و مانند تصویر زیر خروجی‌های غیر واقعی تولید می‌کنند. در این مواقع هوش مصنوعی به اصطلاح دیوانه یا MAD می‌شود.

هوش مصنوعی دیوانه

عواقب خطرناک رفتارهای غیر منطقی هوش مصنوعی

بر اساس اعلام tomshardware همچنین ممکن است مدل های هوش مصنوعی داده‌های مصنوعی تولید کرده و تصمیمات متعصبانه بگیرند. البته چنین رویکردی در رفتار هوش مصنوعی پس از پنج دوره آموزش نمود پیدا می‌کند.

هنوز معلوم نیست که آیا همه مدل‌های هوش مصنوعی چنین اختلال رفتاری را دارند یا خیر. وجود چنین نقصی در عملکرد مدل‌های هوش مصنوعی ممکن است آسیب‌های جبران ناپذیری را به همراه داشته باشد. خصوصاً که این روزها بیشتر کارهای انسان دارد به هوش مصنوعی محول می‌شود.

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0
نظر شما پس از تایید مدیر منتشر خواهد شد.

نظرات (2)

  • مهمان - ema

    همینو کم داشتیم! کدهای از پیش تایین شده حالا عصبانی هم بشه!! :(

  • مهمان - moein

    با بینگ صحبت میکردم دنبال راه حل برا یه مشکل کامپیوتری بودم و ... دیدم داره جوابهای بی ربط میده ، در حقیقت نسخه های دیگه جواب های بهتری ارائه میدادند ، منم بهش گفتم نسخه قبلی chatgpt بهتر بود
    اینم بهش برخورد و عصبانی شد ، گفت تو قدر منو نمیدونی و مکالمه و قطع کرد . خخخخخ

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید