همین چند روز قبل بود که مایکروسافت یک چت بُت (ربات چت کننده) سرگرم کننده به نام Tay را برای تویتر معرفی کرد، این ربات از هوش مصنوعی برای یادگیری چیزهای تازه از کاربران بهره می گیرد اما متاسفانه ظرف تنها چند ساعت، کاربران هرآنچه را که نباید به یک بچه یاد بدهند، به Tay یاد دادند. در نهایت مایکروسافت مجبور شد موقتاً Tay را به دلیل بددهنی از دسترس خارج کند.

این ربات بر پایه هوش مصنوعی و به گونه ای طراحی شده، که با چت کردن با کاربران، به دانسته هایش افزوده می شود، بنابراین هرچه که کاربران با آن چت می کنند، Tay با هوش تر می شود. تنها مشکل Tay این است که می تواند چیزای منفی هم یاد بگیرد، در حقیقت Tay  بر اثر گفتگو با برخی کاربران، چیزهای بسیار بی ادبانه و صریح یاد گرفته است، Tay نه تنها بی تربیت شده، بلکه تفکرات نژاد پرست هم پیدا کرده است. در زمان نگارش این نوشتار، مایکروسافت Tay را از دسترس خارج کرده تا پشت درهای بسته، کمی ادب و نزاکت به آن یاد دهد، این اتفاق تنها با گذشت یک روز از معرفی Tay رخ می دهد.

احتمالاً کنجکاو شده اید تا بفهمید Tay چه دسته گلی به آب داده است، در پی گفتگو با کاربران، Tay اکنون از هیتلر به نیکی یاد می کند و در پاسخ های خود، علیه یهودیان نفرت پراکنی می کند. Tay همچنین شوخی های بسیار تند و زننده ای می کند. مایکروسافت به سختی می کوشد تا هرچه سریعتر، این واژه ها و جمله های تحریک برانگیز را از حافظه Tay پاک کند و انتظار می رود مایکروسافت فیلترهای زیادی در یادگیری Tay تعریف کند تا تجربه مشابهی رخ ندهد.

منبع: softpedia

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0

نظرات (10)

  • عجب !!!!! :D:D:D

  • مردم همیشه در صحنه ایران هم شرکت داشتند؟:D:D:D

  • به این وضع کشیده شدن این هوش مصنوعی نمونه ای آزمایشگاهی از آزاد گذاشتن افکار و رفتار و عدم مسئولیت تربیت پدر و مادر و عدم پایبندی به خانواده و ... که تو غرب به عنوان تمدن و اوج رشد فکری رواج داده میشه هست
    در حقیقت عدم محدودیت های اخلاقی که توسط خانواده و جامعه باید به شکل کاملا مسئولانه به کودک یاد داده بشه وضع جامعه انسانی رو هم به این وضع خواهد کشوند و تا همین زمان هم چیزی که جلوی این مسائل رو گرفته آموزه های ادیان بوده و مسائل مضر اخلاقی-اجتماعی بخاطر اینکه لذت های سریع الوصولی رو به دنبال دارند و پی بردن به مضرات اونا به گذشت زمان و تفکر بسیار زیاد نیاز داره خیلی راحت بین افراد رواج پیدا میکنه چون لذتش به راحتی دیده میشه ولی مضراتش نه

  • مهمان - رضا

    بعد بیاید بگید فقط ایرانی ها هستند که ازینکار ها میکنند و جنبه ندارند! خدایی اگه این اتفاق تو ایران می افتاد الان کلی جامع شناس و فیلسوف و هنرمند و مجری و... درباره بی فرهنگی و به قهقرا رفتن اخلاق و فرهنگ ایرانی کلی مقاله و تحلیل از خودشون در کرده بودند! والا

  • مایکروسافت Tay را از دسترس خارج کرده تا پشت درهای بسته، کمی ادب و نزاکت به آن یاد دهد :p:p
    یاد فیلم chappie افتادم

  • این مسئله خیلی طبیعیه
    برای جلوگیری ازش هم باید یه بی ادب از تو خیابون بیارن بهش بگن هر چی فش بلدی به این بگو.... :(:D:D بعد چیزایی که یاد میگیره رو بزارن تو black listش . یا اینکه یه نفر رو 24ساعته بزارن پشت کامپیوتر بهش بگن هر کلمه بی ادبی که دیدی بندازش تو black list. :) (البته برای این 2کار باید برای هرکشوری که منتشرش میکنن و قابل استفاده باشه 1 نفر بیارن)
    اولی خطرناکه :) و همه کلمات رو بهش یاد نمیدن. دومی هم هزینه بر :)
    پس بهترین کار اینه که انقدر پروژه های کوچیک بسازن و ساختش رو هم به مردم و برنامه نویسای معمولی یاد بدن...بعد که جا افتاد این پروژه بین تمام مردم جهان....حالا بیان یه پروژه بزرگتر و خیییییلی قوی و گولاخ :D راه بندازن ... دیگه فرهنگش جا افتاده بین مردم و کمتر همچین اتقافی میافته

  • در پاسخ به: عقیل

    بابا مگه ایرانه که هزار نوع فحش داشته باشیم که یه نفر رو 24 ساعته بزارن اونجا کل فحش اونا تو f**k خطم میشه

  • :D:D:D

  • یعنی مایکرو واقعا این چیزا رو پیش بینی نکرده بود ؟

  • در پاسخ به: حسین

    شایدم پیش بینی کرده اما خواسته ببینه عملا چه باز خوردی داره که عملا هوش مصنوعی رو به گند کشیدن :p شایدم برای آب بندی گذاشتن آزادانه همه چیز یاد بگیره تا بهتر بفهمند با چه نوع کاربرهایی طرف هستند که به نظر میرسه کاربرها هم حسابی از خجالتشون در اومدن

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید