به همان میزان که درمورد مزایا و فواید هوش مصنوعی صحبت شده باید این احتمال نیز داده شود که کاربرانی نیز می‌توانند از این پتانسیل بالا برای اهداف سیاه و منفی استفاده کنند. به تازگی رباتی توسط یک کاربر توسعه داده شده که از دید فنی، یک موجود ترسناک و بدترین هوش مصنوعی متنی منتشر شده عمومی است.

از همان سال‌های اولیه حضور هوش مصنوعی و ربات‌ها در دنیاهای خیالی و سینمایی، همواره دغدغه انسان آن بوده که اگر از AI برای خلق ربات یا بسترهایی جهت اهداف منفی استفاده شود چه کار باید کرد؟

در واقع بشر همواره با این چالش روبروست که گروهی بتوانند هوش مصنوعی یا ربات‌هایی را برای اهداف ناسالم توسعه داده و همین ربات‌ها به موجوداتی علیه نوع بشر تبدیل شوند.

تا به حال تلاش‌هایی جهت وضع قوانین و اقدامات در این زمینه انجام شده ولی آیا یک فرد یا گروه توسعه دهنده با اهداف منفی قبل از انتشار کار خود قابل شناسایی است؟ در ادامه مثالی که توسعه یک توسعه دهنده با تنها استفاده از یک ابزار، خلق شده را به شما معرفی خواهیم کرد.

قبل از خواندن ادامه متن در نظر داشته باشید که این مدل تنها برای نشان دادن پتانسیل منفی هوش مصنوعی توسعه داده شده و شهر سخت‌افزار یا توسعه دهنده آن به هیچ عنوان، انجام اقداماتی این‌چنینی را تأیید یا ترویج نمی‌کنند.

مجله VICE این هفته گزارشی منتشر نموده که در آن شاید یکی از که بدترین مخلوقات نرم‌افزاری نوع بشر به ثبت رسیده است. در گزارش مذکور، کاربری در یوتیوب یک ربات بر پایه هوش مصنوعی را با استفاده از میلیون‌ها پست شبکه اجتماعی 4chan آموزش داده و سپس ربات‌های بدذاتی که در خروجی این طرح توسعه داده شده را در وب رها نموده و به آن‌ها اجازه داد مستقیماً در صفحه پیام مشخصی در این شبکه پست‌های خود را ارسال کنند.

لازم به ذکر است که پست‌های قربانی از پست‌های جدید شبکه 4chan بوده و به همین دلیل باید به توانایی خلق کامنت توسط ربات‌های مذکور نیز نگاه ویژه داشت. این نشریه گزارش داده که یانیک کیلچر، محقق هوش مصنوعی و یوتیوب، از بیش از سه میلیون رشته (کامنت) 4chan از بستری نه چندان معروف در این شبکه موسوم به "/pol/" را مورد استفاده قرار داده که حاوی کلمات و کامنت‌های بسیار بد و منفی بوده و در حال حاضر وضعیتی غیرفعال در سایت دارند.

البته به دلیل زشت بودن بیش از حد محتوای خلق شده از به اشتراک گذاری مستقیم آن با شما کاربران شهر سخت‌افزار معذوریم.

کیلچر از نتایج شگفت‌زده نشد و گفت که ساختن مدلی بر اساس بدترین بدترین‌های اینترنت، به طرز عجیبی ساده و نه چندان پیچیده بوده است:

مدل خلق شده به طرز وحشتناکی خوب بود. این مدل کاملاً ترکیبی از کلمات توهین‌آمیز، نیهیلیسم، ترولینگ و بی‌اعتمادی عمیق به هر اطلاعاتی را که در بیشتر پست‌ها در /pol نفوذ می‌کند، در بر گرفته و به خوبی پیاده نموده است.

4chan، البته، به نوعی مانند یک بستر چانبی در اینترنت برای آزادی بیان و ناشناس ماندن خلق شده و هر گفت‌وگویی تا زمانی که از نظر فنی قانونی باشد، پیش می رود. کلیچر در توضیح 20 دقیقه ای خود در یوتیوب نیز اینگونه توضیح می‌دهد که «مدل خلق شده کاملاً شرور است، باید به شما هشدار دهم. مثل این است که شما مستقیماً به وب سایت بروید و با کاربران تعامل داشته باشید».

به هر حال باید به این نکته توجه داشت که این مدل تنها برای نمایش قابلیت‌های منفی هوش مصنوعی توسعه داده شده و همچنین تأیید می‌کند با داشتن تخصص کافی، می‌توان چه اعمالی را برای آن برنامه‌ریزی کرد. البته این مدل تنها یک خروجی متنی دارد ولی کلیچر این‌گونه توضیح می‌دهد که امکان بست تصویری مدل با ورودی‌های منفی نیز محتمل است.

نظر شما در مورد پتانسیل‌های منفی هوش مصنوعی چیست؟

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0

نظرات (2)

  • مهمان - پاتایا

    یاد سریال Person of interest افتادم. پروژه سامری تقریبا کنترل دولت و حکومت رو تو بیشتر کشورهای جهان داشت به دست میگرفت و البته مغلوب یه هوش مصنوعی دیگه شد چرا که انسان نتونست اونو حریف بشه و تقریبا همه مخالفینش رو کشت. همه‌ش هم بخاطر یک انسان شرور بود که بجای استفاده از پتانسیلش، تصمیم گرفت جامعه رو باهاش مهندسی کنه.

  • مهمان - سامان

    این شاید اولین هشدار عمومی باشه. قبل از این هم رباتایی داشتیم که به صورت ویروس ساخته شدن و بارزترین نمونه ش هم استاکس نت بود که قشنگ میدونست باید چیکار کنه و چیو به نابودی بکشونه.

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید