این روزها بحث استفاده از هوش مصنوعی در توسعه زمینههای مختلف پردازشی به قدری داغ شده که حتی شرکتهای سختافزاری نیز موتورهای پردازشی خاصی ویژه آنها طراحی کرده و در داخل پردازندهها و چیپستهای خود جای میدهند. اما گزارشات جدید حکایت از اتفاقی دارند که باعث ترس و نگرانی بسیاری از افراد خواهد شد. در ادامه با ما همراه باشید.
اگر سهگانه ماتریکس را که در اواخر قرن گذشته و اوایل قرن بیست و یکم از پرطرفدارترین فیلمهای علمی و تخیلی بودند را دیده باشید حتماً میدانید که در دنیای آینده این فیلمها هوش مصنوعی به قدری قدرتمند شده بود که توانست زندگی انسانها را به حاشیه و در اعماق کره زمین و با ترس نابود شدن توسط ماشینها، به صورت زندگی بدوی درآورد. پیش خودتان شاید بگویید که این فیلمها فقط آثار هنری عملی و تخیلی هستند ولی شاید روزی برسد که به هوش مصنوعی به همان قدرت رسیده و بتواند کاری کند که ما مجبور به فرمانبری شویم!
هوش مصنوعی بدون شک یکی از زمینههای بسیار مهم دنیای آینده ما خواهد بود. در این زمینه تواناییهایی که با استفاده از الگوریتمهای هوش مصنوعی در اختیار نرمافزارهای توسعه داده شده بر مبنای آنها قابل دسترسی است، میتواند نه تنها مفید نبوده، بلکه برای خلق مشکلاتی که بعد ها گریبانگیر خود ما میشوند به کار روند.
مثالی بسیار جدید و جالب از این دست میتواند سرویس جدید «تولید اخبار جعلی» استارتآپی غیر انتفاعی به نام OpenAI در این زمینه باشد. این شرکت که توسط ایلان ماسک بنا نهاده و پشتیبانی میشود موفق به طراحی یک سیستم بر پایه هوش مصنوعی شده که میتواند کارهای عجیب و البته ترسناکی بکند. یکی از این کارها تولید اخبار جعلی است!
در همین زمینه مسئولین این شرکت اعلام کردهاند که به دلیل اینکه ممکن است محصول رونمایی شده آنها باعث نگرانی و ترس در سطوح مختلف جامعه شود، فعلاً بهتر است روند فعالیت و محصولات تولید شده آن را عمومی نکرد. در این زمینه یکی از مدیران شرکت در پستی در وبلاگ OpenAI میگوید:
مدل ما که به اختصار GPT-2 نامیده میشود به صورت سادهای آموزش داده شده تا بتواند در یک جمله، از میان 40 گیگابایت پایه داده متنی که در اینترنت پیش روی آن قرار میگیرد، کلمه بعدی را پیشبینی کند. اما به دلیل نگرانیهای که از سوءاستفاده از این فناوری داریم فعلاً آن را به صورت عمومی عرضه نمیکنیم. به عنوان یک تجربه در آزمون میزان عملکرد صحیح سیستم، ما یک مدل بسیار سادهتر از آن را به صورت یک مقاله در مجلات علمی به ثبت رساندیم که میتواند به کمک محققان بیاید.
به صورت پایه در مورد عملکرد این سیستم باید بگوییم که GPT-2 به نحوی توسعه داده شده که بتواند از میان 8 میلیون صفحه وب، کلمات را برای تشکیل جملات خود به نحوی انتخاب کند که در آنها چند اصل رعایت شده باشد. این متنون که از آنها به عنوان «متون شرطی» یاد میشود در واقع خروجی سیستمی خواهند بود که دائماً میتواند با کسب اطلاعات از صفحات وب جدید، متن قبلی را اصلاح کند تا به نزدیکترین تجربه انسانی برسیم.
اما همانطور که گفتیم دلیل خطرناک بودن این ابزار این است که میتوان در یکی از کاربردها از آن برای تولید اخبار جعلی که میتوانند بسیار به واقعیت نزدیک باشند در مقیاس انبوه استفاده کرد.
اگر با بحث شبکههای عصبی و هوش مصنوعی کمی آشنایی داشته باشید حتماً میدانید که در سیستمهای آموزشبین، هر چه میزان دورههایی که سیستم برای آموزش خود طی میکند بیشتر شود، میزان خروجی به نتایج صحیح نزدیکتر خواهد بود. این سیستم جدید نیز از این قاعده پیروی میکند و با معرفی وبسایتهای خبری به عنوان منابع دادههای ورودی به آن میتوان ابزاری قدرتمند برای تولید اخباری جعلی ایجاد نمود. البته اگر بخواهید با مثالهایی که نشان دهنده تواناییهای این سیستم است بیشتر آشنا شوید میتوانید به وبلاگ این شرکت مراجعه کنید تا مثالهایی از عملکرد ان را ببینید.
به هر حال هوش مصنوعی نشان داده که میتواند تا چه حد مفید و در عین حال تا چه حد خطرناک باشد و این ما هستیم که مشخص میکنیم از کدام ویژگی آن استفاده کنیم.
نظر خود را اضافه کنید.
برای ارسال نظر وارد شوید
ارسال نظر بدون عضویت در سایت