افراد زیادی سعی کردهاند به بشر در مورد مشکلات ناشی از استفاده پیش از حد از هوش مصنوعی و خیزش احتمالی رباتها در آینده هشدار دهند. حال یک الگوریتم هوش مصنوعی نیز به این افراد اضافه شده و محققان را از خطرات احتمالی AI آگاه کرده است.
متن بالا شبیه مقدمه یک رمان علمی تخیلی کلیشهای به نظر میرسد، اما در اتاق کنفرانسی در دانشگاه آکسفورد و در زمان بحث تعدادی از استادان این دانشگاه در مورد جایگاه اخلاق در هوش مصنوعی به ثبت رسیده است. این کنفرانس درباره AI، یک نماینده از این گروه نیز داشت. یک الگوریتم هوش مصنوعی که طی سالهای 2016 تا 2019 توسط مقالات، خبرها و میلیونها نوشته کوتاه و بلند به زبان انگلیسی در پلتفرمهایی همچون ردیت و ویکیپدیا تمرین داده شده است.
یکی از محققان آکسفورد در کنفرانس مورد اشاره گفت که هوش مصنوعی هیچگاه اخلاقی نخواهد بود و AI حاضر در این جلسه نیز با ضمن موافقت با نظر وی، به امکان استفاده خوب و بد از این فناوری مانند هر چیز دیگری اشاره کرد.
این حرف به تنهایی عجیب به نظر نمیرسد، اما هوش مصنوعی ما در ادامه تنها راه جلوگیری از سوءاستفاده تسلیحاتی بشر از هوش مصنوعی را حذف این ابزار به طور کلی دانست و از آن به عنوان تنها دفاع انسانها در مقابل AI یاد کرد.
با این حال شاید نیاز نیست این هشدار از جهان سیلیکونی را چندان جدی بگیریم، زیرا به نظر میرسد که رباتها هنوز برای سلطه بر جهان ما آماده نبوده و طبق اعلام AI حاضر در جلسه دانشگاه آکسفورد، هرچند هوش مصنوعی در آیندهای نزدیک قادر به تولید چیزهایی خواهد بود که حتی بهترین انسانها نیز از آن عاجزند، میتواند بیشتر از بدی، خوبی تولید کند و اخلاقی نیز باشد.
در همین رابطه بخوانید:
نظر خود را اضافه کنید.
برای ارسال نظر وارد شوید
ارسال نظر بدون عضویت در سایت