فیس‌بوک به تازگی اعتراف کرده که به علت کمبود مثال‌ها و داده‌ها برای آموزش AI و افزایش دقت آن، هوش مصنوعی آن‌ها توانایی کنترل محتوای زنده را ندارد. به زبان ساده، هوش مصنوعی فیس‌‌بوک به اندازه کافی قدرتمند نیست تا بتواند محتوای افراطی که به صورت زنده پخش می‌شود را تشخیص دهد و اقدام به قطع یا حذف آن کند.

بدون شک حادثه تروریستی اخیر که جان 49 نفر را گرفت، بخشی فراموش نشدنی از تاریخ خواهد شد. این حادثه به حدی تلخ بود که نخست وزیر نیوزلند با عنوان غم‌انگیز‌ترین روز این کشور از آن یاد کرد. در همین حین به لطف شبکه‌های اجتماعی، قاتل قادر بود تا عملیات تروریستی خود را به صورت زنده پخش کند.

پیش از این فیس‌بوک اعلام کرده بود تعداد بینندگان ویدیو زنده منتشر شده در ابتدا تنها 200 نفر و در زمان پایان ویدئو چیزی در حدود 4000 نفر بوده‌ است. به گفته فیس‌بوک هیچ‌کدام از افراد تماشاکننده اقدام به ریپورت نکرده‌اند؛ به همین دلیل فیس‌بوک قادر به انجام اقدامی سریع نبوده است.

بیشتر بخوانید: فیس‌بوک: 1.5 میلیون ویدیو از حمله تروریستی نیوزیلند را در 24 ساعت اول انتشار حذف کردیم

فیس‌بوک در دفاع از خود اعلام کرده که در 24 ساعت نخست بیش از 1.5 میلیون ویدئو را حذف کرده است. اما این نمی‌تواند توجیه چندان مناسبی باشد و فیس‌بوک باید هرچه زودتر به فکر راه حلی اساسی برای چنین مسائلی باشد. نیازی به گفتن نیست که فیس‌بوک به خاطر همین ماجرا تا مدت‌ها تحت فشار شدید منتقدین باقی خواهد ماند.

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0
نظر شما پس از تایید مدیر منتشر خواهد شد.
  • هیچ نظری یافت نشد

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید