شرکتهای بزرگ فناوری مانند گوگل و مایکروسافت سرمایهگذاری عظیمی روی هوش مصنوعی انجام دادهاند و قصد دارند در ابتدای راه با مدلهای زبانی بزرگ، کاربران را به سمت سرویسهای AI خود جذب کنند. با این حال بر اساس یک گزارش، ساخت این مدلهای زبانی قسمت تاریک غیرمنتظرهای دارد. ادامه خبر را در شهر سخت افزار بخوانید.
از همان ابتدای به سر زبان افتادن مدل زبانی ChatGPT کمپانی OpenAI، شرکتهایی مانند گوگل و مایکروسافت نیز از تلاشهای خود در این حوزه رونمایی کردند. هوش مصنوعی میتواند در بسیاری از کارها به ما کمک نموده و زمان انجام فعالیتهای زیادی را کاهش دهد.
در همین رابطه بخوانید:
- معایب و خطرات هوش مصنوعی برای بشریت
- هشدار هوش مصنوعی به محققان دانشگاه آکسفورد؛ AI نمیتواند اخلاقی باشد؟
بسیاری از کارشناسان و افراد عادی اما با الهام از فیلمهای علمی و تخیلی، هوش مصنوعی را پدیدهای خطرناک میدانند که میتواند به پایان بشر بینجامد. جالب است که این ادعاها گاهی توسط رهبران شرکتهای پیشگام هوش مصنوعی نیز مطرح میشود تا احتمالاً بتوانند تب و تاب پیرامون محصولات جدید خود را افزایش دهند.
خطر واقعی هوش مصنوعی
به جز نگرانیهایی علمی و تخیلی در مورد پایان جهان به دست هوش مصنوعی، فناوری جدید خطرات بسیار جدیتر و واقعیتر دارد که افشا شدن آنها چندان برای غولهای تکنولوژی خوشایند نیست. بر اساس یک گزارش از نشریه TIME، شرکتهایی مانند OpenAI برای حذف موارد نامناسب از مدل زبانی خود، از کارگران کنیایی سوءاستفاده کردهاند.
OpenAI برای تشخیص و حذف مواردی مانند نژادپرستی، خشونت و محتوای جنسی، از کارگران کنیایی با حقوق کمتر از 2 دلار در ساعت استفاده کرده است. با این وجود OpenAI ادعا کرده برای غربال کردن دادهها قراردادی 200 هزار دلاری امضا کرده و قرار بوده حقوقی 12.5 دلار در ساعت به کارگران پرداخت شود.
این شرکت گفته به تازگی از شرایط بد کاری این افراد مطلع شده است. به گفته کارشناسان، سپردن کارهای این چنینی به کارگرهایی در کشورهای دوردست و پنهان کردن آنها، تلاشی برای گمراه کردن کاربران به شمار میآید.
شرکتهای فناوری دوست دارند نقش نیروی کاری عظیم انسانی در درست کردن مدلهای هوش مصنوعی را انکار کنند و از این رو، توهم بهینه بودن آنها را به افکار عمومی تزریق نمایند. باید به این نکته اشاره کرد که علاوه بر حقوق پایین، برخی از کارگران کنیایی به مشکلات روحی و روانی ناشی از مطالعه محتوای آزاردهنده مبتلا شدهاند.
OpenAI اکنون قراردادهای مربوط به استخدام این کارگران را لغو کرده و گفته در آینده، کنترل دادههای حساس را به افرادی که برای این کار تمرین داده شدهاند، خواهد سپرد.
نظر خود را اضافه کنید.
برای ارسال نظر وارد شوید
ارسال نظر بدون عضویت در سایت