مایکروسافت که در سال‌های اخیر به‌ویژه با معرفی کامپیوتر‌های شخصی Copilot+ تلاش زیادی برای گسترش سرویس‌های هوش مصنوعی خود داشت، اکنون در اسناد رسمی‌اش تأکید کرده که نباید به دستیار Copilot برای استفاده‌های جدی تکیه کرد!

بر اساس «شرایط استفاده Microsoft Copilot» که در اکتبر سال گذشته بروزرسانی شده، این مدل زبانی بزرگ صرفاً برای مقاصد سرگرمی طراحی شده و استفاده از آن برای دریافت توصیه‌های مهم مناسب نیست. این توضیح اگرچه ممکن است بخشی از یک متن سلب مسئولیت باشد، اما تناقض آشکاری با رویکرد تهاجمی شرکت برای ادغام Copilot در ویندوز ۱۱ و تشویق کسب‌وکارها به استفاده گسترده از آن دارد.

در سند رسمی آمده است:

Copilot فقط برای اهداف سرگرمی است. ممکن است اشتباه کند و همیشه طبق انتظار عمل نکند. برای توصیه‌های مهم روی Copilot تکیه نکنید. استفاده از Copilot با مسئولیت خودتان است.

این هشدار تنها محدود به مایکروسافت نیست. سایر مدل‌های زبانی نیز بیانیه‌های مشابهی دارند. به‌طور مثال، xAI هشدار می‌دهد که خروجی هوش مصنوعی به‌دلیل ماهیت احتمالاتی آن می‌تواند شامل خطا، اطلاعات نادرست، محتوای توهین‌آمیز یا نامناسب باشد.

هرچند این هشدارها برای کسانی که با سازوکار مدل‌های زبانی آشنا هستند بدیهی به نظر می‌رسد، اما واقعیت این است که بسیاری از کاربران و حتی متخصصان، خروجی هوش مصنوعی را بدون تردید می‌پذیرند. نمونه‌هایی در خدمات آمازون مشاهده شده که نشان می‌دهد برخی قطعی‌های AWS ناشی از واگذاری حل یک مشکل به یک ربات کدنویس بوده که بدون نظارت مهندسان عمل کرده است.

همچنین چندین حادثه مهم در وب‌سایت آمازون به «تغییرات ناشی از هوش مصنوعی مولد» نسبت داده شده و نیاز به دخالت فوری مهندسان ارشد داشته است.

Microsoft-Copilot-2.jpg

با وجود آنکه هوش مصنوعی مولد می‌تواند کارایی را افزایش دهد، همچنان ابزاری فاقد مسئولیت‌پذیری قانونی است و ممکن است خطاهای جدی ایجاد کند. به همین دلیل، کاربران باید همواره نتایج آن را با شک، بررسی و صحت خروجی را راستی‌آزمایی کنند.

حتی با وجود آگاهی از محدودیت‌ها، انسان‌ها مستعد «سوگیری اتوماسیون» هستند؛ یعنی تمایل به اعتماد بیش از حد به نتایج ماشین‌ها و نادیده گرفتن داده‌هایی که ممکن است خلاف آن باشند. هوش مصنوعی با توانایی تولید پاسخ‌های ظاهراً معتبر، می‌تواند این مشکل را تشدید کند.

به‌طور کلی، شرکت‌ها معمولاً چنین هشدارهایی را برای محافظت حقوقی از خود منتشر می‌کنند. اما همزمان که شرکت‌های فعال در حوزه هوش مصنوعی این فناوری را به‌عنوان ابزاری انقلابی برای افزایش بهره‌وری تبلیغ می‌کنند، ممکن است ریسک‌های واقعی استفاده از آن را کم‌اهمیت جلوه دهند تا مشتریان بیشتری جذب کرده و هزینه‌های سنگین سرمایه‌گذاری‌های خود را جبران کنند.

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0
نظر شما پس از تایید مدیر منتشر خواهد شد.

نظرات (4)

  • مهمان - کاشف اسرار

    فقط من نیستم، اپ ها هم ایرانی نیستن، قوانین هم بسیار سخت و پیچیده هست سو کنن برای شرکت ها گرون تموم میشه

  • مهمان - کاشف اسرار

    من ۲۰ ساله تو EULA اپ هام این متنو میذارم، تقریبا همه ISV ها میذارن، حالا اگه اسمش زیر حرف زدنه که ممنون از کشف جدیدتون :D

  • مهمان - مبتدی

    در پاسخ به: مهمان - کاشف اسرار

    اینکه تو همه EULA های اپ هات این متن رو میذاری یعنی خودت به کارت خودت شک داری که درست کار میکنه یا نه :D

  • مهمان - کاشف اسرار

    در پاسخ به: مهمان - مبتدی

    یادم نیست این جمله از کی بود، ولی کلیتش اینه: مشکل دنیا اینه که دانایان سرشار از شک و تردید و نادان ها سرشار از اطمینان هستن

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید