داستان همکاری وزارت دفاع ایالات متحده با شرکتهای توسعه دهنده امور هوش مصنوعی همچنان ادامه دارد و در جدیدترین آنها، یکی از مدیران تیم تحت سرپرستی OpenAI از سمت خود کنارهگیری کردهاست. کیتلین کالینوسکی، سرپرست تیم رباتیک شرکت طی پستی در حساب ایکس خود اعلام کرده که این اقدام او در واکنش به توافق جنجالی این شرکت با وزارت دفاع آمریکا (پنتاگون) صورت گرفته است.
موضوع استفاده وزارت دفاع آمریکا از هوش مصنوعی طی چند ماه گذشته جنجال گستردهای را در محافل فناوری این کشور به پا کرده است. در ابتدا قرارداد این شرکت با Anthropic به دلایلی که هیچگاه به صورت رسمی اعلام نشده، ملغی شد.
برخی از تحلیلگران علت این تصمیم را مشکلات و ابهامات مرتبط با استفاده بدون رعایت موازین اخلاقی از سوی پنتاگون در جنگافزارها و تاکتیکهای جنگی با دستیار ClaudeAI اعلام کرده بودند.
علت استعفا: اختلاف در اصول اخلاقی!
پس از این قضیه و عقد قرارداد جدید با OpenAI اما نه تنها حواشی مرتفع نشده، بلکه ظاهراً ابعاد گستردهتری را به خود دیده است. در اولین پسلرزههای قرارداد جدید پنتاگون با تیم OpenAI، خانم کیتلین کالینوسکی که مدیر تیم رباتیک شرکت است به دلیل اختلاف نظرهای اخلاقی پیرامون این قرارداد، از سمت خود استعفا داده است.
بنابر گزارش Tech Crunch، کالینوسکی که پیش از این رهبری تیم توسعه عینکهای واقعیت افزوده در شرکت متا را بر عهده داشته، در نوامبر ۲۰۲۴ به OpenAI پیوسته بود. وی در بیانیه استعفای خود، تأکید کرده که این تصمیم «بر اساس اصول اخلاقی» اتخاذ شده و با احترام فراوان به سم آلتمن، مدیرعامل OpenAI، و سایر اعضای تیم، از این سمت فاصله گرفته است.
در توییتی دیگر، کالینوسکی خاطرنشان کرد که مشکل اصلی او، «شتابزدگی در اعلام این توافق» و فقدان تعریف دقیق «محدودیتها و خطوط قرمز» بوده است. او این موضوع را یک «نگرانی در حوزه حکمرانی» خواند و معتقد است که تصمیمات مربوط به این حوزه باید با دقت و بررسی کامل اتخاذ شوند.
سخنگوی OpenAI استعفای کالینوسکی را تأیید کرده و در بیانیهای اعلام کرد:
ما معتقدیم که توافق با پنتاگون، مسیری قابل اتکا برای استفاده مسئولانه از هوش مصنوعی در حوزه امنیت ملی ایجاد میکند. در عین حال، خطوط قرمز خود را به روشنی مشخص کردهایم: ممنوعیت نظارت داخلی بدون مجوز قضایی و منع استفاده از سلاحهای کاملاً خودکار.
همانطور که عنوان شد، این توافق با پنتاگون در پی شکست مذاکرات پنتاگون و شرکت Anthropic (یک شرکت رقیب OpenAI) برای تعیین محدودیتهای مشابه در مورد استفاده از فناوری هوش مصنوعی صورت گرفته است. آنتراپیک در حال حاضر قصد دارد این اقدام پنتاگون (برچسبزنی به عنوان یک خطر در زنجیره تأمین) را در دادگاه به چالش بکشد.
در حالی که OpenAI این توافق را به عنوان «رویکردی گستردهتر و چندلایه» با تکیه بر «حفاظتهای فنی» برای رعایت خطوط قرمز مشابه آنتراپیک توصیف میکند، به نظر میرسد که این موضوع بر وجهه عمومی OpenAI تأثیر منفی گذاشته است. آمارها نشان میدهد که تعداد حذف برنامه ChatGPT به طور قابل توجهی افزایش یافته و در مقابل، برنامه Claude (یکی از رقبا) به صدر جدول اپاستور رسیده است.













نظر خود را اضافه کنید.
برای ارسال نظر وارد شوید
ارسال نظر بدون عضویت در سایت