محققان مایکروسافت از یک مدل زبانی مبتنی بر هوش مصنوعی جدید به نام Phi-1 رونمایی کردهاند که با تمرکز بر کیفیت دادهها و با استفاده از حجم بسیار کمی اطلاعات آموزش دیده است. به گفته محققان، استفاده از اطلاعات با کیفیت و سطح بالا باعث شده که Phi-1 تنها با 1.3 میلیارد پارامتر بتواند GPT-3.5 با بیش از 100 میلیارد پارامتر را شکست دهد.
پس از موفقیت OpenAI، مایکروسافت به شکل خاصی بر روی صنعت هوش مصنوعی متمرکز شد و با یک رویکرد متفاوت به تولید مدلهای هوش مصنوعی کوچکتر روی آورد. این غول فناوری، اخیراً دست به کار شده مدلهای کوچکی را توسعه داده که برخلاف سایر سیستمهای هوش مصنوعی بزرگ، از پارامترهای کمتری برای آموزش بهرهمند شدهاند.
البته این مدلهای کوچک و جدید مایکروسافت یک ویژگی منحصر به فرد دارند؛ به جای افزایش حجم دادهها و آموزش براساس میلیاردها پارامتر، مدلهای زبانی مایکروسافت با تمرکز بر کیفیت دادهها و در مدت زمان خیلی کم آموزش دیده و توانستهاند عملکردی نزدیک به بزرگترین چتباتهای هوش مصنوعی به ثبت برسانند.
برهمین اساس، مایکروسافت در یک پیشرفت شگفت انگیز از تازهترین مدل زبانی هوش مصنوعی خود به نام Phi-1 رونمایی کرده که 1.3 میلیارد پارامتر در اختیار دارد. برخلاف تصور مرسوم که مدلهای هوش مصنوعی بزرگتر عملکرد بهتری از خود به نمایش میگذارند، مایکروسافت رویکرد تمرکز بر کیفیت دادههای آموزشی را برای Phi-1 در پیش گرفته و نتایج خارقالعاده را به ثبت رسانده است.
مدل Phi-1 به راحتی توانسته ChatGPT را شکست دهد
هوش مصنوعی Phi-1 با دقت بسیار بالا و بر اساس دادههایی نزدیک به کتابهای درسی آموزش دیده و به نظر میرسد که به راحتی میتواند هوش مصنوعی GPT-3.5 با بیش از 100 میلیارد پارامتر را مغلوب کند.
مدل هوش مصنوعی Phi-1 مایکروسافت بر اساس معماری Transformer ساخته شده و به دلیل عملکرد چشمگیر توانسته توجهات را به خودش جلب کند. همانطور که گفته شد، تیم آموزشی Phi-1 تمرکز ویژهای بر کیفیت آموزشها داشته و از روند غالب افزایش حجم دادهها در آموزش سیستمهای هوش مصنوعی، فاصله گرفته است.
نکته جالب آن است که در فرایند آموزش Phi-1 از هشت پردازنده گرافیکی Nvidia A100 استفاده شده و این مدل هوش مصنوعی جدید تنها چهار روز آموزش دیده است.
به ادعای محققان مایکروسافت، تمرکز بر روی افزایش کیفیت دادهها آموزشی به جای افزایش تعداد پارامترها باعث شده تا نتایج کسب شده توسط این مدل زبانی کوچک خارقالعاده باشد.

در آزمایشهایی که جهت مقایسه Phi-1 با هوش مصنوعی بزرگ GPT-3.5 انجام شد، این مدل زبانی کوچک به امتیاز دقت 50.6 درصد دست یافت. این در حالی است که عملکرد GPT-3.5 حدود 47 درصد به ثبت رسیده است.
مایکروسافت قصد دارد بهزودی Phi-1 را به صورت منبع باز در پلتفرم HuggingFace منتشر کرده و قابلیت دسترسی و همچنین مشارکت این مدل زبانی را افزایش دهد.
در همین رابطه بخوانید:
- این هوش مصنوعی جدید گوگل بدون آموزش میتواند هر کاری انجام دهد [تماشا کنید]
- نیمه تاریک هوش مصنوعی؛ حتی متا هم نسبت به عواقب دستاورد خود نگران است
شایان ذکر است که Phi-1 اولین مدل زبانی کوچک مایکروسافت محسوب نمیشود. این غول فناوری پیش از این نیز مدل دیگری به نام Orca را معرفی کرد، مدلی با 13 میلیارد پارامتر که بر روی دادههای ترکیبی و با استفاده از GPT-4 آموزش داده شده بود. حتی Orca نیز ثابت کرده که از ChatGPT بهتر عمل میکند.
نظر خود را اضافه کنید.
برای ارسال نظر وارد شوید
ارسال نظر بدون عضویت در سایت