محققان مایکروسافت از یک مدل زبانی مبتنی بر هوش مصنوعی جدید به نام Phi-1 رونمایی کرده‌اند که با تمرکز بر کیفیت داده‌ها و با استفاده از حجم بسیار کمی اطلاعات آموزش دیده است. به گفته محققان، استفاده از اطلاعات با کیفیت و سطح بالا باعث شده که Phi-1 تنها با 1.3 میلیارد پارامتر بتواند GPT-3.5 با بیش از 100 میلیارد پارامتر را شکست دهد.

پس از موفقیت OpenAI، مایکروسافت به شکل خاصی بر روی صنعت هوش مصنوعی متمرکز شد و با یک رویکرد متفاوت به تولید مدل‌های هوش مصنوعی کوچک‌تر روی آورد. این غول فناوری، اخیراً دست به کار شده مدل‌های کوچکی را توسعه داده که برخلاف سایر سیستم‌های هوش مصنوعی بزرگ، از پارامترهای کمتری برای آموزش بهره‌مند شده‌اند.

هوش مصنوعی کوچک اما قدرتمند مایکروسافت به نام Phi-1

البته این مدل‌های کوچک و جدید مایکروسافت یک ویژگی منحصر به فرد دارند؛ به جای افزایش حجم داده‌ها و آموزش براساس میلیاردها پارامتر، مدل‌های زبانی مایکروسافت با تمرکز بر کیفیت داده‌ها و در مدت زمان خیلی کم آموزش دیده و توانسته‌اند عملکردی نزدیک به بزرگ‌ترین چت‌بات‌های هوش مصنوعی به ثبت برسانند.

برهمین اساس، مایکروسافت در یک پیشرفت شگفت انگیز از تازه‌ترین مدل زبانی هوش مصنوعی خود به نام Phi-1 رونمایی کرده که 1.3 میلیارد پارامتر در اختیار دارد. برخلاف تصور مرسوم که مدل‌های هوش مصنوعی بزرگ‌تر عملکرد بهتری از خود به نمایش می‌گذارند، مایکروسافت رویکرد تمرکز بر کیفیت داده‌های آموزشی را برای Phi-1 در پیش گرفته و نتایج خارق‌العاده را به ثبت رسانده است.

هوش مصنوعی کوچک اما قدرتمند مایکروسافت به نام Phi-1

مدل Phi-1 به راحتی توانسته ChatGPT را شکست دهد

هوش مصنوعی Phi-1 با دقت بسیار بالا و بر اساس داده‌هایی نزدیک به کتاب‌های درسی آموزش دیده و به نظر می‌رسد که به راحتی می‌تواند هوش مصنوعی GPT-3.5 با بیش از 100 میلیارد پارامتر را مغلوب کند.

مدل هوش مصنوعی Phi-1 مایکروسافت بر اساس معماری Transformer ساخته شده و به دلیل عملکرد چشمگیر توانسته توجهات را به خودش جلب کند. همان‌طور که گفته شد، تیم آموزشی Phi-1 تمرکز ویژه‌ای بر کیفیت آموزش‌ها داشته و از روند غالب افزایش حجم داده‌ها در آموزش سیستم‌های هوش مصنوعی، فاصله گرفته است.

هوش مصنوعی کوچک اما قدرتمند مایکروسافت به نام Phi-1

نکته جالب آن است که در فرایند آموزش Phi-1 از هشت پردازنده گرافیکی Nvidia A100 استفاده شده و این مدل هوش مصنوعی جدید تنها چهار روز آموزش دیده است.

به ادعای محققان مایکروسافت، تمرکز بر روی افزایش کیفیت داده‌ها آموزشی به جای افزایش تعداد پارامترها باعث شده تا نتایج کسب شده توسط این مدل زبانی کوچک خارق‌العاده باشد.

هوش مصنوعی کوچک اما قدرتمند مایکروسافت به نام Phi-1
پردازنده گرافیکی Nvidia A100

در آزمایش‌هایی که جهت مقایسه Phi-1 با هوش مصنوعی بزرگ GPT-3.5 انجام شد، این مدل زبانی کوچک به امتیاز دقت 50.6 درصد دست یافت. این در حالی است که عملکرد GPT-3.5 حدود 47 درصد به ثبت رسیده است.

مایکروسافت قصد دارد به‌زودی Phi-1 را به صورت منبع باز در پلتفرم HuggingFace منتشر کرده و قابلیت دسترسی و همچنین مشارکت این مدل زبانی را افزایش دهد.

در همین رابطه بخوانید:

- این هوش مصنوعی جدید گوگل بدون آموزش می‌تواند هر کاری انجام دهد [تماشا کنید]
نیمه تاریک هوش مصنوعی؛ حتی متا هم نسبت به عواقب دستاورد خود نگران است

شایان ذکر است که Phi-1 اولین مدل زبانی کوچک مایکروسافت محسوب نمی‌شود. این غول فناوری پیش از این نیز مدل دیگری به نام Orca را معرفی کرد، مدلی با 13 میلیارد پارامتر که بر روی داده‌های ترکیبی و با استفاده از GPT-4 آموزش داده شده بود. حتی Orca نیز ثابت کرده که از ChatGPT بهتر عمل می‌کند.

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0
  • هیچ نظری یافت نشد

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید