در حالی که دنیا تشنه GPUهای انویدیا برای هوش مصنوعی است، گوگل می‌گوید هنوز هم CPUهای معمولی قلب استنتاج‌های هوش مصنوعی هستند. با در نظر گرفتن این واقعیت که گوگل یکی از بزرگ‌ترین کمپانی‌های ارائه‌دهنده خدمات تحت کلاد است، این اظهارات بسیار جالب به نظر می‌رسد.

همانطور که می‌دانید، پردازنده‌های گرافیکی (GPU) دارای ده‌ها هزار هسته پردازشی هستند که باعث می‌شود نسبت به پردازنده‌های مرکزی با نهایتاً چند صد هسته پردازشی، قدرت پردازشی به مراتب بیشتری در پردازش موازی داشته باشند. همین ویژگی باعث شده در بسیاری از حوزه‌ها از GPUها به عنوان شتاب‌دهنده استفاده شود که یکی از مهم‌ترین و برجسته‌ترین آنها هوش مصنوعی (AI) است.

نظر گوگل درباره جایگاه CPU در هوش مصنوعی

اخیراً مدیر محصول بخش محاسبات گوگل در جریان یک سخنرانی به موضوع جالبی اشاره کرده و به تشریح نقش CPUها در هوش مصنوعی پرداخته است. چرخه هوش مصنوعی را می‌توان به دو بخش یادگیری و استنتاج تقسیم کرد. در مرحله یادگیری به منابع پردازشی عظیم و حجم سرسام‌آوری حافظه رم نیاز است تا به مدل هوش مصنوعی آموزش داده شود. مدل‌هایی چون GPT-4 و Gemini دارای میلیاردها پارامتر هستند و آموزش به آنها نیازمند هزاران کارت گرافیک یا شتاب‌دهنده پردازشی است.

هوش مصنوعی و گوگل

در طرف دیگر مرحله استنتاج که همان اجرا و استفاده از مدل تعلیم‌دیده است، به منابع پردازشی کمتری نیاز است؛ هرچند که هنوز بکارگیری شتاب‌دهنده‌گرافیکی به آن کمک می‌کند. با وجود اینکه این مرحله به منابع پردازشی کمتری نیاز دارد، اما به شدت تاخیر و قدرت محاسباتی بر روی سرعت انجام آن تاثیر گذار است و بدون داشتن سرعت کافی و تاخیر پایین، نمی‌توان با مدل‌های هوش مصنوعی به صورت آنی تعامل کرد.

گوگل می‌گوید به این نتیجه رسیده است که با وجود ایده‌آل بودن GPUها برای مرحله آموزش (یادگیری)، مدل‌های هوش مصنوعی عمدتاً برای اجرای بهینه بر روی CPUها بهینه‌سازی شده‌اند و در مرحله استنتاج بیشتر از GPU، به CPU متکی هستند. این واقعیت باعث شده برخی مشتریان گوگل CPU را به عنوان پردازنده اصلی برای اجرای مدل‌های هوش مصنوعی خود انتخاب کنند.

پردازنده اینتل در هوش مصنوعی

با وجود ادعاهای یاد شده، یکی از دلایل ترجیح دادن CPUها می‌تواند هزینه پایین‌تر باشد. می‌دانیم CPUهای معمولی به وفور و با قیمت بسیار کمتر نسبت به شتاب‌دهنده‌های گرافیکی رده بالا انویدیا در دسترس هستند. همچنین توسعه مدل‌های هوش مصنوعی برای CPU آسان‌تر از GPU است و در مدل‌های کوچک‌تر می‌تواند مناسب‌تر باشد. در طرف دیگر بهره‌جستن از توانایی بالای GPUها در پردازش موازی پیچیدگی بالایی هم دارد.

یکی دیگر از مزایای اجرای مدل‌های هوش مصنوعی بر روی CPU، تاخیر کمتر است که در کاربردهایی چون چت‌بات، بسیار حائز اهمیت است.

هم‌زمان ظهور پردازنده‌های سریع‌تر با تعداد بیشتری هسته پردازشی و پشتیبانی از دستورالعمل‌های جدید چون AVX-512 و AMX، باعث شده بهینه‌سازی برای اجرای مدل‌های هوش مصنوعی بر روی CPU به سرعت در حال افزایش باشد. پیش‌تر اینتل گفته بود مدل‌های هوش مصنوعی با حداکثر 20 میلیارد پارامتر به خوبی بر روی CPUها قابل اجرا هستند، اما با عبور از این حد، به شتاب‌دهنده‌های تخصصی نیاز خواهد بود.

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0
نظر شما پس از تایید مدیر منتشر خواهد شد.
  • هیچ نظری یافت نشد

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید