گزارش‌ها نشان می‌دهد کوالکام و AMD قصد دارند همانند انویدیا، از حافظه SOCAMM2 در محصولات خود برای هوش مصنوعی خود استفاده کنند. هدف از این کار افزایش ظرفیت و پهنای باند حافظه برای سیستم‌های AI و تامین حافظه سریع‌تر برای شتاب‌دهنده‌های هوش مصنوعی است.

پس از معرفی پردازنده مرکزی Vera انویدیا که از حافظه LPDDR5X در قالب ماژول‌های SOCAMM پشتیبانی می‌کند و قادر به رسیدن به پهنای باند حافظه ۱.۲ ترابایت در ثانیه است، حالا کوالکام و AMD هم به‌دنبال تکرار همین فرمول هستند.

SOCAMM2 چه چیزی را تغییر می‌دهد؟

SOCAMM2 به‌عنوان یک حافظه سریع در کنار HBM عمل می‌کند و اجازه می‌دهد مدل‌های بزرگ AI به‌طور کامل در حافظه باقی بمانند، بدون آنکه سیستم مجبور به رجوع مداوم به SSD شود.

در طراحی انویدیا ماژول‌های SOCAMM به‌صورت حلقه‌ای اطراف CPU قرار می‌گیرند و انتظار می‌رود کوالکام و AMD هم همین مسیر را دنبال کنند. در سمت AMD، شتاب‌دهنده‌های Instinct MI در کنار پردازنده‌های EPYC گزینه‌ منطقی برای استفاده از این ترکیب به‌نظر می‌رسند، هرچند احتمال توسعه‌ یک پلتفرم کاملاً جدید هم مطرح است.

رم SOCAMM  برای هوش مصنوعی

کوالکام هم در این زمینه بی‌تجربه نیست. این شرکت هم‌اکنون شتاب‌دهنده‌های AI200 و AI250 را در سبد خود دارد که تا ۷۶۸ گیگابایت حافظه LPDDR5 روی هر کارت ارائه می‌دهند. از همین رو اضافه شدن SOCAMM2 می‌تواند این محصولات را از وابستگی به حافظه‌های لحیم‌شده رها کند.

در چنین مدلی سازندگان می‌توانند تنها با اضافه یا حذف ماژول‌های SOCAMM، نسخه‌های مختلفی از یک سیستم AI ارائه دهند. بنابراین اگر این برنامه‌ها عملی شوند، SOCAMM2 ممکن است به یکی از اجزای کلیدی نسل بعدی زیرساخت‌های هوش مصنوعی تبدیل شود.

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0
نظر شما پس از تایید مدیر منتشر خواهد شد.
  • هیچ نظری یافت نشد

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید