ظهور هوش مصنوعی نیاز ما به افزایش قدرت محاسباتی را دو چندان برجسته کرده است. در این راستا نیز شاهد معرفی پردازنده‌های جدیدی هستیم که صرفاً با هدف استفاده در صنعت AI رونمایی می‌شوند. با این حال، شرکت Cerebras Systems از یک تراشه 900 هزار هسته‌ای به اندازه یک ویفر رونمایی کرده که می‌تواند به تنهایی معادل 62 پردازنده گرافیکی H100 انویدیا عمل کند.

شرکت Cerebras Systems از یک تراشه پیشرفته غول پیکر به نام Wafer Scale Engine 3 (یا WSE-3) رونمایی کرده که عملکردی دو برابری نسبت مدل قبلی خود یعنی WSE-2 در زمینه هوش مصنوعی دارد.

پردازنده غول پیکر Cerebras Systems به نام Wafer Scale Engine 3
به ابعاد این تراشه غول‌پیکر دقت کنید!

تازه‌ترین تراشه معرفی شده توسط این شرکت 4 میلیون ترانزیستور تولید شده با فرایند ساخت کلاس 5 نانومتری TSMC را به همراه دارد. این تراشه 900 هزار هسته‌ای هوش مصنوعی به 44 گیگابایت حافظه SRAM مجهز شده و می‌تواند حداکثر عملکرد 125 FP16 PetaFLOPS را در اختیار ما قرار دهد.

این رقم به معنای قدرت محاسباتی 62 برابری این پردازنده غول‌پیکر نسبت به پردازنده گرافیکی H100 انویدیا است که به عنوان قدرتمندترین پردازنده هوش مصنوعی در دسترسی قرار دارد.

پردازنده غول پیکر Cerebras Systems به نام Wafer Scale Engine 3
اندازه WSE-3 در مقابل پردازنده H100 انویدیا

آموزش قدرتمندترین مدل‌های هوش مصنوعی با WSE-2

به گفته سخنگوی شرکت Cerebras Systems، از این تراشه غول پیکر برای آموزش برخی از بزرگ‌ترین و پیشرفته‌ترین مدل‌های هوش مصنوعی صنعت AI استفاده خواهد شد.

علاوه بر این، گفته شده که WSE-3 قرار است در ابر کامپیوتر CS-3 مورد استفاده قرار گرفته و از آن برای آموزش مدل‌های هوش مصنوعی با حداکثر 24 تریلیون پارامتر استفاده شود. این رقم یک جهش قابل توجه نسبت به ابر رایانه‌های مجهز به WSE-2 و دیگر پردازنده‌های AI مدرن محسوب می‌شود.

پردازنده غول پیکر Cerebras Systems به نام Wafer Scale Engine 3

به گزارش Tomshardware، نکته جالب آن است که این سوپر کامپیوتر می‌تواند از 1.5 ترابایت، 12 ترابایت یا 1.2 پتابایت حافظه خارجی پشتیبانی کند که به آن اجازه می‌دهد مدل‌های هوش مصنوعی عظیم را در یک فضای منطقی واحد و بدون پارتیشن‌بندی یا تغییر فاکتور ذخیره کند. این ویژگی فرایند آموزش AI را ساده‌تر کرده و کارایی توسعه‌دهندگان آن را بهبود می‌بخشد.

پردازنده غول پیکر Cerebras Systems به نام Wafer Scale Engine 3

از نظر مقیاس‌پذیری، ابر کامپیوتر CS-3 را می‌توان در خوشه‌هایی (کلاستر) با حداکثر 2048 سیستم پیکربندی کرد. چنین مقیاس‌پذیری به ابر کامپیوتر مورد بحث اجازه می‌دهد تا 70 میلیارد مدل پارامتر را تنها در یک روز و چهار پیکربندی سیستمی تنظیم کند. به عبارت دیگر، این سیستم می‌تواند مدل زبانی Llama 70B (که در زمینه برنامه‌نویسی تخصص دارد) را از ابتدا به صورت کامل آموزش دهد.

در همین رابطه بخوانید:

- آزمایش دیوانه‌وار کارت 42 هزار دلاری H100 انویدیا در گیمینگ
بنچمارک پردازنده گرافیکی H100 انویدیا؛ تا 4.5 برابر سریع‌تر از A100

جدیدترین چهارچوب نرم‌افزار شرکت Cerebras نیز پشتیبانی محلی PyTorch 2.0 و پراکندگی پویا و بدون ساختار را به همراه دارد که نتیجه آن آموزش سریع‌تر مدل‌های هوش مصنوعی (تا هشت برابر سریع‌تر از روش‌های سنتی) خواهد بود.

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0
نظر شما پس از تایید مدیر منتشر خواهد شد.

نظرات (1)

  • مهمان - حسن

    تو دیگه چی هستی؟ خدای سی پی یو ها؟

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید