کامپیوتکس 2023 برای انویدیا با معرفی ابرتراشه GH200 و امکان گفتگو با NPCها با استفاده از هوش مصنوعی دنبال شد. تیم سبز که خود را رهبر سختافزاری AI میبینید، در نطق خود دلیل برتری محصولات انویدیا برای توسعه مدلهای زبانی بزرگ را توضیح داده است. با ادامه مطلب در شهر سخت افزار همراه باشید.
اولین رویداد زنده انویدیا بعد از 4 سال، امروز در تایوان رقم خورد جنسن هوآنگ به روی صحنه آمد و هوش مصنوعی را در کنار پردازش شتاب یافته، به عنوان آینده فناوری معرفی کرد. به عقیده او که احتمالآً به توجه به محدودیتهای قانون مور به ذهنش رسیده، دیگر نمیتوان در 5 سال به سرعت پردازش 10 برابر رسید و پیشرفتها با هوش مصنوعی مولد به دست خواهد آمد.
در همین رابطه بخوانید:
- ابرتراشه GH200 Grace Hopper انویدیا معرفی شد؛ سوخت جدید ابرابرکامپیوترهای هوش مصنوعی
- انویدیا از سرویس ACE رونمایی کرد؛ استفاده از هوش مصنوعی برای گفتگوی آزاد با کاراکترهای بازی [تماشا کنید]
هوش مصنوعی مولد ارزان با انویدیا
او سپس هزینه استفاده از سرویسها و محصولات انویدیا برای دسترسی به پیشرفتهای این چنینی را برای شرکت کنندگان در نطق خود تخمین زد. برای تمرین دادن یک مدل زبانی بزرگ به سروری 10 میلیون دلاری شامل 960 پردازنده نیاز خواهد بود. مصرف انرژی نیز در این سیستم به 11 گیگاوات ساعت خواهد رسید.
به ادعای انویدیا و به نقل از WCCFTECH، اگر به جای 10 میلیون دلار CPU، همین مقدار روی کلاستر پردازندههای گرافیکی هزینه شود، میتوان 44 مدل زبانی بزرگ و با مصرف تنها 3.2 گیگاوات ساعت ساخت. اگر بخواهیم همان مقدار 11 گیگاوات ساعت انرژی مصرف کنیم، میتوان 150 مدل زبانی بزرگ را با 34 میلیون دلار به وجود آورد.
در انتها به این اشاره شده که برای تولید تنها یک مدل زبانی با استفاده از سروهای GPU، به 400 هزار دلار نیاز خواهید داشت که در مقابل 10 میلیون دلار صرفهجویی بسیار خوبی محسوب میشود. هوآنگ میگوید در مقایسه با سرورهای CPU، میتوان با 4 درصد هزینه و 1.2 درصد مصرف انرژی یک مدل زبانی بزرگ ساخت.
نظر خود را اضافه کنید.
برای ارسال نظر وارد شوید
ارسال نظر بدون عضویت در سایت