چه یک کارت گرافیک مجزا (dGPU) داخل کیس کامپیوتر خود داشته باشید، چه از گرافیک مجتمع (iGPU) استفاده کنید یا هر دستگاه دیگری مانند گوشی هوشمند یا حتی کنسول بازی، همه این دستگاهها داخل خود یک واحد ویژه برای پردازش گرافیکی (GPU) دارند. در این مطلب قصد داریم به بررسی تاریخچه پیشرفت پردازنده گرافیکی (جی پی یو)، تراشههای پردازشی گرافیکی و کاربردهای آنها بپردازیم. با ما در این سفر زمان، همراه باشید.
فهرست مطالب این مقاله:
- تاریخچه مختصر پردازش گرافیکی از 1950 تا به امروز
- - بردهای آرکید و آداپتورهای نمایشگر (از 1951 تا 1995)
- - انقلاب سه بعدی (از 1995 تا 2006)
- - ورود پردازنده گرافیکی عمومی یا GPGPU (از 2006 تا 2013)
- - تحول در پردازش گرافیکی ویژه بازی با کنسولها بازی نسل 8 (از 2013 تا 2020)
- - 2014؛ سردرگمی انویدیا و AMD و دعاوی حقوقی برای تیم سبز
- - 2015: تکرار سال قبل یا جهشی به سوی آینده؟
- - 2016 سال طلایی صنعت کارت گرافیک
- - 2017: سال فراز و نشیب برای پردازنده های گرافیکی
- - 2018-2019: نوآوری و رقابتی داغ در دنیای پردازنده های گرافیکی
- - پایان دههای مهم - تراشههای جدید، تهدیدهای جدید، مشکلات بدتر
- - سال 2022 تا به امروز ؛ تغییرات بزرگ در همه ابعاد صنعت GPU
- آینده پردازنده های گرافیکی؛ امیدی برای بهبود هر آنچه هست و خواهد آمد
- روند توسعه پردازشگرهای گرافیکی موبایل
مقدمه
در دنیایی که هر روز بیشتر با دادهها و تصاویر پیچیده درهم تنیده میشود، پردازنده های گرافیکی یاجی پی یو ها به عناصر حیاتی در محاسبات مدرن تبدیل شدهاند. از بازیهای ویدئویی گرفته تا طراحیهای مهندسی پیچیده و یادگیری ماشین، GPUها نقشی کلیدی در پردازش و نمایش دادههای گرافیکی دارند. این مقاله به بررسی تاریخچه کامل پردازنده های گرافیکی، کارتها گرافیک و استفادههای متنوع آنها میپردازد.
GPUها از آن دسته از فناوریهایی هستند که تحولی اساسی در نحوه تعامل ما با دنیای دیجیتال ایجاد کردهاند. از ارائه تصاویر سهبعدی واقعگرایانه در بازیها گرفته تا تسریع الگوریتمهای پیچیده در تحقیقات علمی، GPUها قدرت و سرعت لازم برای پردازش موازی دادههای گرافیکی را فراهم میکنند.
همین تصویری که شما در حال تماشای آن روی نمایشگر کامپیوتر یا گوشی هوشمند خود هستید، حاصل یک عملیات پردازش گرافیکی است که بسته به نوع دستگاهتان، از خروجی یک پردازشگر گرافیکی مستقل یا مجتمع به دست آمده است.
اما اگر در این دسته از عملیات پردازشی عمیق شویم، باید فراموش نکنیم که راه درازی در تاریخ علوم کامپیوتر طی شده تا به اینجا رسیدهایم. از اولین پردازشگرهای مستقل گرافیکی در دهه 1970 گرفته تا به امروز که بیش از 50 سال از استفاده از آن میگذرد، همواره تلاش مهندسان و محققان علوم رایانه این بوده که بتوان کیفیت و دقت یک سیستم پردازشگر گرافیکی را به حدی بالاتر برد که به واقعیت بیشتر نزدیک شویم.
این روزها فناوریهای سختافزاری و نرمافزاری با کمک گرفتن از هوش مصنوعی و تکنیکهای یادگیری ماشین و یادگیری عمیق، تلاش میکنند تا تصاویر را به الگوهای واقعی نزدیکتر کنند. باید اذعان کرد که دامنه رشد نمایش گرافیکی نیز با تصاعدی شدن، بیشتر از هر زمانی به سمت اهداف خود حرکت میکند.
در همین رابطه بخوانید:
- راهنمای خرید کارت گرافیک کامپیوتر
در ادامه این مطلب تلاش میکنیم تا نگاهی مختصر به تاریخچه پردازشگرهای گرافیکی و کارتهای گرافیک داشته باشیم و با هم ببینیم که این صنعت دوستداشتنی از علوم کامپیوتر چطور تا به اینجا پیشرفت کرده و این روزها به یکی از حیاتیترین حوزههای فناوری روز تبدیل شده است.
تاریخچه مختصر پردازش گرافیکی از 1950 تا به امروز
بردهای آرکید و آداپتورهای نمایشگر (از 1951 تا 1995)
از اوایل دهه ۵۰ میلادی، تحولاتی در زمینه سختافزارهای ویژه نمایش محتوای گرافیکی آغاز شد. در سال ۱۹۵۱ و در دوران شروع جنگ سرد، پروژه شبیهساز پرواز موسوم به Whirlwind با هزینه بیش از 3 میلیون دلاری دولت آمریکا مد نظر قرار گرفت و توسط آزمایشگاه Servomechanisms دانشگاه MIT با ابداع یک دستگاه بزرگ محاسبهگر، این سفارش را برای آموزش خلبانان نیروی دریایی ارتش ایالات متحده ساخت. Whirlwind I را میتوان نخستین سیستم گرافیکی سهبعدی دنیا دانست. این کامپیوتر، یکی از اولین کامپیوترهای الکترونیکی دیجیتالی بود که خروجی دستورات را به صورت real-time در اختیار کاربرش قرار میداد.
با این حال، پایههای GPUهای امروزی در میانه دهه ۷۰ با ابزارهایی مانند شیفترهای ویدئویی و تولیدکنندههای آدرس ویدئویی شکل گرفت. این تجهیزات اطلاعات را از پردازنده مرکزی به نمایشگر منتقل میکردند. در آن دوران اولین تراشههای گرافیکی اختصاصی به طور گستردهای در بردهای سیستم آرکید استفاده میشدند. در سال ۱۹۷۶، شرکت RCA تراشه ویدئویی "Pixie" را ساخت که قادر به خروجی سیگنال ویدئو با وضوح ۶۲ در ۱۲۸ پیکسل بود. سختافزار گرافیکی سیستم آرکید Namco Galaxian از سال ۱۹۷۹ از رنگ RGB، اسپرایتهای چندرنگ و پسزمینههای کاشیوار پشتیبانی میکرد.
در سال ۱۹۸۱، IBM شروع به استفاده از آداپتور نمایش مونوکروم و رنگی (MDA/CDA) در کامپیوترهای شخصی خود کرد. هرچند این قطعه هنوز یک جی پی یو مدرن محسوب نمیشد، اما یک جزء خاص کامپیوتری بود که برای یک هدف ویژه طراحی شده بود: نمایش ویدئو. در ابتدا، این آداپتور قادر به نمایش ۸۰ ستون در ۲۵ خط از کاراکترهای متنی یا نمادها بود. برد کنترلر گرافیکی ویدئویی ISBX 275 که توسط اینتل در سال ۱۹۸۳ عرضه شد، دستگاه بعدی انقلابی در نمایش محتوای گرافیکی بود. این برد میتوانست هشت رنگ با وضوح ۲۵۶ در ۲۵۶ یا مونوکروم با وضوح ۵۱۲ در ۵۱۲ نمایش دهد.
در سال ۱۹۸۵، سه مهندس مهاجر هنگکنگی در کانادا شرکت Array Technology Inc را تأسیس کردند که بعدها به ATI Technologies تغییر نام داد. این شرکت برای سالها با خط تولید کارتهای گرافیکی و تراشههای Wonder خود در بازار پیشتاز بود.
در همین رابطه بخوانید:
- طول عمر مفید کارت گرافیک چقدر است؟
شرکت S3 Graphics در سال ۱۹۹۱، کارت S3 86C911 را که نام آن از خودروی Porsche 911 گرفته شده بود، معرفی کرد. جالب است بدانید که این شرکت یک تکنیک جالب را برای مشهور کردن خود استفاده کرده بود؛ استفاده از نامهای شناخته شده مانند مدل خودروی مشهور پورشه 911. این تصمیم به این خاطر اتخاذ شد تا S3 نشان دهد که با یک برد با کیفیت و ویژه روبرو هستیم!
معرفی این کارت موجب ظهور تقلیدکنندگان زیادی شد و تا سال ۱۹۹۵، تمام بازیگران اصلی در ساخت کارتهای گرافیکی از پشتیبانی شتابدهی 2D ساخت تراشههای خود استفاده میکردند. طی دهه ۹۰، سطح یکپارچگی کارتهای ویدئو با افزودن رابطهای برنامهنویسی کاربردی (APIها) به طور قابل توجهی بهبود یافت.
در کل، اوایل دهه 1990 زمانی بود که شرکتهای زیادی در زمینه سختافزار گرافیکی تأسیس شدند؛ بسیاری از این شرکتها بعدها توسط شرکتهای بزرگ خریداری شده یا به دلیل عدم توانایی در ارائه یک نوآوری ملموس، ساخت محصولاتی مناسب و حتی مشکلات بازاریابی، از این کسبوکار خارج شدند. یکی از برندهایی که در این زمان تأسیس شد، NVIDIA بود. انویدیا تا پایان سال ۱۹۹۷، توانست نزدیک به ۲۵ درصد از بازار گرافیک را در اختیار خود بگیرد.
انقلاب سه بعدی (از 1995 تا 2006)
تاریخچه پردازنده مدرن گرافیک از سال ۱۹۹۵ با معرفی اولین کارتهای افزودنی سهبعدی آغاز شد و بعد با پذیرش سیستمعاملهای ۳۲ بیتی و کامپیوترهای شخصی که مردم عادی نیز میتوانستند آنها را خریداری کنند، ادامه یافت. پیش از این، صنعت کارتهای گرافیک و شتابدهندههای گرافیکی بیشتر روی نمایش گرافیک دو بعدی و برای اهداف نمایشی در محصولاتی به جز کامپیوترهای شخصی(PC) متمرکز بود و کارتهای گرافیکی عمدتاً با نامهای الفبایی-عددی و برچسبهای قیمتی بسیار بالایشان شناخته میشدند.
کارت گرافیکی Voodoo از شرکت 3DFx که در اواخر سال ۱۹۹۶ روانه بازار شد، حدود ۸۵ درصد از بازار را به خود اختصاص داد. کارتهایی که تنها قادر به رندر کردن محتوای تصویری دو بعدی بودند، بسیار سریع منسوخ شدند.
در همین رابطه بخوانید:
- تفاوت معماری پردازنده RISC و CISC
- معرفی بهترین CPU های گیمینگ موجود در بازار بر اساس بودجههای مختلف
در این میان کارت Voodoo 1 به طور کامل گرافیک دو بعدی را کنار گذاشته بود و به طرز عجیبی وقتی شما میخواستید تا یک دستگاه همهفنحریف برای اجرای محتوای دو بعدی و سه بعد کنار هم داشته باشید مجبور بودید تا یک کارت با توانایی پخش محتوای دو بعدی را نیز در کنار وودو 1 بخرید و نصب کنید. البته کارت گرافیک وودو 1 با وجود عیبی که ذکر شد، همچنان برای افراد علاقهمند به اولین نسل بازیهای سهبعدی در آن زمان به مثابه یک نعمت بیبدیل تلقی میشد.
محصول بعدی شرکت 3DFx کارت موسوم به Voodoo 2 بود که در سال 1998 معرفی شده و از سه تراشه روی برد خود استفاده میکرد. این کارت یکی از اولین کارتهای ویدئویی بود که از امکان انجام کار موازی دو کارت (پخش محتوای دو بعدی و پخش محتوای سه بعدی) درون یک کامپیوتر پشتیبانی میکرد.
با پیشرفت فناوری تولید، ویدئو، شتابدهی رابط کاربری گرافیکی 2D و عملکرد 3D همگی در یک تراشه یکپارچه شدند. تراشههای Verite از شرکت Rendition از جمله اولینها بودند که این کار را به خوبی انجام دادند. کارتهای شتابدهنده 3D دیگر تنها رسترایزر نبودند.
سرانجام، «اولین GPU جهان» در سال ۱۹۹۹ معرفی شد! شاید از خودتان بپرسید که چرا با وجود این حجم انبوه از انواع کارتهای گرافیک که پیش از این توسط 3dfx و شرکتهای دیگر معرفی شده بودند، چنین عبارتی را در این بخش از مقاله تاریخچه کارت گرافیک شهر سختافزار عنوان کردیم؟ در واقع پاسخ به این سوال در کنار اینکه یک ترفند عالی تبلیغاتی توسط شرکت هوشمند Nvidia برای کارت گرافیک GeForce 256 بود به یک عامل مهم فنی دیگری نیز ارتباط داشت.

در کارت جیفورس 256، شرکت Nvidia تعریف واحد پردازش گرافیکی را به عنوان «یک پردازنده تکتراشه با تبدیل یکپارچه، نورپردازی، تنظیم/برش مثلث و موتورهای رندرینگ که قادر به پردازش حداقل ۱۰ میلیون چندضلعی در ثانیه است» معرفی کرد.
رقابت بین ATI و Nvidia نقطه عطف اوایل دهه ۲۰۰۰ در صنعت کارت گرافیک بود. طی این زمان، هر دو شرکت با یکدیگر به شدت درگیر شده و تنور رقابتی را گرم کردند که موجب تولد کارتهای گرافیکی با ویژگیهایی که اکنون متداول شد. به عنوان مثال، توانایی انجام سایهزنی مخصوص، انفجار حجمی، نمایش امواج، شکست نور، تجسم حجم سایهها، ترکیب رأسها، نقشهبرداری برجستگیهای تصویر و نقشهبرداری از ارتفاع سوژهها در کادر از فناوریهایی هستند که واسطه رقابت این دو تیم قرمز و سبز وارد دنیای پردازش گرافیکی شدند.
ورود پردازنده گرافیکی عمومی یا GPGPU (از 2006 تا 2013)
پس از خواندن تاریخچهای از پردازنده های گرافیکی پیشرو که بالاتر به آنها اشاره کردیم، بهتر است حالا سراغ نسل جدید بیاییم. در واقع میتوان گفت که عصر پردازندههای گرافیکی با کاربردهای عمومی از سال ۲۰۰۷ آغاز شد. در واقع از این سال بود که هر دو شرکت Nvidia و ATI (که بعداً توسط AMD خریداری شد) کارتهای گرافیکی خود را با قابلیتهای اضافی برای بهبود تجربه نمایش و محاسبات بهبود یافته مجهز کردند.
در همین رابطه بخوانید:
- چگونه دمای کارت گرافیک کامپیوتر را کنترل کنیم؟
با این حال، این دو شرکت مسیرهای متفاوتی را برای پردازنده های گرافیکی با کاربردهای عمومی (GPGPU) در پیش گرفتند. در سال ۲۰۰۷، Nvidia محیط توسعه و لایه نرمافزاری هسته CUDA خود را منتشر کرد که اولین مدل برنامهنویسی گستردهای بود که برای محاسبات GPU به کار گرفته شد. دو سال بعد، پشتیبانی از فریمورک OpenCL به طور گستردهای در کارتهای گرافیک نیز شروع شد. این چارچوب امکان توسعه کد برای هر دو واحد پردازشی GPU و CPU را با تأکید بر قابلیت پورت کردن کدها فراهم میکند. بنابراین، GPUها به دستگاههای محاسباتی بیشتر عمومیسازی شده تبدیل شدند که حالا میتوانستند دادههای بسیار را بگیرند و عملیات پردازشی مورد نظر را روی آنها انجام دهند.
در سال ۲۰۱۰، همکاری Nvidia با شرکت خودروسازی Audi شروع شد که شاید بتوان آن را نقطه عطفی در ساخت پردازنده GPU دانست. اما شاید از خودتان بپرسید که همکاری با یک شرکت خودروسازی چه ارتباطی با گرافیک کامپیوتر دارد؟ جواب این سوال در بخشی است که به محض نشستن پشت یک خودرو همه ما با آن سر و کار داریم.
در واقع هدف انویدیا و آئودی این بود که از پردازنده های گرافیکی Tegra برای تأمین توان پردازش گرافیک و در عین حال برخی محاسبات مورد نیاز برای نمایش محتوا در داشبورد خودروها و افزایش کیفیت و عملکرد سیستمهای ناوبری و سرگرمی خودروهای تولیدی این کمپانی آلمانی استفاده شود. در نهایت تجارب بسیاری از توسعه چیپهای Tegra توسط تیم سبز کسب شد که بعدها بنیان و اساس تولید بسیاری از فناوریها در حوزه پردازشی را شکل دادند.
همکاری انویدیا و آئودی در واقع دریچه ورود پردازندههای پیشرفته به صنعت خودرو بود و این همکاری حالا به حدی به پیش رفته که میتوان گفت پیشرفتهای چشمگیر در تکنولوژی پردازندههای گرافیکی (GPU) به طور مستقیم با پیشرفت فناوری خودروهای خودران مرتبط است. در سیستمهای پردازشی مورد نیاز برای عملیات برنامهریزی خودروهای خودران، نیاز به پردازش انبوهی از اطلاعات ریز حسگرهاست که تجربه نشان داده GPUها در پیادهسازی آنها به مراتب عملکرد بهتری از CPUها دارند.
در همین رابطه بخوانید:
- کارت گرافیک اینتل بخریم یا نه؟
در سال ۲۰۱۰ شرکت AMD سری تراشههای پردازش گرافیکی Radeon HD 6000 را معرفی کرد و یک سال بعد، شاهد عرضه سری 6000M این شرکت برای دستگاههای قابل حمل بودیم. کمپانی رقیب، Nvidia، در سال ۲۰۱۲ پردازنده گرافیکی Kepler را با معماری جدید به بازار عرضه کرد که در کارتهای سری ۶۰۰ و ۷۰۰ این شرکت مورد استفاده قرار گرفت. یکی از ویژگیهای برجسته این ریزمعماری، تکنولوژی GPU Boost بود که به صورت هوشمندانهای سرعت کلاک هستههای پردازشگر گرافیک را بر اساس میزان مصرف انرژی آن تنظیم میکرد. ریزمعماری Kepler با فرآیند ساخت ۲۸ نانومتری تولید میشد.
تحول در پردازش گرافیکی ویژه بازی با کنسولها بازی نسل 8 (از 2013 تا 2020)
در سال ۲۰۱۳ سونی و مایکروسافت کنسولهای بازی پلیاستیشن ۴ و ایکسباکس وان را به بازار عرضه کردند که به نوعی توانست انقلابی بزرگ در حوزه گیم ایجاد کند. به نحو جالب توجهی هر دو این شرکتها از پردازنده های گرافیکی مبتنی بر Radeon HD 7850 و 7790 شرکت AMD در ساخت کنسولهای بازی خود بهره میبردند. این کنسولها امکان بازی با کیفیت بالا و نرخ 30 فریم در رزولوشن 1080p را فراهم میکردند و همزمان شرکتها سونی و مایکروسافت همکاری نزدیکی را با AMD شروع کردند تا بتوان از انبوه قابلیتهای نرمافزاری برای بهبود و بهینهسازی محتوای گرافیکی و خلق تصاویر جذابتر و واقعیتر در بازیها استفاده کرد.
در آن سوی میدان نیز خط تولید Kepler کمپانی Nvidia نیز جای خود را به سری Maxwell داد که همچنان با همان فرآیند ساخت ۲۸ نانومتری ساخته میشد. این فرآیند جدید در مقایسه با نسل گذشته (۴۰ نانومتر) امکان افزایش ۲۰ درصدی عملکرد را با مصرف انرژی کمتر فراهم میکرد. در همین دوران نیز دستگاهها جدید به نام هدستهای واقعیت مجازی یا همان VR که به سختافزار قدرتمندی نیاز داشتند وارد بازار شدند. برای پردازش محتوای مورد نیاز این هدستها، پیشنهادها آخرین نسل پردازندههای دو شرکت انویدیا و AMD بود که در کارتهای گرافیک GTX 970 و R9 290X به عنوان حداقل سختافزار مورد نیاز معرفی شد و مورد استفاده قرار میگرفت.
2014؛ سردرگمی انویدیا و AMD و دعاوی حقوقی برای تیم سبز
تا سال 2013، طراحی پردازشگرهای گرافیکی (GPU) به صورت ویژه برای ارائه عملکرد روی رایانههای شخصی و ایستگاههای کاری متمرکز بوده و تحتتأثیر رابطهای برنامهنویسی گرافیکی و افزایش کاربرد در محاسبات و هوش مصنوعی قرار داشت. با این حال، به سرعت GPUها به اجزای پیچیده و پرهزینهای در طیف وسیعی از دستگاهها تبدیل شدند.
در سال 2014، شرکتهای بزرگ این حوزه معماریهای جدیدی را در کنار فناوریهای قدیمیتر عرضه کردند. AMD عمدتاً به طرحهای قبلی مانند Graphics Core Next (GCN) 1.0 و TeraScale 2 متکی بود. از دید فنی که نگاه کنیم، کارت گرافیک Radeon R9 280 آنها در واقع مدلی قدیمی با نام تجاری جدید بود، اما با قیمتی پایینتر عرضه شد.
بعدها، R9 295X2 به عنوان یک کارت قدرتمند با دو GPU و سیستم کولینگ مایع عرضه شد، اما قیمت بالای آن جذابیتش را محدود کرد. البته AMD در همین سال کارت جالبی نیز با نام R9 285 و معماری GCN بهروزرسانی شده همراه با بهبودهای جزئی عرضه کرد که از سوی بسیاری از کاربران مورد توجه قرار گرفت.
در همین رابطه بخوانید:
- معرفی تعدادی از عجیب ترین کارت های گرافیک دنیا
در این سال و در حالی که AMD با مشکلات مالی دست و پنجه نرم میکرد، Nvidia شاهد رشد درآمد بود. حرکت هوشمندانه انویدیا این بود که آنها از معماریهای قدیمیتر در کنار معماری جدید Maxwell استفاده میکردند؛ برای مثال انویدیا از معماری Maxwell در یک محصول میانرده به نام GeForce GTX 750 Ti استفاده کرد و همزمان کارت پرچمدار خود برای این سال را با سرعت کلاک کمی بالاتر بهروزرسانی و آن را Titan Black نامیدند.
مشکلی که بیشتر از همه از این سال برای کاربران با بودجه کمتر مطرح شد، قیمت بالای محصولات انویدیا بود. برای مثال در سال 2014 شرکت انویدیا برای رقابت با R9 295X2، کارت جذابی با نام Nvidia Titan Z را با قیمت تعجبآور 2999 دلار راهی بازار کرد. جالب است که حتی نمونههای اندکی نیز برای بررسی به ریویوئرها ارسال شد و این کارت نیز به دلیل همین قیمت بسیار بالا عملاً از سوی مخاطبان با استقبال خوبی روبرو نشد.
در تابستان 2014 انویدیا دست به کار جالب توجهی زد و مجددا با استفاده از تراشههایی ماکسول، سری جدیدی از محصولات خود با نام GeForce GTX 900 را راهی بازار کرد. از این سری، دو کارت GTX 980 و 970 قیمت نسبتاً رقابتی داشتند و همزمان عملکرد خوبی را در اختیار کاربران میگذاشتند ولی موردی که شاید در خاطر بسیاری از افراد قدیمی حوزه سختافزار مانده باشد جنجالی بود که با «یک ویژگی پنهان» در کارت GTX 970 سر زبانها افتاده و پیامدهای بسیاری برای انویدیا داشت.
در هنگام معرفی و در سایت انویدیا، برای کارت GTX970 مشخصات رسمی، همراه شدن آن با 4 گیگابایت حافظه را عنوان کرده بودند ولی یک نکته عجیب در خصوص این کارت آن بود که به دلیل پیکربندی گذرگاه حافظه، سیستم کاربر فقط به 3.5 گیگابایت از حافظه دسترسی داشت. این 0.5 گیگابایت "گمشده" روی سیستم بود ولی عملاً امکان استفاده از آن محدود شده بود. این فریبکاری به شهرت Nvidia آسیب رساند و منجر به دعاوی حقوقی و پیشنهادات غرامت شد.
در نهایت، اینتل نیز در سال 2014 معماری GPU یکپارچه جدیدی با نام رمز Gen8 را عرضه کرد. این طرح نسبت به نسل قبلی خود پیشرفتهایی را ارائه میداد. به طور کلی، سال 2014 سالی با پیشرفت ناهموار در GPUها بود. معماریهای جدید پدیدار شدند، اما برخی از شرکتها به شدت به طرحهای قدیمی متکی بودند. جنجالهایی مانند مشکل حافظه GTX 970 نیاز به شفافیت در مشخصات GPU را برجسته کرد.
2015: تکرار سال قبل یا جهشی به سوی آینده؟
در سال 2015، پیشرفت در دنیای پردازشگرهای گرافیکی (GPU) تا حد زیادی تکرار همان رویهی سال قبل بود. ایامدی تعداد زیادی کارت گرافیک جدید روانهی بازار کرد که اکثر آنها برپایهی معماریهای قدیمی GCN 1.0 و البته برخی نیز بر پایه GCN 2.0 ساخته شده بودند.
اما در این میان یک استثنا وجود داشت: Radeon R9 Fury X. این کارت گرافیک از معماری جدید Fiji (بر پایه GCN 3.0) و فناوری حافظهی HBM (پهنای باند بالا) بهره میبرد و با داشتن تعداد بسیار زیاد واحدهای سایهزنی (4096 واحد) عملکرد بالایی را ارائه میداد. با وجود مصرف انرژی بالا و سیستم خنککنندهی حجیم، فروش Fury X بسیار خوب بود.
در همین رابطه بخوانید:
- نشانه های نزدیک شدن کارت گرافیک به مرگ
- فناوری DLSS (دی ال اس اس) انویدیا چیست و چگونه کار میکند؟
ایامدی همچنین در سال 2015 نسخهی بدون حق امتیاز و کمهزینهی فناوری نرخ تازهسازی متغیر را با نام FreeSync معرفی کرد. در سوی دیگر میدان، انویدیا سال نسبتاً آرامی را پشت سر گذاشت. اکثر کارتهای گرافیک جدید آنها مدلهای میانرده و مقرونبهصرفه بودند. قابلتوجهترین محصول انویدیا در این سال کارت گرافیک خاطرهساز GeForce GTX 960 بود که با قدرت و بازدهی مناسب، پیشرفت معماری Maxwell را به اوج خود رسانده بود.
در این سال همچنین دو کارت GeForce GTX Titan X و GeForce GTX 980 Ti، (که هر دو از یک تراشهی مشابه استفاده میکردند) نیز به عنوان دو مدل پرچمدار انویدیا، در انتهای مقیاس عملکرد قرار داشتند. تنها نکته منفی در مورد این کارتها قیمت بالای آنها و عدم امکان تهیه برای اغلب کاربران بود. در واقع میتوان گفت که این کارتها، برای بازار خاصی ساخته شده بودند و رقیب مستقیم Radeon R9 295X2 و 290X ایامدی به شمار میرفتند.
فارغ از بحث سختافزاری، در سال 2015 شاهد معرفی و عرضهی نرمافزارهایی بودیم که مسیر آیندهی معماری و کارکرد GPUها را شکل میداد. در این سال، گروه کرونوس با معرفی رسمی API گرافیکی Vulkan، هیجانی وصفناپذیر در صنعت پردازش گرافیک به پا کرد. این API جدید مزایای قابل توجهی نسبت به OpenGL و Direct3D ارائه میداد و امکان کنترل مدیریت حافظه و خود پردازنده گرافیکی را به توسعهدهندگان نرمافزار میداد.
در همین راستا، مایکروسافت نیز نسخهی جدید سیستمعامل خود، ویندوز 10، را به همراه API گرافیکی DirectX 12 روانهی بازار کرد. این API امکاناتی مشابه Vulkan را فراهم میآورد، اما محدود به ویندوز 10 بود.
یکی از قابلیتهای جذاب DirectX 12، محاسبات ناهمگام (asynchronous compute) بود. این قابلیت امکان اجرای همزمان عملیات گرافیکی و محاسباتی را فراهم میکرد که پتانسیل افزایش قابل توجه عملکرد را در بر داشت. با این حال، تنها پردازنده های گرافیکی ایامدی میتوانستند از این ویژگی به طور کامل بهره ببرند.
در انتهای سال، گوگل نرمافزار هوش مصنوعی و یادگیری ماشین خود، TensorFlow، را به صورت متنباز (open source) عرضه کرد و امکان دسترسی همگان به این کتابخانهی قدرتمند را فراهم ساخت.
به طور کلی، سال 2015، گرچه از نظر سختافزار تکرار سال قبل به نظر میرسید، اما با معرفی نرمافزارهای پیشرفته و امکانات جدید، زمینهساز جهشهای بزرگ در سالهای آیندهی دنیای پردازنده های گرافیکی شد.
در همین رابطه بخوانید:
- هسته تنسور (Tensor Core) در پردازنده گرافیکی چیست و چه کاربردهایی دارد؟
- هسته RT در گرافیک انویدیا چیست و هسته های آر تی چه کاربردی دارند؟
2016 سال طلایی صنعت کارت گرافیک
سال 2016 برای علاقهمندان سختافزار کامپیوتر سالی فراموشنشدنی بود. در این سال، هر دو کمپانی پیشرو یعنی AMD و Nvidia محصولات برجستهای به بازار عرضه کردند.
ایامدی با تمرکز بر مدیریت هزینهها، معماری گرافیکی GCN را ارتقا داد و نسل جدیدی با نام GCN 4.0 را معرفی کرد. مهمترین محصول این نسل، کارت گرافیک میانرده Radeon RX 480 بود که با قیمتی مناسب، عملکرد قابل قبولی ارائه میداد. تمرکز اصلی ایامدی در این سال بر بهبود معماری CPUهای خود بود و بخش گرافیک شرکت نیز سودآوری را از طریق افزایش راندمان تولید و تغییرات جزئی در معماری دنبال میکرد.
در سوی دیگر، انویدیا با معماری جدید Pascal پیشرفتهای چشمگیری رقم زد. این معماری با استفاده از ترانزیستورهای FinFET، عملکرد و بازدهی انرژی را به طرز قابل توجهی افزایش داد. اولین محصول مبتنی بر این معماری، GeForce GTX 1080 بود که با قدرت قابل توجه خود، به پرفروشترین کارت گرافیک سال تبدیل شد. انویدیا طی سال 2016 مدلهای دیگری از این خانواده را با نامهای GTX 1070، 1060 و 1050 عرضه کرد که همگی مورد استقبال گسترده قرار گرفتند.
در این سال، برای اولین بار شاهد عرضه کارت گرافیکی بسیار گرانقیمت از انویدیا با نام Titan X بودیم. این کارت با قیمتی سرسامآور، مشخصات خیرهکنندهای داشت اما بازدهی آن بهطور کامل با قیمت نجومیاش همخوانی نداشت.
بازار کارت گرافیک در سال 2016 محصولاتی برای تمامی بودجهها ارائه میکرد و عملکرد و پایداری پردازندههای گرافیکی به بالاترین سطح خود تا آن زمان رسیده بود. با وجود کاهش سهم بازار AMD در این سال، به دلیل محبوبیت Radeon RX 400، درآمد این شرکت رشد قابل توجهی داشت. اما به طور کلی، فروش کارت گرافیکی مجزا (غیر-یکپارچه) با توجه به کاهش فروش کامپیوترهای شخصی در سراسر جهان، روندی نزولی داشت.
2017: سال فراز و نشیب برای پردازنده های گرافیکی
سال 2017 برای کمپانیهای سازندهی پردازنده های گرافیکی (GPU) سالی با اتفاقات مثبت و منفی فراوان بود. از یک طرف شاهد پیشرفتهای تکنیکی و محصولات جدید بودیم، اما از طرف دیگر، افزایش چشمگیر استخراج رمزارزها باعث کمبود و گرانی شدید کارتهای گرافیک شد.
ایامدی با بهروزرسانی معماری گرافیکی خود (GCN) به نسخهی 5.0 و استفاده از حافظهی جدید HBM2، کارتهای گرافیک Radeon RX Vega را روانهی بازار کرد. عملکرد این سری با GeForce GTX 1080 از انویدیا برابری میکرد، اما مصرف برق آنها همچنان بالا بود.
انویدیا همچنان با معماری قدرتمند Pascal سلطنت خود در بازار را حفظ میکرد. انتشار مدل GTX 1080 Ti با کارایی تقریبا مشابهی تایتان X (اما با قیمت مناسبتر) و کاهش قیمت نسخهی استاندارد GTX 1080، فروش بیسابقهای برای این کمپانی به ارمغان آورد. علاوه بر این، انویدیا معماری جدید Volta را به طور اختصاصی برای پردازش سطح بالا و کاربران حرفهای معرفی کرد. این معماری با ترانزیستورهای بسیار زیاد و ابعاد بزرگ، قدرتی خیرهکننده برای محاسبات پیچیده داشت.
در همین رابطه بخوانید:
- کدامیک از کارت های گرافیک انویدیا یا AMD عملکرد بهتری دارند؟
- کارت گرافیک دست دوم بخریم یا نه؟
در بازار گوشیهای هوشمند نیز شرکتهایی مثل اپل (با GPUهای PowerVR) و کوالکام (با Adreno) از پردازنده GPU اختصاصی خود استفاده میکردند. در این سال انویدیا نیز تلاش کرد تا توجه به انبوه جذابیتهای بازار موبایل، حضور قدرتمندتری در این حوزه را رقم بزند. این تلاشها منجر به آن شد که تیم سبز، پردازندهی قدیمی Tegra X1 (با ریزمعماری GM20B) خود را به این حوزه وارد کند و توانست مشتریان خوبی مانند نینتندو برای آنها پیدا کرده و در نهایت این تراشه در کنسول نینتندو سوییچ به خدمت گرفته شد.
با وجود پیشرفتهای فنی و تنوع محصولات، سال 2017 با انفجار استخراج رمزارزها، به سالی ناگوار برای گیمرها و علاقهمندان سختافزار کامپیوتر تبدیل شد. تقاضای زیاد برای ماینینگ، باعث کمبود شدید و افزایش قیمت سرسامآور کارتهای گرافیک، چه نو و چه کارکرده، شد. این روند تا سال بعد نیز ادامه پیدا کرد و بازار را به وضعیتی بحرانی رساند.
2018-2019: نوآوری و رقابتی داغ در دنیای پردازنده های گرافیکی
در سال ۲۰۱۸، AMD پس از موفقیتی در آغاز معماری کاملاً بازطراحی شده Zen برای پردازندههای دیتاسنتر، به رویکرد محافظهکارانهای نسبت به صرف منابع محدود (هم مالی و هم فیزیکی) برای توسعه GPUهای خود پرداخت. به جای تجدید نظر در ویژگیهای داخلی تراشه یا معرفی بهروزرسانی به Vega، آنها به تکنیک قدیمی متوسل شدند که سالها توسط خودشان و رقیب سبزپوش، استفاده شده بود: تغییر نام.
در راستای همین استراتژی، سری Radeon RX 500 با تغییرات اندک از سال قبل و تنها با اضافه شدن حرف 'X' به عنوان پسوند به انتها نام مدل (به عنوان مثال، RX 580 به RX 580X تغییر نام داد) راهی بازار شدند. البته برخی از مدلهای میانرده و اقتصادی شرکت افزایش حافظهی RAM را تجربه کردند، اما تغییرات بخشهای پردازشی و ارتباطی آنها بسیار اندک بود.
تنها محصول جدیدی که AMD در سال 2018 به صورت عمده به بازار آورد، Radeon RX 590 بود. این کارت از همان تراشه 12 نانومتری Polaris بر پایه GCN 4.0 که در RX 580 استفاده شده بود، بهره گرفته و مشخصات آن با مدل ذکر شده تقریباً یکسان بود. با این حال، این تراشه توسط دو شرکت GlobalFoundries و Samsung ساخته شده بود و لااقل در بخش تولید تراشه پردازشی از فرآیندهای بهبود یافته استفاده میکرد.
مجموع تمامی تغییرات ایجاد شده در این کارت در نهایت منجر به آن شد که TDP در مقایسه با نسخه 580 به میزان 5 درصد کاهش یافته و از سوی دیگر افزایش ۱۷ درصدی در سرعت کلاک پایه و ۱۵درصدی در کلاک بوست و البته 50 دلاری قیمت عرضه نسخه رفرنس این کارت اتفاق افتاد. چنین تغییرات اندکی باعث برجستگی RX 590 در چشم خریداران نشد و RX 580 ( که حالا به شکل 580X عرضه میشد) بهتر فروش میرفت.
در همین رابطه بخوانید:
- آموزش تمیز کردن کارت گرافیک با فن از نوع دمنده (Blower)
- چگونه بهترین کارت گرافیک سازگار با سیستم خود را خریداری کنیم
Nvidia هم در سال ۲۰۱۸ سیاست رقیبش را در پیش گرفت و نسخههای اصلاحشده از سری GTX 10 (مانند GeForce GT 1030 متعلق به نسل DDR4) را به بازار معرفی کرد. در واقع میتوان گفت که هیچکدام از دو شرکت در این بازه کوتاه محصول قابل توجهی را روانه بازار نکردند. اما این مسئله در اولین ماههای سال به دلیل اینکه قیمت GPU همچنان بسیار بالا بود، اهمیت خاصی نداشت؛ بازار تشنه کارت گرافیک بود و کاربران هم خودشان را قانع کرده بودند که هر چه در بازار پیدا میشود را بخرند؛ چه روزهای غمانگیزی.
تا فصل تابستان، وضعیت بازار اندکی بهبود یافت و علاقهمندان به PC با شوق زیاد منتظر معماری جدید Nvidia بودند. نکته بارز در این دوره آن بود که شکاف زمانی بین معرفی طرحهای جدید GeForce در طول دهه گذشته رو به افزایش بود؛ ۱۵ ماه از معرفی ماکسول میگذشت و 28 ماه هم از Kepler.
اولین GPUهای Turing در ماههای اوت و سپتامبر در بازار ظاهر شدند. اولین مدل یک Quadro برای بازار کاری اختصاصی بود. خط تولید GeForce به طور مختصر نه تنها GPUها و کارتهای جدید را، بلکه فناوری و اصطلاحات بازاریابی جدید را نیز به بازار میآورد. پس از این دوره نسبتاً طولانی، ریز معماری پردازش گرافیکی انویدیا با نام Turing در روز پنجشنبه، ۲۹ شهریور ۱۳۹۷رسماً معرفی شد.
در همین رابطه بخوانید:
- قابلیت Ray Tracing چیست؟ هرآنچه باید در مورد فناوری رهگیری پرتو بدانید
با معرفی کارتهای بر پایه تورینگ، Nvidia یک تغییر مهم دیگر را نیز رقم زد. این شرکت پس از 13 سال استفاده از برچسب «GTX» به عنوان پیشوند یا پسوند در کارتهای تولیدی خود، به استفاده از برچسب RTX روی آورد. اگرچه دلیل این تغییر هیچگاه به صورت رسمی توسط انویدیا اعلام نشده ولی پر واضح است که میتوان آن را به واژه Ray Tracing و استفاده از هستههای RT نسبت داد که به طور مؤثر به تناسب برای عملیات ردیابی پرتو در کارتهای تولیدی این شرکت مورد استفاده قرار میگیرند.
البته باید در نظر داشته باشید که به هیچ عنوان نباید انویدیا و AMD را مبدع ریتریسنیگ دانست؛ چرا که از قبل نیز قابلیت مدلسازی دقیقتر نوردهی به صورت زمان واقعی، در یک کارت گرافیک رایانه شخصی معمولی در دسترس بود.
در همین رابطه بخوانید:
- تفاوت کارت گرافیک GTX با RTX انویدیا؛ کدام بهتر است؟
ذکر این نکته لازم است که Nvidia پیش از این API جدیدی به نام DirectX Raytracing (DXR) را در رویداد GDC سال 2018 معرفی کرده بود. مهندسان شرکت در این رویداد جزئیات عملکرد سیستم را توضیح دادند و چندین ویدئو از EA، Epic و Futuremark را برای بیان مزایای استفاده از این کتابخانه به نمایش گذاشتند.
معماری جدید در پردازنده های گرافیکی GeForce RTX 2080 و 2080 Ti که هر دو از تراشه TU102 استفاده میکنند، قابلیت رهگیری پرتو (ray tracing) را به نمایش گذاشت. به دلیل استفاده از 18.6 میلیارد ترانزیستور و اندازه 754 میلیمتر مربع، این تراشه نسبت به نسل قبلی خود، GP102، ابعاد بسیار بزرگتری داشت. البته باید گفت دلایل اصلی این افزایش ابعاد، بالاتر بردن حجم حافظههای L1 و L2، بهبود پهنای باند داخلی و اضافه شدن هستههای تانسور و رهگیری پرتو به هر واحد پردازشی (SM) در GPU بود.
هستههای تانسور، که در واقع مجموعهای از ALUهای FP16 هستند که ابتدا در معماری Volta ظاهر شدند و انویدیا برای رسیدن به اهداف خود در Turing آنها را با یک بهروزرسانی اندک نیز به خدمت گرفت. باید گفت که در آن زمان هستههای RT با رویکردی جدید هر کدام از دو واحد اختصاصی برای مدیریت الگوریتمهای BVH و آزمایش تقاطع پرتو-اشیاء استفاده میکردند.
با اینکه رهگیری پرتو میتوانست روی CPUها انجام شود، برای انجام آن به صورت Real-Time و در بازیهای روزمره، نیاز به این سختافزارهای جدید بود. با این حال، در زمان عرضه تراشههای Turing، بازیهایی که از DXR پشتیبانی میکردند وجود نداشت، بنابراین بررسیکنندگان به عملکرد خام آنها در بازیهای معمولی پرداختند. نتایج ثبت شده (حداقل برای نسخه Ti در آن زمان) بسیار چشمگیر بود و همین نتایج موجب شد تا شور و هیجان قابل توجهی به سمت محصولات تورینگ هدایت شده و انویدیا بیش از پیش در جایگاه برتر بازار قرار گیرد.
شاید بتوان گفت تنها بخش تاریک این تراشهها قیمتهای MSRP پیشنهادی آنها، به ویژه برای GeForce RTX 2080 Ti (999 دلار) بود. این قیمتها پس از بحران بازار در برخورد با ماینرهای رمزارزها (که تازه به حالت عادی بازگشته بود) برای بسیاری از کاربران غیرمنصفانه به نظر میرسید.
خط تولید Turing همچنان توسط TSMC و با استفاده از نسخهای سفارشی از فرآیند ساخت 16FF (با برچسب 12FFN) ساخته میشد، که باعث میشد تراشههای بزرگ هرگز به سطح بازدهی تراشههای کوچکتر Pascal GP102 نرسند.
یکی دیگر از ویژگیهای کارتهای گرافیکی GeForce RTX جدید، DLSS یا Deep Learning Super Sampling بود که توسط Nvidia بسیار تبلیغ میشد. ایده کلی DLSS این بود که همهچیز را با وضوح پایینتر رندر کند، سپس از یک الگوریتم توسعهیافته با تکنیکهای یادگیری ماشین (ML)، برای ارتقاء فریم نهایی به وضوح بالاتر صفحه نمایش کاربر اقدام کند.
هستههای تانسور به عنوان عنصر کلیدی پشت این ویژگی تبلیغ میشدند، اما نسخه اولیه DLSS از آنها در کارتهای گرافیکی مصرفکننده استفاده نمیکرد. در عوض، این کار توسط شبکههای کامپیوتری خود Nvidia انجام میشد که برای تحلیل هر بازی، فریم به فریم آن را آنالیز کرده و رویکرد مناسب برای upscaling را برایش انتخاب کرد و به کار میبست.
در همین رابطه بخوانید:
- هرآنچه که باید درباره فرکانس Base Clock و Boost Clock کارت گرافیک بدانید
به دلیل آنکه رندر کردن با وضوح پایینتر عملکرد کارت را بهبود میبخشید و همزمان، ارتقاء ابعاد تصویر با DLSS نیز به خوبی کار میکرد، بازخوردهای اولیه به استفاده از این فناوری بسیار مثبت بود. اما یک مشکل در آن روزها این بود که عملاً هیچ نوع بازی وجود نداشت که همزمان با عرضه کارتهای بر پایه Turing، از این فناوری استفاده کند و کاربران باید ماهها یبیشتری منتظر میماندند.
در اواخر سال ۲۰۱۸ و ماههای ابتدایی ۲۰۱۹، رسانهها و ریویوئرهای مستقل سختافزار توانستند مجموعهی ویژگیهای RTX انویدیا را با جزئیات بیشتری بررسی کنند. در آن زمان، عناوین متعددی منتشر شده بودند که از DXR و DLSS پشتیبانی میکردند. بازیهایی مانند Battlefield V، Shadow of the Tomb Raider و Metro Exodus همگی (با درجات مختلف) از این فناوریها بهره میبردند. اما دو نکته (یکی مثبت و دیگری منفی) در خصوص این فناوری به سرعت آشکار شد:
- استفاده از رهگیری پرتو (Ray Tracing) میتوانست به طور قابل توجهی واقعگرایی نورپردازی محیطی، سایهها و بازتابها را بهبود بخشد.
- اجرای این فناوری هزینهی عملکردی بسیار بالایی داشت و تنها استفاده از DLSS میتوانست کیفیت بازی را تا حدودی حفظ کند. این موضوع در رزولوشن 1080P صدق میکرد و رزولوشنهای بالاتر به هیچوجه قابل اجرا نبودند.
سرعت فریم پایین (حدود ۳۰ فریم بر ثانیه یا کمتر) که معمولاً برای کنسولها قابل قبول بود، در اجرای بازیها با گرافیک بسیار بالا روی PC، کاملاً مغایر انتظارات علاقهمندان سختافزار بود، به خصوص با توجه به هزینه ۱۰۰۰ دلاری که برای خرید یک کارت گرافیک پرداخته بودند. در همین زمان، هر دو شرکت AMD و Nvidia کارتهای گرافیک جدیدی را معرفی کردند. ایامدی مدل Radeon VII و انویدیا مدل GeForce RTX 2060 را به همراه بازگشت نام GTX با نسخهی 1660 Ti عرضه کرد.
Radeon VII آخرین محصول مبتنی بر معماری GCN بود. Vega 20 به عنوان تراشهی مورد استفاده در این کارت گرافیک، نسخهی بهبود یافتهی تراشهی Radeon Vega 64 به شمار میرفت و با فناوری ساخت 7nm شرکت TSMC ساخته شده بود. این مدل روی کاغذ حرفهای زیادی برای گفتن داشت: ۱۶ گیگابایت حافظهی HBM2 با پهنای باند ۱,۰۲۴ گیگابیت بر ثانیه، به همراه ۶۰ واحد محاسباتی با فرکانس ۱,۸۰۰ مگاهرتز.
ایامدی این کارت را با قیمت ۷۰۰ دلار عرضه کرد و آن را رقیب GeForce RTX 2080 انویدیا میدانست. در تستهای انجامشده، Radeon VII به طور متوسط تنها چند درصد از رقیب سبز خود کندتر بود. نکته مهم در مورد رادئون 7 این بود که این کارت هرگز برای گیمرها طراحی نشده بود و در واقع نسخهی تغییرنامیافتهی Radeon Instinct، به عنوان یک مدل محاسباتی مخصوص ایستگاههای کاری به شمار میرفت.
در همین رابطه بخوانید:
- Frame Time چیست و چگونه بنچمارک بازیها را درستتر تحلیل کنیم؟
از طرف دیگر، GeForce GTX 1660 Ti مجهز به تراشهی TU116، کاملاً بر بازار گیم تمرکز داشت، به ویژه برای کسانی که بودجهی مشخصی را در نظر گرفته بودند. با قیمت ۲۷۹ دلار، این کارت گرافیک در مقایسه با GTX 1070 مبتنی بر معماری Pascal که ۱۰۰ دلار گرانتر بود، عملکرد مشابهی ارائه میداد اما فاقد هستههای Tensor و RT بود.
همچنین GeForce RTX 2060 که در ابتدای سال ۲۰۱۹ عرضه شد، از تمام ویژگیهای RTX بهره میبرد، اما تقریباً ۳۰ درصد گرانتر از GTX 1660 Ti بود و به طور متوسط تنها ۱۲ درصد سریعتر عمل میکرد. بنابراین از نظر ارزش خرید، گزینهی جذابی به شمار نمیرفت.
هر دوی این مدلهای میانرده، تا حدودی افزایش قیمت محصولات ردهبالای RTX انویدیا را تعدیل کردند. قیمت مدل RTX 2080 Ti نیز بیش از ۳۰۰ دلار افزایش یافته بود. بعداً مدلهای دیگری مانند GTX 1650 با قیمت ۱۴۹ دلار به این مجموعه اضافه شدند.
ایامدی تا تابستان 2019، معماری جدید خود را پنهان نگه داشت. در نهایت، آنها سری Radeon RX 5000 را با تراشهی Navi 10 معرفی کردند. در این نسل جدید، معماری GCN بهطور کامل بازنگری شده و به RDNA تبدیل شده بود که بسیاری از محدودیتهای طراحی قدیمی را برطرف میکرد.
در حالی که انویدیا به اغنا و ارضای همه بازارها با Turing میپرداخت، کارتهای RNDA آمده بودند که کاربران حوزه PC Gaming را به سمت خود بکشند. مشخصات این کارتها اما مقداری عجیب بود؛ تعداد CUهای کمتر و حتی پایینتر از Radeon Vega 64. اما نکته مهم اینجا بود که AMD معماری جدید خود را با بهبود صدور دستورالعمل و جریان داده داخلی اصلاح کرده بود و به همین دلیل نتیجه نهایی محصولی بود که با Radeon VII و GeForce RTX 2070 فاصله زیادی نداشت. با قیمت ۳۹۹ دلار، این محصول هم رقابت را شکسته و با تراشهای با اندازه ۲۵۱ میلیمتر مربع (به دلیل فرایند ساخت 7 نانومتری و جذاب 7N شرکت TSMC) سودآوری خوبی را برای AMD به ارمغان آورد.
میتوان این برداشت را به عنوان خلاصه همه اتفاقات پس از معرفی Navi عنوان کرد که «AMD نشان داد که برای رسیدن به عملکرد مناسب در بازی، نیاز به استفاده از تراشههای بسیار قدرتمند و هزینه بالا نیست و میتوانیم همزمان بسیاری از مشکلات سازگاری و درایورها را نیز نداشته باشیم».
اما در آن سوی میدان، انویدیا در پاسخ به خانواده Radeon RX 5000 با مدلهای 'Super' وارد گود رقابت شد و در طول سال ۲۰۱۹، RTX 2080، RTX 2070، RTX 2060 ، GTX 1660 و حتی ۱۶۵۰ همگی با تراشههایی با تعداد بیشتری از هستههای شیدر و سرعتهای بالاتر به روز شدند. این عملکرد بهبودیافته از سوی کاربران نیز مورد توجه قرار گرفت؛ به خصوص به آن علت که قیمت MSRP این کارتها (به جز 2060 Super) چندان افزایش نیافته بود.
نکته قابل ذکر دیگر برای پایان این سال، شکلگیری کامل پروژه کارتهای گرافیک مجزای اینتل تحت بیرق پروژه Xe بود و حتی حدسهایی نیز در مورد برخی مدلهای احتمالی مطرح شد ولی حقیقت این بود که این پروژه همچنان در حوزه گرافیک مجتمع (iGPU) دنبال میشد.
2020 - پایان دههای مهم؛ تراشههای جدید، تهدیدهای جدید، مشکلات بدتر
سال ۲۰۲۰ را همه ما با اوجگیری ویروس COVID-19 به خاطر داریم. اما در پسزمینه این عالمگیری، AMD، اینتل و انویدیا همه کارتهای گرافیکی جدیدی که شامل معماریها و طراحیهای محصول جدید بودند را به بازار عرضه کردند.
از سوی دیگر، مایکروسافت و سونی کنسولهای جدید نسل نهم را با مجموعهای از فنآوریها و ویژگیهای جدید به بازار آوردند. در این میان، ایکسباکس سری S/X بهروزرسانیهای API چندین ساله خود را با انتشار DirectX 12 Ultimateادغام کرده بود و حالا هر دو کنسول آماده شدهاند تا برای مدت زمانی شاید نزدیک به 6 تا 7 سال، پاسخگوی گیمرها باشند.
در جهان حرفهای محاسبات و هوش مصنوعی نیز، ما شاهد محصولاتی مانند AMD Radeon Instinct MI100 و Nvidia A100 بودیم؛ دو کارت شتابدهنده محاسباتی که هر دو دارای تراشههای غولپیکر (به اندازه 750 و ۸۵۶ میلیمترمربع به ترتیب) و با قدرت بسیار زیاد (۱۲۰ واحد محاسباتی با توان ۲۳ ترافلاپس FP32 یا ۴۳۲ هسته تانسور که توان ۳۱۲ ترافلاپس FB16 را فراهم میکردند) بودند.
کارت محاسباتی Instinct MI100 در واقع معماری CDNA جدید AMD را ارائه کرد؛ معماریای که GCN را مانند ققنوسی از خاکستر متولد کرد. ولی انویدیا از طراحی جدید Ampere برای کارت A100 استفاده کرده بود؛ معماریای که به عنوان جایگزینی مستقیم برای Volta به بازار عرضه شد و افزایش کارایی زیادی را برای بارهای کاری هوش مصنوعی ارائه میدهد.
در مورد هوش مصنوعی، انویدیا نسخه بهبود یافتهی DLSS را در بهار همان سال معرفی کرد، که از یک فرآیند بسیار متفاوت با نسخه اول استفاده میکرد. اکنون، تنسورها در کارتهای گرافیک کاربران الگوریتم توسعه نهایی را برای بزرگنمایی تصویر پردازش میکردند و به طور کلی، سیستم جدید خوب پذیرفته شد.
در طول سال ۲۰۲۰، علاقهمندان به حوزه PC برای مشاهده کارتهای گرافیکی جدید باید تا اواخر سال صبر میکردند، اما شکیبایی آنها با ارائه GeForce RTX 3000 و Radeon RX 6000 توسط انویدیا و ایامدی به ثمر رسید. اگرچه تفاوتهای قابل توجهی بین تراشه GA100 در A100 و GA102 که خط RTX را رهبری میکرد، وجود داشت، محصولات جدید انویدیا در این سال معماری Ampere را به عموم مردم معرفی کردند. میتوان حتی گفت که GA200 اصولاً یک بهروزرسانی برای معماری Turing بود که در آن همه هستهها (CUDA، Tensor و RT) توسط انویدیا، بزور و بهینهتر شده بودند.
در مورد واحدهای شیدر عمومی، ALUهای محاسبه عدد صحیح (Integer) اکنون قادر به انجام رویههای FP32 مانند FP شدند و این امر به انویدیا امکان داد که سری 3000 را با دو برابر تعداد هستهها نسبت به نسلهای قبلی تبلیغ کند. اگرچه این ادعا کاملاً درست نبود، اما بدان معنی بود که GA102 پتانسیل ارائه توانایی قابل توجهی در زمینه توان محاسباتی شناور را دارد.
به صورت کلی این کارتها همچنان ارتقاء قابل توجهی نسبت به تورینگ را ارائه میدادند، چون بازیها کاملاً توسط شیدرهای FP32 محدود نمیشوند، عملکرد کلی RTX 3090، 3080، و 3070 پایینتر از مشخصات اعلام شده آنها (روی کاغذ) بود. ذکر این نکته نیز مهم است که اینبار انویدیا قیمت MSRP این کارتها را پایینتر از قیمتهای عرضه اولیه RTX 2000 در نظر گرفته بوده و همین عامل موجب شد بسیاری از کاربران علاقه زیادی به خرید سری 3000 پیدا کنند.
در تیم مقابل، AMD از RDNA استفاده کرد و جنبههای مهم آن مانند مصرف انرژی، فرکانسهای عملیاتی و توان داده را بهینهسازی کرد تا عواملی را که در نهایت تواناییهای کارتهای RX 5000 را محدود میکرد، کاهش دهد. RDNA 2 نشان داد که پیشرفت ثابتی که با معماری Zen انجام شده بود به یک هدف کلی شرکت تبدیل شده و به خوبی مسیر خود را میپیماید.
پردازنده گرافیکی Navi 21 که به نام Big Navi شناخته میشود، تعداد واحدهای محاسباتی قبلی خود را دو برابر کرده و تیم قرمز 128 مگابایت حافظه نهان L3 و پردازندههای بافت سازگار شده را در خود جای داد که به واسطه آنها بررسیهای طی مسیرهای حرکت پرتو نور در عملیات ریتریسینگ انجام دهند که جایگزین بسیار خوبی برای هستههای RT با عملکرد بالا، در خانواده AMD به حساب میآیند.
اگرچه سری RX 6000 در هنگام ردیابی پرتو عملکرد بسیار خوبی از خود نشان نداده و فناوری مانند DLSS در تیم قرمز وجود نداشت که بتواند برای افزایش عملکرد در رزولوشنهای بالاتر مورد استفاده قرار گیرد ولی بهبودهای عنوان شده موجب شد تا AMD در اجرای بیشتر بازیها، در یک زمین بازی با شرایط برابر با Nvidia قرار گیرد.
اقدام جالب توجه و مشترک سونی و مایکروسافت نیز میتواند مهر تاییدی بر عملکرد عالی RDNA 2 و Zen 2 باشد. معماری RDNA 2، البته با CUهای بسیار کمتر و بدون کش اضافی، به کنسولهای جدید ایکسباکس وان اس/ایکس و پلی استیشن 5 کمک میکند که همراه با پردازنده گرافیکی Zen 2 روی همان die، عملکرد سطح بالایی از خود نشان دهند؛ عملکردی که باعث شد تا گیمرها از پتانسیلهایی که دو کنسول بازی نسل نهم ارائه میکردند غافلگیر شوند.
حافظههای GDDR6 و HBM2E نیز در این سال شاهد بهبودهایی بودند. افزایش پهنای باند و کاهش تأخیر، به کارتهای گرافیکی اجازه داد تا دادهها را با سرعتی بیشتر پردازش کنند. این امر به ویژه در مواردی که نیاز به حافظهی بالا بود، مانند واقعیت مجازی و رندرینگ 3D، اهمیت بیشتری پیدا کرد.
در این سال نیز طلسم شکسته شده و اینتل بالاخره یک کارت گرافیک مجزا را به صورت رسمی معرفی کرد. البته در فاز اول، اینتل این کارت را تنها در اختیار سازندگان OEM و AiOها قرار داد تا سالهای بعد به صورت مستقل و مستقیم در اختیار مشتریان نیز قرار دهد. در مقیاس عملکرد اما کارت دسکتاپ Iris Xe که قبلاً با نام DG1 شناخته میشد، اتفاق چندان هیجانانگیز تلقی نمیشد ولی تیم آبی به لطف این سری به خوبی نشان داد که میتواند حرفهای زیادی برای گفتن داشته باشد و حداقل در رده اقتصادی بازار، جذابیتهای خاص خود را دارد.
سال 2022 تا به امروز ؛ تغییرات بزرگ در همه ابعاد صنعت GPU
سال 2022، سالی بود که صنعت پردازنده های گرافیکی با تغییرات بزرگی روبرو شد. معماریهای جدید، حافظههای پیشرفته، و تکنیکهای نوآورانه، کارتهای گرافیکی را به سطحی نوین از عملکرد و کارایی رساندند.
معماریهای جدید معرفی شده در این سال در هر دو شرکت شامل Hooper تیم سبز و RDNA 3 تیم قرمز بودند. معماری Hopper که به عنوان جانشین معماری Ampere معرفی شد، از فناوری 5 نانومتری استفاده میکند. این معماری قدرت پردازشی بالا، بهبودهای در عملکرد Ray Tracing و پشتیبانی از تکنولوژیهای AI را به کارتهای گرافیکی میآورد. در آن سوی میدان، AMD نیز با معماری RDNA 3 به رقابت با Nvidia پرداخت. این معماری هم بر پایه لیتوگرافی 5 نانومتری TSMC روی تراشههای شرکت پیاده شد و توانست قدرت بسیار جذابی را برای کارتهای گرافیک سری RX 7000 رقم بزند.
نکته جالب توجه دیگر در این سال استفاده گسترده از فناوری حافظه رم GDDR7 بود. حافظهی GDDR7 با پهنای باند بالا و کاهش تأخیر، عملکرد کارتهای گرافیکی را بهبود داد. همچنین حافظهی HBM3 وارد گود شد با پهنای باند بالا و مصرف انرژی کم، در کارتهای گرافیکی حرفهای و مصرفی مورد استفاده قرار گرفت.
در ابعاد نرمافزاری نیز انویدیا نسل سوم فناوری افزایش ابعاد خود، موسوم به DLSS 3.0 معرفی کرد و در آن سوی میدان، AMD هم بیکار ننشته و با معرفی فناوری FSR یاFidelityFX Super Resolution به رقابت با DLSS پرداخت. هر دوی این تکنیکها با استفاده از هوش مصنوعی و شبکه عصبی تطبیقی، در سطوح بسیار بالاتری از نسلهای اولیه خود، امکان ارتقای ابعاد تصویر بازیها را فراهم میکردند و نکته مثبت این است که محدودیتهای بسیار کمتری از اولین نسخههای خود دارند و میتوانند با آزادی عمل بیشتری توسط توسعهدهندگان و گیمرها مورد استفاده قرار بگیرند.
آینده پردازنده های گرافیکی؛ امیدی برای بهبود هر آنچه هست و خواهد آمد
نگاهی به آینده و حدس و گمان در مورد دهه آینده ضروری است. چالشهای مربوط به عرضه و قیمتگذاری دائمی نیستند، اما هیچ نشانه فوری از بهبود وجود ندارد.
انتظار عمومی این است که با بهبود گرههای فرایند ساخت و رسیدن به سطوحی مانند 2 و 1 نانومتری طی 10 سال آینده، قدرت پردازشی بسیار بیشتری را نسبت به GPUهای امروزی شاهد باشیم. توجه داشته باشید که همچنان شرکتها بیمی از بزرگتر کردن ابعاد die تراشه GPUها ندارند و به همین دلیل میتوان انتظار داشت که با تراشههایی روبرو شویم که در عین ریزتر شدن ترانزیستورهای آنها، همچنان ابعاد نهاییشان نیز بزرگتر شود.
بحث دیگری که وقوع آن بسیار محتمل است، ورود NPUها به واحدهای پردازش گرافیکی عمومی یا جی پی یو است. این روزها شاهد آن هستیم که تقریباً همه شرکتهای سازنده SoC مانند اینتل، AMD، سامسونگ، کوالکام و حتی مدیاتک و دیگران، روی به استفاده از NPUها برای SoCهای ویژه خود در هر دو پلتفرم دسکتاپ و موبایل آوردهاند. حالا چرا انویدیا و دو بخش گرافیک AMD و اینتل این کار را نکنند؟ در واقع با گسترش استفاده از یک واحد پردازش NPU که میتواند به صورت لحظهای اقدام به پردازش فریمها کرده و شرایط را برای بهبود نمایش آنها میسر کند، هیچ بعید نیست که طی سالیان آینده شاهد GPUهایی باشیم که درون خود واحدهای پردازشی به جز CUDA، Tensor و RT داشته باشند.
از سوی دیگر هوش مصنوعی، یادگیری ماشین و یادگیری عمیق نیز به سرعت در نرمافزارهای توسعه گرافیک و APIهای سیستمعاملها و موتورهای بازی وارد میشوند. گسترش استفاده هر چه بیشتر از این تکنولوژیهای یادگیرنده موجب میشود که در آینده بتوان سطح بالاتری از بهینگی را به دست آورد.
روند توسعه پردازشگرهای گرافیکی مخصوص گوشیهای هوشمند
تا قبل از سال ۲۰۰۶، جی پی یو موبایل به شکل فعلی آن مورد توجه قرار نمیگرفت و در گوشیهای که یک رابط کاربری داشتند از همان توان پردازندهها یا CPU برای نمایش استفاده میشد. اما با پیشرفت تلفنهای هوشمند و تبلتها، نیاز به جی پی یو برای نمایش دادههای تصویری افزایش یافت. کوالکام در این زمینه تلاش کرد و با همکاری ATI، تکنولوژی GPUهای موبایل را بهبود بخشید. در دورههای مختلف شرکتهای متعددی وارد حوزه پردازش گرافیک موبایل شدند که برخی از آنها به سرعت کنار رفتند.
در ادامه سه شرکت مهمی که در حوزه پردازش گرافیک موبایل بیشترین نقش را داشتند مورد بررسی قرار داده و تلاش میکنیم نوآوریهای آنها در هر نسل را بیان کنیم.
کوالکام، منحصر به فرد، پیشرو و تاریخساز
کوالکام، بهعنوان یکی از شرکتهای بزرگ در حوزه فناوری، از سال ۱۹۸۵ فعالیت خود را آغاز کرد. این شرکت در زمینه توسعه تراشههای موبایل و ارتباطات بیسیم فعالیت داشت و در سالهای بعد با معرفی برندهای موفقی چون Snapdragon و Krait، به عنوان یکی از پیشروهای صنعت نیز شناخته شد.
واحد پردازش گرافیکی Adreno، که در پردازندههای Snapdragon کوالکام تعبیه شده، از همکاری مشترک با ATI Technologies در سال 2008 و به عنوان نسخه بازتعریف و توسعهیافته معماری اختصاصی پردازشگرهای گرافیکی کوالکام موسوم به QShader به وجود آمد. در واقع در این سال بود که اتفاقات بزرگی مانند عرضه رسمی سیستمعامل اندروید اتفاق افتاد و کوالکام حس کرد که برای آقایی در بازار پردازشگرهای موبایل باید هر آنچه میخواهد، از CPU گرفته تا GPU را خودش توسعه دهد. تصمیمی که در نهایت منجر به تولد Adreno گردید.
این اتفاق پیش از فروش بخش موبایل AMD به کوالکام در ژانویه 2009 به قیمت 65 میلیون دلار رخ داد. ادعاهایی مبنی بر اینکه Adreno در واقع عبارتی تغییر نام یافته از کلمه Radeon با تغییر جای حروف است و در اصل با محصولات Radeon ATI یکیست نیز صحت ندارد.
مدلهای اولیه Adreno شامل 100 و 110 بودند که قابلیتهای گرافیکی 2D و تواناییهای محدود چندرسانهای داشتند. پیش از 2008، گرافیکهای 3D در پلتفرمهای موبایل معمولاً توسط موتورهای رندر نرمافزاری انجام میشد که عملکرد محدود و مصرف انرژی زیادی داشتند.
با افزایش تقاضا برای قابلیتهای پیشرفتهتر چندرسانهای و گرافیک 3D، کوالکام IP Imageon را از AMD لایسنس کرد تا قابلیتهای 3D سختافزاری را به محصولات موبایل خود اضافه کند. همکاری بیشتر با AMD منجر به توسعه Adreno 200 شد، که ابتدا با نام AMD Z430 شناخته میشد و بر اساس یک نسخه موبایلی از معماری R400 استفاده شده در GPU Xenos کنسول بازی Xbox 360 عاریه گرفته و در 2008 وارد اولین SoC اسنپدراگون شده بود. در ژانویه 2009، AMD کل بخش گرافیک دستگاههای دستی Imageon خود را به کوالکام فروخت.
اولین سری از پردازشگرهای گرافیکی Adreno، در اوایل دهه ۲۰۰۰ معرفی شده و در گوشیهای هوشمند مورد استفاده قرار گرفتند. این پردازشگرها از فناوریهایی مانند OpenGL ES 1.0 و DirectX 9.0c پشتیبانی میکردند.
سری Adreno 2xx در سالهای بعد از سال ۲۰۰۷ معرفی شدند و از OpenGL ES 2.0 و DirectX 9.0c پشتیبانی میکردند. این پردازشگرها از معماری بهبودیافتهای برخوردار بودند که عملکرد و کیفیت تصویر را بهبود میبخشید. سری Adreno 3xx در اوایل دهه ۲۰۱۰ معرفی شد و با انتشار تکنولوژیهایی مانند OpenGL ES 3.0، بهبودهای قابل توجهی در کیفیت و عملکرد گرافیکی ارائه دادند. این سری برای نخستین بار توانایی پشتیبانی از ویژگیهای مثل tessellation را داشتند که کیفیت تصاویر را به طرز قابل توجهی بهبود میبخشید.
سری Adreno 4xx بهبودهای قابل توجهی در کیفیت و عملکرد گرافیکی داشتند. این پردازشگرها از OpenGL ES 3.1 و DirectX 11.2 پشتیبانی میکردند و ویژگیهایی مانند geometry shaders و hardware tessellation را ارائه میدادند که کیفیت تصاویر را به سطح بالاتری میرساندند. همچنین، Adreno 4xx برای نخستین بار از تکنولوژی فشردهسازی تصاویر ASTC (Adaptive Scalable Texture Compression) استفاده کردند که باعث بهبود کیفیت تصاویر با کاهش حجم حافظه مورد نیاز شد.
سری Adreno 5xx، بهبودهای بزرگی در عملکرد و کیفیت گرافیکی موبایل ارائه دادند. این پردازشگرها از فناوریهای جدیدی مانند Vulkan API، DirectX 12 و OpenGL ES 3.2 پشتیبانی کردند که به کاربران امکانات بیشتری را در اختیار میگذاشتند. سری Adreno 6xx اما با معرفی در سال 2020 و همزمان با انویدیا و AMD، تکنولوژیها و معماریهای پیشرفته در زمینه پردازش گرافیکی استفاده میکند. این پردازشگرها از تکنولوژیهایی مانند ray tracing و AI-based rendering پشتیبانی میکنند که به کیفیت و واقعیت تصاویر موبایل کمک میکنند.
سری Adreno 7xx که آخرین نسخه GPUهای کوالکام به حساب آمده در طیف وسیعی از SoCهای شرکت برای بازار موبایل و حتی دسکتاپ طراحی شدهاند را باید اوج هنر مهندسان شرکت دانست. بالاترین نسخه این سری که در زمان نگارش این مطلب Adreno 750 نام دارد از سوی کوالکام وعده افزایش عملکرد تا ۲۵ درصد نسبت به مدل قبلی خود یعنی Adreno 740 و همچنین بهبود ۲۵ درصدی را در کارایی داده است.
همچنین کوالکام با استفاده از پلتفرم ویژه Snapdragon Elite Gaming، امکان اجرای بازیها تا 240 فریم در ثانیه را با استفاده از این GPU ممکن کرده و گفته میشود Adreno Frame Motion Engine 2.0 میتواند بازیهایی با گرافیک بالا را با سرعت 60 تا 120 فریم در ثانیه به راحتی اجرا کند. اتفاق جالب توجه دیگر در این سری آن است که کوالکام میگوید در صورت استفاده از یک نمایشگر استاندارد، امکان ارتقاء مقیاس برای اجرای بازیها تا رزولوشن 8K نیز در این GPU میسر است.
Adreno 750 از تمام APIهای رایج اندروید پشتیبانی میکند و از قبل برای استفاده با Unreal 5 Lumens آماده شده است. این GPU همچنین در تراشه Snapdragon X Elite نیز به کار گرفته شده که کوالکام با ترکیب یک CPU بسیار قدرتمند و همکاری نزدیکی که با مایکروسافت در توسعه سیستمعامل ویندوز مخصوص ARM داشته، در تلاش است قدمهای محکمی برای حضور در حوزه لپتاپها بردارد.
در حالیکه بسیاری از محدودیتهای توان پردازشی در هر دو بخش CPU و GPU با فناوریهای این تیم از بین میرود، بهبود قابل توجهی نیز در شارژدهی دستگاههای تولیدی و رسیدن به آرمان شارژدهی بیشتر از 24 ساعته در یک لپتاپ ردهبالا و مخصوص گیمینگ که وزن اندکی دارد نیز محقق خواهد شد.
؛ تکمیل کننده بازارARM
قبل از سال ۲۰۰۵، شرکت ARM معماریهای پردازندههای کاربردی را تولید میکرد که بیشتر در حوزه پردازش مرکز داده و دستگاههای قابل حمل مورد استفاده قرار میگرفتند. این شرکت در زمینه پردازش گرافیکی فعالیت چندانی نداشت.
با افزایش استفاده از دستگاههای قابل حمل و هوشمند، نیاز به پردازشگرهای گرافیکی قدرتمند در این دستگاهها افزایش یافت. در این زمینه، شرکت ARM با توجه به تجربه و معماریهای موجود در پردازندههای خود، به توسعه تکنولوژیهای پردازش گرافیکی پرداخته و در سال ۲۰۰۶ پردازشگرهای گرافیکی Mali را معرفی کرد. این پردازشگرها از تکنولوژیهایی مانند OpenGL ES و OpenCL پشتیبانی میکردند و برای اولین بار به صورت یک محصول قابل استفاده در دستگاههای هوشمند ارائه شدند.
این شرکت تا به حال از چهار نسل معماری Utgard، Midgard، Bifrost و Valhall در ساخت GPUهای اختصاصی خود استفاده کرده و در سال 2022 اعلام شد که GPUهای اختصاصی این شرکت به صورت سختافزاری قادر به اجرای ریتریسنگ شدهاند.
در سال ۲۰۰۶، شرکت ARM نخستین نسل از پردازشگرهای گرافیکی Mali را معرفی کرد، که به نام Mali-55 شناخته میشد. این پردازشگرها از تکنولوژیهای OpenGL ES ۱.۱ و OpenVG ۱.۰ پشتیبانی میکردند و برای استفاده در دستگاههای هوشمند بهبود عملکرد گرافیکی را ارائه میدادند.
در سال ۲۰۰۸، ARM نسل بعدی از پردازشگرهای گرافیکی Mali را معرفی کرد، که به نام Mali-200 شناخته میشد. این پردازشگرها دارای بهبودهای قابل توجهی در عملکرد و کیفیت تصویر بودند و برای استفاده در دستگاههای هوشمندی همچون گوشیهای هوشمند بهکار میرفتند.
در سالهای بعد، ARM به ارائه نسلهای متعددی از پردازشگرهای گرافیکی Mali پرداخت. به عنوان مثال، در سال ۲۰۱۰، ARM پردازشگرهای گرافیکی Mali-T604 را معرفی کرد که از تکنولوژیهای پیشرفتهتری مانند OpenGL ES 2.0 و OpenCL 1.1 پشتیبانی میکردند و برای استفاده در دستگاههای هوشمند با عملکرد بالا و تجربه گرافیکی بهتر توصیه میشدند.
در سالهای اخیر، ARM به ارائه نسلهای جدیدی از پردازشگرهای گرافیکی Mali پرداخته است، از جمله نسل Mali-Gهای موجود در سریهای گوشیهای هوشمند معروف. این پردازشگرها از تکنولوژیهای پیشرفتهتری مانند Vulkan API و Ray Tracing پشتیبانی میکنند و برای ارتقاء کارایی و کیفیت گرافیکی در دستگاههای هوشمند استفاده میشوند.
در زمان نگارش نسخه اولیه این مطلب (بهار 1403)، پردازنده گرافیکی Immortalis-G720 MP12 (MC12) قدرتمندترین پردازنده گرافیکی ساخت ARM است که برای بازار هدف گوشیهای هوشمند و تبلتها طراحی شده که برای اولین بار به این شکل در چیپست مدیاتک دیمنسیتی 9300 نیز از آن استفاده شده است. این جی پی یو از 12 هسته استفاده میکند و بر اساس نسل پنجم معماری valhall توسعه یافته است. طبق گفتههای شرکت، Immortalis-G720، به میزان 15 درصد عملکرد بالاتری نسبت به نسل قبلی با همان تعداد هسته را ارائه داده و میتواند به پهنای باند حافظه 40 درصد بیشتر دسترسی داشته باشد.
از جذابترین فناوریها در پردازنده گرافیکی 4 نانومتری Immortalis-G720 میتوان به سایهزنی با نرخ متغیر (VRS)، سایهزنی راس معوق (DVS) و ردیابی پرتوی مبتنی بر سختافزار اشاره کرد.
ایمجینیشن تکنولوژیز؛ تلاقی دوست داشتنی نوآوری و شهامت
شرکت Imagination Technologies به عنوان یکی از پیشگامان در زمینه پردازنده های گرافیکی، از سال 1995 با ارائه سری پردازندههای PowerVR، نقشی کلیدی در صنعت گرافیک ایفا کرده است. این پردازنده GPU به دلیل عملکرد بالا، کارایی و پشتیبانی از طیف وسیعی از APIها، به طور گستردهای در طیف وسیعی از دستگاهها، از جمله گوشیهای هوشمند، تبلتها، خودروها و تلویزیونها، مورد استفاده قرار میگیرد.
قبل از سال ۲۰۰۵، شرکت Imagination Technologies بیشتر به تولید تراشههای مورد استفاده در دستگاههای قابل حمل و تجهیزات مخابراتی متمرکز بود. این شرکت در زمینه پردازش گرافیکی و تراشههای گرافیکی فعالیت چندانی نداشت. با گسترش استفاده از دستگاههای هوشمند و نیاز به پردازشگرهای گرافیکی قویتر، شرکت Imagination Technologies به توسعه تکنولوژیهای پردازش گرافیکی پرداخت. این توسعهها شامل بهبود عملکرد، کیفیت تصویر و کارایی بود.
برند PowerVR در واقع بخشی از شرکت Imagination Technologies است که قبلاً VideoLogic نام داشت. این برند به صورت ویژه در زمینه توسعه سختافزار و نرمافزار برای رندرینگ دو بعدی و سه بعدی و همچنین کدگذاری و دیکود کردن ویدئو، پردازش تصاویر مرتبط و شتابدهی DirectX, OpenGL ES, OpenVG, و OpenCL فعالیت دارد. PowerVR همچنین شتابدهندههای هوش مصنوعی به نام Neural Network Accelerator (NNA) را نیز توسعه میدهد.
این شرکت در دهه 1990 با توسعه فناوری رندرینگ مبتنی بر کاشی به نام Tile-Based Deferred Rendering (TBDR) وارد بازار شد و توانست با این روش نوآورانه، کارایی سیستمهای گرافیکی را به طور قابل توجهی افزایش دهد. این روش باعث شد که PowerVR به یکی از مهمترین برندهای صنعت پردازش گرافیک تبدیل شود.
PowerVR با معرفی محصولاتی مانند PCX1 و PCX2 در سالهای 1996 و 1997، که در کامپیوترهای شخصی و سیستمهای آرکید استفاده میشدند، شهرت یافت. با گذشت زمان، این فناوری به سری طراحیهایی تبدیل شد که میتوانستند در معماریهای SoC مناسب برای استفاده در دستگاههای قابل حمل مانند تلفنهای هوشمند و تبلتها تعبیه شوند.
محصولات PowerVR توسط خود شرکت تولید نمیشوند، بلکه بلوکهای IP طراحی مدارهای مجتمع و اختراعات آنها به شرکتهای دیگری مانند Texas Instruments, Intel, NEC, BlackBerry, Renesas, Samsung, Sony, STMicroelectronics, Freescale, Apple, NXP Semiconductors و بسیاری دیگر از شرکتها لایسنس داده میشود.
این روزها PowerVR به دلیل نوآوریهای خود در فناوریهای رندرینگ و همچنین مدل کسبوکار مبتنی بر لایسنسدهی IP، به یکی از مهمترین بازیگران در صنعت پردازش گرافیک تبدیل شده است. این شرکت با ارائه راهحلهای پیشرفته و کارآمد، تاثیر عمیقی بر توسعه فناوریهای گرافیکی در دستگاههای مختلف داشته است.
برخی از فناوریها و محصولات شاخص این شرکت شامل Tile-Based Architecture (معماری ویژه پردازشگرهای گرافیکی که به پردازنده گرافیکی PowerVR اجازه میدهد تا دادهها را به طور کارآمدتر پردازش کند که منجر به عملکرد و کارایی بهتر میشود) و Scalable Vector Execution (فناوری که به پردازنده گرافیکی PowerVR اجازه میدهد تا چندین دستورالعمل را به طور همزمان اجرا کند، که منجر به عملکرد بهتر میشود) است.
Imagination Technologies در سال 1995 اولین پردازنده گرافیکی PowerVR خود را با نام PowerVR PVR1337 معرفی کرد. این پردازنده برای استفاده در کامپیوترهای شخصی طراحی شده بود و به دلیل عملکرد بالا و کارایی خود مورد تحسین قرار گرفت.
در سال 1999 اولین پردازنده گرافیکی PowerVR این شرکت برای دستگاههای جاسازی شده با نام PowerVR MBX معرفی شد. این پردازنده به دلیل مصرف انرژی کم و عملکرد بالا محبوب بود و در طیف وسیعی از دستگاهها مانند دوربینهای دیجیتال و پخشکنندههای MP3 مورد استفاده قرار گرفت. دو سال بعد اولین پردازنده گرافیکی PowerVR برای گوشیهای هوشمند با نام PowerVR NEC-FX1 معرفی شد که به دلیل عملکرد بالا و کارایی خود در دستگاههای با توان کم، انقلابی در صنعت گوشیهای هوشمند ایجاد کرد.
اما برای ایجاد تفاوت بارز نیاز به یک تحول بزرگتر بود که در سال 2006 اتفاف افتاد. در این سال Imagination Technologies اولین پردازنده گرافیکی PowerVR خود را با پشتیبانی از OpenGL ES 2.0 با نام PowerVR SGX531 معرفی کرد. این پردازنده به دلیل پشتیبانی از جدیدترین API گرافیکی، به توسعهدهندگان امکان میداد تا گرافیکهای با کیفیت بالاتری را برای دستگاههای تلفن همراه ایجاد کنند.
تا سال 2010 پشتیبانی از OpenGL ES 3.0 نیز توسط PowerVR SGX543 به محصولات Imagination Technologies اضافه شد. این پردازنده به دلیل پشتیبانی از جدیدترین API گرافیکی، به توسعهدهندگان امکان میداد تا گرافیکهای با کیفیت بالاتری را برای دستگاههای تلفن همراه ایجاد کنند.
Imagination Technologies در سال 2012 نیز اولین پردازنده گرافیکی خود با پشتیبانی از Vulkan را با نام PowerVR Series 6XT معرفی کرد. Vulkan یک API گرافیکی جدید بود که به توسعهدهندگان امکان میداد تا به طور مستقیم به سختافزار گرافیکی دسترسی داشته باشند و عملکرد را بهبود بخشند. در نهایت و در سال 2018 اولین پردازنده گرافیکی PowerVR با پشتیبانی از ray tracing با نام PowerVR IMG8XE معرفی شد.
جمعبندی
تاریخچه کارتهای گرافیکی با نوآوری مداوم و پیشرفتهای سریع در فناوری مشخص شده است. از روزهای اولیه نمایشهای فقط متنی تا آخرین GPUهای قادر به رندر کردن گرافیکهای واقعگرایانه و شتابدهی به وظایف محاسباتی پیچیده، کارتهای گرافیکی راه طولانی را طی کردهاند. امروزه، GPUها اجزای ضروری در طیف گستردهای از برنامههای کاربردی، از بازی و چندرسانهای تا تحقیقات علمی و هوش مصنوعی، هستند. با ادامه رشد تقاضا برای گرافیکهای باکیفیت بالا و تواناییهای محاسباتی قدرتمند، احتمالاً کارتهای گرافیکی به تکامل خود ادامه خواهند داد و نقش فزایندهای در سیستمهای رایانهای مدرن ایفا خواهند کرد.
نظر خود را اضافه کنید.
برای ارسال نظر وارد شوید
ارسال نظر بدون عضویت در سایت