چه یک کارت گرافیک مجزا (dGPU) داخل کیس کامپیوتر خود داشته باشید، چه از گرافیک مجتمع (iGPU) استفاده کنید یا هر دستگاه دیگری مانند گوشی هوشمند یا حتی کنسول بازی، همه این دستگاه‌ها داخل خود یک واحد ویژه برای پردازش گرافیکی (GPU) دارند. در این مطلب قصد داریم به بررسی تاریخچه پیشرفت پردازنده گرافیکی (جی پی یو)، تراشه‌های پردازشی گرافیکی و کاربردهای آنها بپردازیم. با ما در این سفر زمان، همراه باشید.

پردازنده مدرن گرافیک

فهرست مطالب این مقاله:

- مقدمه
تاریخچه مختصر پردازش گرافیکی از 1950 تا به امروز
- بردهای آرکید و آداپتورهای نمایشگر (از 1951 تا 1995)
- انقلاب سه بعدی (از 1995 تا 2006)
- ورود پردازنده گرافیکی عمومی یا GPGPU (از 2006 تا 2013)
- تحول در پردازش گرافیکی ویژه بازی با کنسول‌ها بازی نسل 8 (از 2013 تا 2020)
- 2014؛ سردرگمی انویدیا و AMD و دعاوی حقوقی برای تیم سبز
- 2015: تکرار سال قبل یا جهشی به سوی آینده؟
- 2016 سال طلایی صنعت کارت گرافیک
- 2017: سال فراز و نشیب برای پردازنده‌ های گرافیکی
- 2018-2019: نوآوری و رقابتی داغ در دنیای پردازنده‌ های گرافیکی
- پایان دهه‌ای مهم - تراشه‌های جدید، تهدیدهای جدید، مشکلات بدتر
- سال 2022 تا به امروز ؛ تغییرات بزرگ در همه ابعاد صنعت GPU
آینده پردازنده های گرافیکی؛ امیدی برای بهبود هر آنچه هست و خواهد آمد
روند توسعه پردازشگرهای گرافیکی موبایل
جمع‌بندی

مقدمه

در دنیایی که هر روز بیشتر با داده‌ها و تصاویر پیچیده درهم تنیده می‌شود، پردازنده‌ های گرافیکی یاجی پی یو   ها به عناصر حیاتی در محاسبات مدرن تبدیل شده‌اند. از بازی‌های ویدئویی گرفته تا طراحی‌های مهندسی پیچیده و یادگیری ماشین، GPUها نقشی کلیدی در پردازش و نمایش داده‌های گرافیکی دارند. این مقاله به بررسی تاریخچه کامل پردازنده‌ های گرافیکی، کارت‌ها گرافیک و استفاده‌های متنوع آن‌ها می‌پردازد.

GPUها از آن دسته از فناوری‌هایی هستند که تحولی اساسی در نحوه تعامل ما با دنیای دیجیتال ایجاد کرده‌اند. از ارائه تصاویر سه‌بعدی واقع‌گرایانه در بازی‌ها گرفته تا تسریع الگوریتم‌های پیچیده در تحقیقات علمی، GPUها قدرت و سرعت لازم برای پردازش موازی داده‌های گرافیکی را فراهم می‌کنند.

همین تصویری که شما در حال تماشای آن روی نمایشگر کامپیوتر یا گوشی هوشمند خود هستید، حاصل یک عملیات پردازش گرافیکی است که بسته به نوع دستگاه‌تان، از خروجی یک پردازشگر گرافیکی مستقل یا مجتمع به دست آمده است.

اما اگر در این دسته از عملیات پردازشی عمیق شویم، باید فراموش نکنیم که راه درازی در تاریخ علوم کامپیوتر طی شده تا به اینجا رسیده‌ایم. از اولین پردازشگرهای مستقل گرافیکی در دهه 1970 گرفته تا به امروز که بیش از 50 سال از استفاده از آن می‌گذرد، همواره تلاش مهندسان و محققان علوم رایانه این بوده که بتوان کیفیت و دقت یک سیستم پردازشگر گرافیکی را به حدی بالاتر برد که به واقعیت بیشتر نزدیک شویم.

واحد پردازش گرافیکی

این روزها فناوری‌های سخت‌افزاری و نرم‌افزاری با کمک گرفتن از هوش مصنوعی و تکنیک‌های یادگیری ماشین و یادگیری عمیق، تلاش می‌کنند تا تصاویر را به الگوهای واقعی نزدیک‌تر کنند. باید اذعان کرد که دامنه رشد نمایش گرافیکی نیز با تصاعدی شدن، بیشتر از هر زمانی به سمت اهداف خود حرکت می‌کند.

در همین رابطه بخوانید:

- راهنمای خرید کارت گرافیک کامپیوتر

در ادامه این مطلب تلاش می‌کنیم تا نگاهی مختصر به تاریخچه پردازشگرهای گرافیکی و کارت‌های گرافیک داشته باشیم و با هم ببینیم که این صنعت دوست‌داشتنی از علوم کامپیوتر چطور تا به اینجا پیشرفت کرده و این روزها به یکی از حیاتی‌ترین حوزه‌های فناوری روز تبدیل شده است.

تاریخچه مختصر پردازش گرافیکی از 1950 تا به امروز

بردهای آرکید و آداپتورهای نمایشگر (از 1951 تا 1995)

از اوایل دهه ۵۰ میلادی، تحولاتی در زمینه سخت‌افزارهای ویژه نمایش محتوای گرافیکی آغاز شد. در سال ۱۹۵۱ و در دوران شروع جنگ سرد، پروژه شبیه‌ساز پرواز موسوم به Whirlwind با هزینه بیش از 3 میلیون دلاری دولت آمریکا مد نظر قرار گرفت و توسط آزمایشگاه Servomechanisms دانشگاه MIT با ابداع یک دستگاه بزرگ محاسبه‌گر، این سفارش را برای آموزش خلبانان نیروی دریایی ارتش ایالات متحده ساخت. Whirlwind I را می‌توان نخستین سیستم گرافیکی سه‌بعدی دنیا دانست. این کامپیوتر، یکی از اولین کامپیوترهای الکترونیکی دیجیتالی بود که خروجی دستورات را به صورت real-time در اختیار کاربرش قرار می‌داد.

پردازنده های گرافیکی
یک نظامی ارتش آمریکا در حال کار با Whirlwind I؛ اولین کامپیوتر دارای نمایشگر دنیا در 1951

با این حال، پایه‌های GPUهای امروزی در میانه دهه ۷۰ با ابزارهایی مانند شیفترهای ویدئویی و تولیدکننده‌های آدرس ویدئویی شکل گرفت. این تجهیزات اطلاعات را از پردازنده مرکزی به نمایشگر منتقل می‌کردند. در آن دوران اولین تراشه‌های گرافیکی اختصاصی به طور گسترده‌ای در بردهای سیستم آرکید استفاده می‌شدند. در سال ۱۹۷۶، شرکت RCA تراشه ویدئویی "Pixie" را ساخت که قادر به خروجی سیگنال ویدئو با وضوح ۶۲ در ۱۲۸ پیکسل بود. سخت‌افزار گرافیکی سیستم آرکید Namco Galaxian از سال ۱۹۷۹ از رنگ RGB، اسپرایت‌های چندرنگ و پس‌زمینه‌های کاشی‌وار پشتیبانی می‌کرد.

جی پی یو
یک اتاقک ویژه بازی‌های آرکید Namco Galaxian 3 با ظرفیت 6 نفر

در سال ۱۹۸۱، IBM شروع به استفاده از آداپتور نمایش مونوکروم و رنگی (MDA/CDA) در کامپیوترهای شخصی خود کرد. هرچند این قطعه هنوز یک جی پی یو مدرن محسوب نمی‌شد، اما یک جزء خاص کامپیوتری بود که برای یک هدف ویژه طراحی شده بود: نمایش ویدئو. در ابتدا، این آداپتور قادر به نمایش ۸۰ ستون در ۲۵ خط از کاراکترهای متنی یا نمادها بود. برد کنترلر گرافیکی ویدئویی ISBX 275 که توسط اینتل در سال ۱۹۸۳ عرضه شد، دستگاه بعدی انقلابی در نمایش محتوای گرافیکی بود. این برد می‌توانست هشت رنگ با وضوح ۲۵۶ در ۲۵۶ یا مونوکروم با وضوح ۵۱۲ در ۵۱۲ نمایش دهد.

پردازنده GPU
آداپتور گرافیکی اینتل ISBX 275

در سال ۱۹۸۵، سه مهندس مهاجر هنگ‌کنگی در کانادا شرکت Array Technology Inc را تأسیس کردند که بعدها به ATI Technologies تغییر نام داد. این شرکت برای سال‌ها با خط تولید کارت‌های گرافیکی و تراشه‌های Wonder خود در بازار پیشتاز بود.

در همین رابطه بخوانید:

- طول عمر مفید کارت گرافیک چقدر است؟

شرکت S3 Graphics در سال ۱۹۹۱، کارت S3 86C911 را که نام آن از خودروی Porsche 911 گرفته شده بود، معرفی کرد. جالب است بدانید که این شرکت یک تکنیک جالب را برای مشهور کردن خود استفاده کرده بود؛ استفاده از نام‌های شناخته شده مانند مدل خودروی مشهور پورشه 911. این تصمیم به این خاطر اتخاذ شد تا S3 نشان دهد که با یک برد با کیفیت و ویژه روبرو هستیم!

تاریخچه پردازنده مدرن گرافیک
کارت گرافیک جذاب S3 86C911

معرفی این کارت موجب ظهور تقلیدکنندگان زیادی شد و تا سال ۱۹۹۵، تمام بازیگران اصلی در ساخت کارت‌های گرافیکی از پشتیبانی شتاب‌دهی 2D ساخت تراشه‌های خود استفاده می‌کردند. طی دهه ۹۰، سطح یکپارچگی کارت‌های ویدئو با افزودن رابط‌های برنامه‌نویسی کاربردی (APIها) به طور قابل توجهی بهبود یافت.

در کل، اوایل دهه 1990 زمانی بود که شرکت‌های زیادی در زمینه سخت‌افزار گرافیکی تأسیس شدند؛ بسیاری از این شرکت‌ها بعدها توسط شرکت‌های بزرگ خریداری شده یا به دلیل عدم توانایی در ارائه یک نوآوری ملموس، ساخت محصولاتی مناسب و حتی مشکلات بازاریابی، از این کسب‌وکار خارج شدند. یکی از برندهایی که در این زمان تأسیس شد، NVIDIA بود. انویدیا تا پایان سال ۱۹۹۷، توانست نزدیک به ۲۵ درصد از بازار گرافیک را در اختیار خود بگیرد.

انقلاب سه بعدی (از 1995 تا 2006)

تاریخچه پردازنده مدرن گرافیک از سال ۱۹۹۵ با معرفی اولین کارت‌های افزودنی سه‌بعدی آغاز شد و بعد با پذیرش سیستم‌عامل‌های ۳۲ بیتی و کامپیوترهای شخصی که مردم عادی نیز می‌توانستند آنها را خریداری کنند، ادامه یافت. پیش از این، صنعت کارت‌های گرافیک و شتاب‌دهنده‌های گرافیکی بیشتر روی نمایش گرافیک دو بعدی و برای اهداف نمایشی در محصولاتی به جز کامپیوترهای شخصی(PC)  متمرکز بود و کارت‌های گرافیکی عمدتاً با نام‌های الفبایی-عددی و برچسب‌های قیمتی بسیار بالایشان شناخته می‌شدند.

کارت گرافیکی Voodoo از شرکت 3DFx که در اواخر سال ۱۹۹۶ روانه بازار شد، حدود ۸۵ درصد از بازار را به خود اختصاص داد. کارت‌هایی که تنها قادر به رندر کردن محتوای تصویری دو بعدی بودند، بسیار سریع منسوخ شدند.

در همین رابطه بخوانید:

- تفاوت معماری پردازنده RISC و CISC
معرفی بهترین CPU های گیمینگ موجود در بازار بر اساس بودجه‌های مختلف

در این میان کارت Voodoo 1 به طور کامل گرافیک دو بعدی را کنار گذاشته بود و به طرز عجیبی وقتی شما می‌خواستید تا یک دستگاه همه‌فن‌‌حریف برای اجرای محتوای دو بعدی و سه بعد کنار هم داشته باشید مجبور بودید تا یک کارت با توانایی پخش محتوای دو بعدی را نیز در کنار وودو 1 بخرید و نصب کنید. البته کارت گرافیک وودو 1 با وجود عیبی که ذکر شد، همچنان برای افراد علاقه‌مند به اولین نسل بازی‌های سه‌بعدی در آن زمان به مثابه یک نعمت بی‌بدیل تلقی می‌شد.

تاریخچه کارت گرافیک سه بعدی
یک نمونه کارت 3DFx Voodoo 2 و بسته بندی ملحقات آن

محصول بعدی شرکت 3DFx کارت موسوم به Voodoo 2 بود که در سال 1998 معرفی شده و از سه تراشه روی برد خود استفاده می‌کرد. این کارت یکی از اولین کارت‌های ویدئویی بود که از امکان انجام کار موازی دو کارت (پخش محتوای دو بعدی و پخش محتوای سه بعدی) درون یک کامپیوتر پشتیبانی می‌کرد.

پردازنده گرافیکی گوشی
با تراشه‌های Verite از شرکت Rendition اجرای بازی با چنین گرافیکی میسر شد

با پیشرفت فناوری تولید، ویدئو، شتاب‌دهی رابط کاربری گرافیکی 2D و عملکرد 3D همگی در یک تراشه یکپارچه شدند. تراشه‌های Verite از شرکت Rendition از جمله اولین‌ها بودند که این کار را به خوبی انجام دادند. کارت‌های شتاب‌دهنده 3D دیگر تنها رسترایزر نبودند.

سرانجام، «اولین GPU جهان» در سال ۱۹۹۹ معرفی شد! شاید از خودتان بپرسید که چرا با وجود این حجم انبوه از انواع کارت‌های گرافیک که پیش از این توسط 3dfx و شرکت‌های دیگر معرفی شده بودند، چنین عبارتی را در این بخش از مقاله تاریخچه کارت گرافیک شهر سخت‌افزار عنوان کردیم؟ در واقع پاسخ به این سوال در کنار اینکه یک ترفند عالی تبلیغاتی توسط شرکت هوشمند Nvidia برای کارت گرافیک GeForce 256 بود به یک عامل مهم فنی دیگری نیز ارتباط داشت.

پردازنده گرافیکی قدیمی
کارت گرافیک GeForce 256 شرکت انویدیا؛ اولین GPU دنیا

 در کارت جیفورس 256، شرکت Nvidia تعریف واحد پردازش گرافیکی را به عنوان «یک پردازنده تک‌تراشه با تبدیل یکپارچه، نورپردازی، تنظیم/برش مثلث و موتورهای رندرینگ که قادر به پردازش حداقل ۱۰ میلیون چندضلعی در ثانیه است» معرفی کرد.

رقابت بین ATI و Nvidia نقطه عطف اوایل دهه ۲۰۰۰ در صنعت کارت گرافیک بود. طی این زمان، هر دو شرکت با یکدیگر به شدت درگیر شده و تنور رقابتی را گرم کردند که موجب تولد کارت‌های گرافیکی با ویژگی‌هایی که اکنون متداول شد. به عنوان مثال، توانایی انجام سایه‌زنی مخصوص، انفجار حجمی، نمایش امواج، شکست نور، تجسم حجم سایه‌ها، ترکیب رأس‌ها، نقشه‌برداری برجستگی‌های تصویر و نقشه‌برداری از ارتفاع سوژه‌ها در کادر از فناوری‌هایی هستند که واسطه رقابت این دو تیم قرمز و سبز وارد دنیای پردازش گرافیکی شدند.

ورود پردازنده گرافیکی عمومی یا GPGPU (از 2006 تا 2013)

پس از خواندن تاریخچه‌ای از پردازنده‌ های گرافیکی پیشرو که بالاتر به آنها اشاره کردیم، بهتر است حالا سراغ نسل جدید بیاییم. در واقع می‌توان گفت که عصر پردازنده‌های گرافیکی با کاربردهای عمومی از سال ۲۰۰۷ آغاز شد. در واقع از این سال بود که هر دو شرکت Nvidia و ATI (که بعداً توسط AMD خریداری شد) کارت‌های گرافیکی خود را با قابلیت‌های اضافی برای بهبود تجربه نمایش و محاسبات بهبود یافته مجهز کردند.

در همین رابطه بخوانید:

- چگونه دمای کارت گرافیک کامپیوتر را کنترل کنیم؟

با این حال، این دو شرکت مسیرهای متفاوتی را برای پردازنده‌ های گرافیکی با کاربردهای عمومی (GPGPU) در پیش گرفتند. در سال ۲۰۰۷، Nvidia محیط توسعه و لایه نرم‌افزاری هسته CUDA خود را منتشر کرد که اولین مدل برنامه‌نویسی گسترده‌ای بود که برای محاسبات GPU به کار گرفته شد. دو سال بعد، پشتیبانی از فریمورک OpenCL به طور گسترده‌ای در کارت‌های گرافیک نیز شروع شد. این چارچوب امکان توسعه کد برای هر دو واحد پردازشی GPU و CPU را با تأکید بر قابلیت پورت کردن کدها فراهم می‌کند. بنابراین، GPUها به دستگاه‌های محاسباتی بیشتر عمومی‌سازی شده تبدیل شدند که حالا می‌توانستند داده‌های بسیار را بگیرند و عملیات پردازشی مورد نظر را روی آنها انجام دهند.

سازنده پردازنده گرافیکی
رونمایی از کارت‌های پردازش MMX2 با تراشه Tegra 2 انویدیا برای صنعت خودرو

در سال ۲۰۱۰، همکاری Nvidia با شرکت خودروسازی Audi شروع شد که شاید بتوان آن را نقطه عطفی در ساخت پردازنده GPU دانست. اما شاید از خودتان بپرسید که همکاری با یک شرکت خودروسازی چه ارتباطی با گرافیک کامپیوتر دارد؟ جواب این سوال در بخشی است که به محض نشستن پشت یک خودرو همه ما با آن سر و کار داریم.

در واقع هدف انویدیا و آئودی این بود که از پردازنده‌ های گرافیکی Tegra برای تأمین توان پردازش گرافیک و در عین حال برخی محاسبات مورد نیاز برای نمایش محتوا در داشبورد خودروها و افزایش کیفیت و عملکرد سیستم‌های ناوبری و سرگرمی خودروهای تولیدی این کمپانی آلمانی استفاده شود. در نهایت تجارب بسیاری از توسعه چیپ‌های Tegra توسط تیم سبز کسب شد که بعدها بنیان و اساس تولید بسیاری از فناوری‌ها در حوزه پردازشی را شکل دادند.

انواع پردازنده گرافیکی
مسیریابی درون داشبورد خودروی Audi Q7 به لطف استفاده از تراشه Tegra 3 انویدیا

همکاری انویدیا و آئودی در واقع دریچه ورود پردازنده‌های پیشرفته به صنعت خودرو بود و این همکاری حالا به حدی به پیش رفته که می‌توان گفت پیشرفت‌های چشمگیر در تکنولوژی پردازنده‌های گرافیکی (GPU) به طور مستقیم با پیشرفت فناوری خودروهای خودران مرتبط است. در سیستم‌های پردازشی مورد نیاز برای عملیات برنامه‌ریزی خودروهای خودران، نیاز به پردازش انبوهی از اطلاعات ریز حسگرهاست که تجربه نشان داده GPUها در پیاده‌سازی آنها به مراتب عملکرد بهتری از CPUها دارند.

در همین رابطه بخوانید:

- کارت گرافیک اینتل بخریم یا نه؟

در سال ۲۰۱۰ شرکت AMD سری تراشه‌های پردازش گرافیکی Radeon HD 6000 را معرفی کرد و یک سال بعد، شاهد عرضه سری 6000M این شرکت برای دستگاه‌های قابل حمل بودیم. کمپانی رقیب، Nvidia، در سال ۲۰۱۲ پردازنده گرافیکی Kepler را با معماری جدید به بازار عرضه کرد که در کارت‌های سری ۶۰۰ و ۷۰۰ این شرکت مورد استفاده قرار گرفت. یکی از ویژگی‌های برجسته این ریزمعماری، تکنولوژی GPU Boost بود که به صورت هوشمندانه‌ای سرعت کلاک هسته‌های پردازشگر گرافیک را بر اساس میزان مصرف انرژی آن تنظیم می‌کرد. ریزمعماری Kepler با فرآیند ساخت ۲۸ نانومتری تولید می‌شد.

تحول در پردازش گرافیکی ویژه بازی با کنسول‌ها بازی نسل 8 (از 2013 تا 2020)

در سال ۲۰۱۳ سونی و مایکروسافت کنسول‌های بازی پلی‌استیشن ۴ و ایکس‌باکس وان را به بازار عرضه کردند که به نوعی توانست انقلابی بزرگ در حوزه گیم ایجاد کند. به نحو جالب توجهی هر دو این شرکت‌ها از پردازنده‌ های گرافیکی مبتنی بر Radeon HD 7850 و 7790 شرکت AMD در ساخت کنسول‌های بازی خود بهره می‌بردند. این کنسول‌ها امکان بازی با کیفیت بالا و نرخ 30 فریم در رزولوشن 1080p را فراهم می‌کردند و همزمان شرکت‌ها سونی و مایکروسافت همکاری نزدیکی را با AMD شروع کردند تا بتوان از انبوه قابلیت‌های نرم‌افزاری برای بهبود و بهینه‌سازی محتوای گرافیکی و خلق تصاویر جذاب‌تر و واقعی‌تر در بازی‌ها استفاده کرد.

چرا GPU اختراع شد؟

در آن سوی میدان نیز خط تولید Kepler کمپانی Nvidia نیز جای خود را به سری Maxwell داد که همچنان با همان فرآیند ساخت ۲۸ نانومتری ساخته می‌شد. این فرآیند جدید در مقایسه با نسل گذشته (۴۰ نانومتر) امکان افزایش ۲۰ درصدی عملکرد را با مصرف انرژی کمتر فراهم می‌کرد. در همین دوران نیز دستگاه‌ها جدید به نام هدست‌های واقعیت مجازی یا همان VR که به سخت‌افزار قدرتمندی نیاز داشتند وارد بازار شدند. برای پردازش محتوای مورد نیاز این هدست‌ها، پیشنهادها آخرین نسل پردازنده‌های دو شرکت انویدیا و AMD بود که در کارت‌های گرافیک GTX 970 و R9 290X به عنوان حداقل سخت‌افزار مورد نیاز معرفی شد و مورد استفاده قرار می‌گرفت.

2014؛ سردرگمی انویدیا و AMD و دعاوی حقوقی برای تیم سبز

تا سال 2013، طراحی پردازشگرهای گرافیکی (GPU) به صورت ویژه برای ارائه عملکرد روی رایانه‌های شخصی و ایستگاه‌های کاری متمرکز بوده و تحت‌تأثیر رابط‌های برنامه‌نویسی گرافیکی و افزایش کاربرد در محاسبات و هوش مصنوعی قرار داشت. با این حال، به سرعت GPUها به اجزای پیچیده و پرهزینه‌ای در طیف وسیعی از دستگاه‌ها تبدیل شدند.

مخترع GPU کیست؟
در سال 2014 کارت AMD R9 295X2 با خنک‌کننده مایع قادر به اجرای بازی‌های 4K بود

در سال 2014، شرکت‌های بزرگ این حوزه معماری‌های جدیدی را در کنار فناوری‌های قدیمی‌تر عرضه کردند. AMD عمدتاً به طرح‌های قبلی مانند Graphics Core Next (GCN) 1.0 و TeraScale 2 متکی بود. از دید فنی که نگاه کنیم، کارت گرافیک Radeon R9 280 آنها در واقع مدلی قدیمی با نام تجاری جدید بود، اما با قیمتی پایین‌تر عرضه شد.

بعدها، R9 295X2 به عنوان یک کارت قدرتمند با دو GPU و سیستم کولینگ مایع عرضه شد، اما قیمت بالای آن جذابیتش را محدود کرد. البته AMD در همین سال کارت جالبی نیز با نام R9 285 و معماری GCN به‌روزرسانی شده همراه با بهبودهای جزئی عرضه کرد که از سوی بسیاری از کاربران مورد توجه قرار گرفت.

در همین رابطه بخوانید:

- معرفی تعدادی از عجیب ترین کارت های گرافیک دنیا

در این سال و در حالی که AMD با مشکلات مالی دست و پنجه نرم می‌کرد، Nvidia شاهد رشد درآمد بود. حرکت هوشمندانه انویدیا این بود که آنها از معماری‌های قدیمی‌تر در کنار معماری جدید Maxwell استفاده می‌کردند؛ برای مثال انویدیا از معماری Maxwell در یک محصول میان‌رده به نام GeForce GTX 750 Ti استفاده کرد و همزمان کارت پرچمدار خود برای این سال را با سرعت کلاک کمی بالاتر به‌روزرسانی و آن را Titan Black نامیدند.

پردازنده مدرن جی پی یو
برد کارت Nvidia Titan Z با دو GPU و 5760 پردازنده جریانی

مشکلی که بیشتر از همه از این سال برای کاربران با بودجه کمتر مطرح شد، قیمت بالای محصولات انویدیا بود. برای مثال در سال 2014 شرکت انویدیا برای رقابت با R9 295X2، کارت جذابی با نام Nvidia Titan Z را با قیمت تعجب‌آور 2999 دلار راهی بازار کرد. جالب است که حتی نمونه‌های اندکی نیز برای بررسی به ریویوئرها ارسال شد و این کارت نیز به دلیل همین قیمت بسیار بالا عملاً از سوی مخاطبان با استقبال خوبی روبرو نشد.

در تابستان 2014 انویدیا دست به کار جالب توجهی زد و مجددا با استفاده از تراشه‌هایی ماکسول، سری جدیدی از محصولات خود با نام GeForce GTX 900 را راهی بازار کرد. از این سری، دو کارت GTX 980 و 970 قیمت نسبتاً رقابتی داشتند و همزمان عملکرد خوبی را در اختیار کاربران می‌گذاشتند ولی موردی که شاید در خاطر بسیاری از افراد قدیمی حوزه سخت‌افزار مانده باشد جنجالی بود که با «یک ویژگی پنهان» در کارت GTX 970 سر زبان‌ها افتاده و پیامدهای بسیاری برای انویدیا داشت.

در هنگام معرفی و در سایت انویدیا، برای کارت GTX970 مشخصات رسمی، همراه شدن آن با 4 گیگابایت حافظه را عنوان کرده بودند ولی یک نکته عجیب در خصوص این کارت آن بود که به دلیل پیکربندی گذرگاه حافظه، سیستم کاربر فقط به 3.5 گیگابایت از حافظه دسترسی داشت. این 0.5 گیگابایت "گم‌شده" روی سیستم بود ولی عملاً امکان استفاده از آن محدود شده بود. این فریبکاری به شهرت Nvidia آسیب رساند و منجر به دعاوی حقوقی و پیشنهادات غرامت شد.

مقایسه توان پردازشی کارت‌های مختلف در اجرای بازی بتلفیلد 4 در سال 2015

در نهایت، اینتل نیز در سال 2014 معماری GPU یکپارچه جدیدی با نام رمز Gen8 را عرضه کرد. این طرح نسبت به نسل قبلی خود پیشرفت‌هایی را ارائه می‌داد. به طور کلی، سال 2014 سالی با پیشرفت ناهموار در GPUها بود. معماری‌های جدید پدیدار شدند، اما برخی از شرکت‌ها به شدت به طرح‌های قدیمی متکی بودند. جنجال‌هایی مانند مشکل حافظه GTX 970 نیاز به شفافیت در مشخصات GPU را برجسته کرد.

2015: تکرار سال قبل یا جهشی به سوی آینده؟

در سال 2015، پیشرفت در دنیای پردازشگرهای گرافیکی (GPU) تا حد زیادی تکرار همان رویه‌ی سال قبل بود. ای‌ام‌دی تعداد زیادی کارت گرافیک جدید روانه‌ی بازار کرد که اکثر آن‌ها برپایه‌ی معماری‌های قدیمی GCN 1.0 و البته برخی نیز بر پایه GCN 2.0 ساخته شده بودند.

اما در این میان یک استثنا وجود داشت: Radeon R9 Fury X. این کارت گرافیک از معماری جدید Fiji (بر پایه GCN 3.0) و فناوری حافظه‌ی HBM (پهنای باند بالا) بهره می‌برد و با داشتن تعداد بسیار زیاد واحدهای سایه‌زنی (4096 واحد) عملکرد بالایی را ارائه می‌داد. با وجود مصرف انرژی بالا و سیستم خنک‌کننده‌ی حجیم، فروش Fury X بسیار خوب بود.

در همین رابطه بخوانید:

- نشانه های نزدیک شدن کارت گرافیک به مرگ
فناوری DLSS (دی ال اس اس) انویدیا چیست و چگونه کار می‌کند؟

ای‌ام‌دی همچنین در سال 2015 نسخه‌ی بدون حق امتیاز و کم‌هزینه‌ی فناوری نرخ تازه‌سازی متغیر را با نام FreeSync معرفی کرد. در سوی دیگر میدان، انویدیا سال نسبتاً آرامی را پشت سر گذاشت. اکثر کارت‌های گرافیک جدید آن‌ها مدل‌های میان‌رده و مقرون‌به‌صرفه بودند. قابل‌توجه‌ترین محصول انویدیا در این سال کارت گرافیک خاطره‌ساز GeForce GTX 960 بود که با قدرت و بازدهی مناسب، پیشرفت معماری Maxwell را به اوج خود رسانده بود.

در این سال همچنین دو کارت GeForce GTX Titan X و GeForce GTX 980 Ti، (که هر دو از یک تراشه‌ی مشابه استفاده می‌کردند) نیز به عنوان دو مدل پرچم‌دار انویدیا، در انتهای مقیاس عملکرد قرار داشتند. تنها نکته منفی در مورد این کارت‌ها قیمت بالای آنها و عدم امکان تهیه برای اغلب کاربران بود. در واقع می‌توان گفت که این کارت‌ها، برای بازار خاصی ساخته شده بودند و رقیب مستقیم Radeon R9 295X2 و 290X ای‌ام‌دی به شمار می‌رفتند.

پردازنده مدرن gpu

فارغ از بحث سخت‌افزاری، در سال 2015 شاهد معرفی و عرضه‌ی نرم‌افزارهایی بودیم که مسیر آینده‌ی معماری و کارکرد GPUها را شکل می‌داد. در این سال، گروه کرونوس با معرفی رسمی API گرافیکی Vulkan، هیجانی وصف‌ناپذیر در صنعت پردازش گرافیک به پا کرد. این API جدید مزایای قابل توجهی نسبت به OpenGL و Direct3D ارائه می‌داد و امکان کنترل مدیریت حافظه و خود پردازنده گرافیکی را به توسعه‌دهندگان نرم‌افزار می‌داد.

در همین راستا، مایکروسافت نیز نسخه‌ی جدید سیستم‌عامل خود، ویندوز 10، را به همراه API گرافیکی DirectX 12 روانه‌ی بازار کرد. این API امکاناتی مشابه Vulkan را فراهم می‌آورد، اما محدود به ویندوز 10 بود.

واحد پردازش gpu

یکی از قابلیت‌های جذاب DirectX 12، محاسبات ناهمگام (asynchronous compute) بود. این قابلیت امکان اجرای همزمان عملیات گرافیکی و محاسباتی را فراهم می‌کرد که پتانسیل افزایش قابل توجه عملکرد را در بر داشت. با این حال، تنها پردازنده‌ های گرافیکی ای‌ام‌دی می‌توانستند از این ویژگی به طور کامل بهره ببرند.

در انتهای سال، گوگل نرم‌افزار هوش مصنوعی و یادگیری ماشین خود، TensorFlow، را به صورت متن‌باز (open source) عرضه کرد و امکان دسترسی همگان به این کتابخانه‌ی قدرتمند را فراهم ساخت.

به طور کلی، سال 2015، گرچه از نظر سخت‌افزار تکرار سال قبل به نظر می‌رسید، اما با معرفی نرم‌افزارهای پیشرفته و امکانات جدید، زمینه‌ساز جهش‌های بزرگ در سال‌های آینده‌ی دنیای پردازنده‌ های گرافیکی شد.

در همین رابطه بخوانید:

- هسته تنسور (Tensor Core) در پردازنده گرافیکی چیست و چه کاربردهایی دارد؟
هسته RT در گرافیک انویدیا چیست و هسته های آر تی چه کاربردی دارند؟

2016 سال طلایی صنعت کارت گرافیک

سال 2016 برای علاقه‌مندان سخت‌افزار کامپیوتر سالی فراموش‌نشدنی بود. در این سال، هر دو کمپانی پیشرو یعنی AMD و Nvidia محصولات برجسته‌ای به بازار عرضه کردند.

ای‌ام‌دی با تمرکز بر مدیریت هزینه‌ها، معماری گرافیکی GCN را ارتقا داد و نسل جدیدی با نام GCN 4.0 را معرفی کرد. مهم‌ترین محصول این نسل، کارت گرافیک میان‌رده Radeon RX 480 بود که با قیمتی مناسب، عملکرد قابل قبولی ارائه می‌داد. تمرکز اصلی ای‌ام‌دی در این سال بر بهبود معماری CPUهای خود بود و بخش گرافیک شرکت نیز سودآوری را از طریق افزایش راندمان تولید و تغییرات جزئی در معماری دنبال می‌کرد.

در سوی دیگر، انویدیا با معماری جدید Pascal پیشرفت‌های چشمگیری رقم زد. این معماری با استفاده از ترانزیستورهای FinFET، عملکرد و بازدهی انرژی را به طرز قابل توجهی افزایش داد. اولین محصول مبتنی بر این معماری، GeForce GTX 1080 بود که با قدرت قابل توجه خود، به پرفروش‌ترین کارت گرافیک سال تبدیل شد. انویدیا طی سال 2016 مدل‌های دیگری از این خانواده را با نام‌های GTX 1070، 1060 و 1050 عرضه کرد که همگی مورد استقبال گسترده قرار گرفتند.

واحد پردازش جی پی یو
جنسون هوانگ، موسس و مدیر عامل انویدیا در مراسم معرفی از کارت Titan X

در این سال، برای اولین بار شاهد عرضه کارت گرافیکی بسیار گران‌قیمت از انویدیا با نام Titan X بودیم. این کارت با قیمتی سرسام‌آور، مشخصات خیره‌کننده‌ای داشت اما بازدهی آن به‌طور کامل با قیمت نجومی‌اش همخوانی نداشت.

بازار کارت گرافیک در سال 2016 محصولاتی برای تمامی بودجه‌ها ارائه می‌کرد و عملکرد و پایداری پردازنده‌های گرافیکی به بالاترین سطح خود تا آن زمان رسیده بود. با وجود کاهش سهم بازار AMD در این سال، به دلیل محبوبیت Radeon RX 400، درآمد این شرکت رشد قابل توجهی داشت. اما به طور کلی، فروش کارت گرافیکی مجزا (غیر-یکپارچه) با توجه به کاهش فروش کامپیوترهای شخصی در سراسر جهان، روندی نزولی داشت.

2017: سال فراز و نشیب برای پردازنده‌ های گرافیکی

سال 2017 برای کمپانی‌های سازنده‌ی پردازنده‌ های گرافیکی (GPU) سالی با اتفاقات مثبت و منفی فراوان بود. از یک طرف شاهد پیشرفت‌های تکنیکی و محصولات جدید بودیم، اما از طرف دیگر، افزایش چشمگیر استخراج رمزارزها باعث کمبود و گرانی شدید کارت‌های گرافیک شد.

ای‌ام‌دی با به‌روزرسانی معماری گرافیکی خود (GCN) به نسخه‌ی 5.0 و استفاده از حافظه‌ی جدید HBM2، کارت‌های گرافیک Radeon RX Vega را روانه‌ی بازار کرد. عملکرد این سری با GeForce GTX 1080 از انویدیا برابری می‌کرد، اما مصرف برق آن‌ها همچنان بالا بود.

انویدیا همچنان با معماری قدرتمند Pascal سلطنت خود در بازار را حفظ می‌کرد. انتشار مدل GTX 1080 Ti با کارایی تقریبا مشابه‌ی تایتان X (اما با قیمت مناسب‌تر) و کاهش قیمت نسخه‌ی استاندارد GTX 1080، فروش بی‌سابقه‌ای برای این کمپانی به ارمغان آورد. علاوه بر این، انویدیا معماری جدید Volta را به طور اختصاصی برای پردازش سطح بالا و کاربران حرفه‌ای معرفی کرد. این معماری با ترانزیستورهای بسیار زیاد و ابعاد بزرگ، قدرتی خیره‌کننده برای محاسبات پیچیده داشت.

در همین رابطه بخوانید:

- کدامیک از کارت های گرافیک انویدیا یا AMD عملکرد بهتری دارند؟
کارت گرافیک دست دوم بخریم یا نه؟

در بازار گوشی‌های هوشمند نیز شرکت‌هایی مثل اپل (با GPUهای PowerVR) و کوالکام (با Adreno) از پردازنده GPU اختصاصی خود استفاده می‌کردند. در این سال انویدیا نیز تلاش کرد تا توجه به انبوه جذابیت‌های بازار موبایل، حضور قدرتمندتری در این حوزه را رقم بزند. این تلاش‌ها منجر به آن شد که تیم سبز، پردازنده‌ی قدیمی Tegra X1 (با ریزمعماری GM20B) خود را به این حوزه وارد کند و توانست مشتریان خوبی مانند نینتندو برای آنها پیدا کرده و در نهایت این تراشه در کنسول نینتندو سوییچ به خدمت گرفته شد.

پردازنده های gpu
نینتندو با Switch به دیگران یاد داد چطور از قدرت Tegra X1 نهایت بهره را ببرند

با وجود پیشرفت‌های فنی و تنوع محصولات، سال 2017 با انفجار استخراج رمزارزها، به سالی ناگوار برای گیمرها و علاقه‌مندان سخت‌افزار کامپیوتر تبدیل شد. تقاضای زیاد برای ماینینگ، باعث کمبود شدید و افزایش قیمت سرسام‌آور کارت‌های گرافیک، چه نو و چه کارکرده، شد. این روند تا سال بعد نیز ادامه پیدا کرد و بازار را به وضعیتی بحرانی رساند.

2018-2019: نوآوری و رقابتی داغ در دنیای پردازنده‌ های گرافیکی

در سال ۲۰۱۸، AMD پس از موفقیتی در آغاز معماری کاملاً بازطراحی شده Zen برای پردازنده‌های دیتاسنتر، به رویکرد محافظه‌کارانه‌ای نسبت به صرف منابع محدود (هم مالی و هم فیزیکی) برای توسعه GPU‌های خود پرداخت. به جای تجدید نظر در ویژگی‌های داخلی تراشه یا معرفی به‌روزرسانی به Vega، آن‌ها به تکنیک قدیمی متوسل شدند که سال‌ها توسط خودشان و رقیب سبزپوش، استفاده شده بود: تغییر نام.

در راستای همین استراتژی، سری Radeon RX 500 با تغییرات اندک از سال قبل و تنها با اضافه شدن حرف 'X' به عنوان پسوند به انتها نام مدل (به عنوان مثال، RX 580 به RX 580X تغییر نام داد) راهی بازار شدند. البته برخی از مدل‌های میان‌رده و اقتصادی شرکت افزایش حافظه‌ی RAM را تجربه کردند، اما تغییرات بخش‌های پردازشی و ارتباطی آنها بسیار اندک بود.

تنها محصول جدیدی که AMD در سال 2018 به صورت عمده به بازار آورد، Radeon RX 590 بود. این کارت از همان تراشه 12 نانومتری Polaris بر پایه GCN 4.0 که در RX 580 استفاده شده بود، بهره گرفته و مشخصات آن با مدل ذکر شده تقریباً یکسان بود. با این حال، این تراشه توسط دو شرکت GlobalFoundries و Samsung ساخته شده بود و لااقل در بخش تولید تراشه پردازشی از فرآیندهای بهبود یافته استفاده می‌کرد.

پردازنده های جی پی یو

مجموع تمامی تغییرات ایجاد شده در این کارت در نهایت منجر به آن شد که TDP در مقایسه با نسخه 580 به میزان 5 درصد کاهش یافته و از سوی دیگر افزایش ۱۷ درصدی در سرعت کلاک پایه و ۱۵درصدی در کلاک بوست و البته 50 دلاری قیمت عرضه نسخه رفرنس این کارت اتفاق افتاد. چنین تغییرات اندکی باعث برجستگی RX 590 در چشم خریداران نشد و RX 580 ( که حالا به شکل 580X عرضه می‌شد) بهتر فروش می‌رفت.

در همین رابطه بخوانید:

- آموزش تمیز کردن کارت‌ گرافیک با فن از نوع دمنده (Blower)
چگونه بهترین کارت گرافیک سازگار با سیستم خود را خریداری کنیم

Nvidia هم در سال ۲۰۱۸ سیاست رقیبش را در پیش گرفت و نسخه‌های اصلاح‌شده از سری GTX 10 (مانند GeForce GT 1030 متعلق به نسل DDR4) را به بازار معرفی کرد. در واقع می‌توان گفت که هیچ‌کدام از دو شرکت در این بازه کوتاه محصول قابل توجهی را روانه بازار نکردند. اما این مسئله در اولین ماه‌های سال به دلیل اینکه قیمت GPU همچنان بسیار بالا بود، اهمیت خاصی نداشت؛ بازار تشنه کارت گرافیک بود و کاربران هم خودشان را قانع کرده بودند که هر چه در بازار پیدا می‌شود را بخرند؛ چه روزهای غم‌انگیزی.

پردازنده‌های گرافیکی
کارت GT 1030 حتی در مدل‌های بدون فن هم عرضه شد

تا فصل تابستان، وضعیت بازار اندکی بهبود یافت و علاقه‌مندان به PC با شوق زیاد منتظر معماری جدید Nvidia بودند. نکته بارز در این دوره آن بود که شکاف زمانی بین معرفی طرح‌های جدید GeForce در طول دهه گذشته رو به افزایش بود؛ ۱۵ ماه از معرفی ماکسول می‌گذشت و  28 ماه هم از Kepler.

اولین GPU‌های Turing در ماه‌های اوت و سپتامبر در بازار ظاهر شدند. اولین مدل یک Quadro برای بازار کاری اختصاصی بود. خط تولید GeForce به طور مختصر نه تنها GPU‌ها و کارت‌های جدید را، بلکه فناوری و اصطلاحات بازاریابی جدید را نیز به بازار می‌آورد. پس از این دوره نسبتاً طولانی، ریز معماری پردازش گرافیکی انویدیا با نام Turing در روز پنج‌شنبه، ۲۹ شهریور ۱۳۹۷رسماً معرفی شد.

در همین رابطه بخوانید:

- قابلیت Ray Tracing چیست؟ هرآنچه باید در مورد فناوری رهگیری پرتو بدانید

با معرفی کارت‌های بر پایه تورینگ، Nvidia یک تغییر مهم دیگر را نیز رقم زد. این شرکت پس از 13 سال استفاده از برچسب «GTX» به عنوان پیشوند یا پسوند در کارت‌های تولیدی خود، به استفاده از برچسب RTX روی آورد. اگرچه دلیل این تغییر هیچ‌گاه به صورت رسمی توسط انویدیا اعلام نشده ولی پر واضح است که می‌توان آن را به واژه Ray Tracing و استفاده از هسته‌های RT نسبت داد که به طور مؤثر به تناسب برای عملیات ردیابی پرتو در کارت‌های تولیدی این شرکت مورد استفاده قرار می‌گیرند.

البته باید در نظر داشته باشید که به هیچ عنوان نباید انویدیا و AMD را مبدع ری‌تریسنیگ دانست؛ چرا که از قبل نیز قابلیت مدل‌سازی دقیق‌تر نوردهی به صورت زمان واقعی، در یک کارت گرافیک رایانه شخصی معمولی در دسترس بود.

در همین رابطه بخوانید:

- تفاوت کارت گرافیک GTX با RTX انویدیا؛ کدام بهتر است؟

ذکر این نکته لازم است که Nvidia پیش از این API جدیدی به نام DirectX Raytracing (DXR) را در رویداد GDC سال 2018 معرفی کرده بود. مهندسان شرکت در این رویداد جزئیات عملکرد سیستم را توضیح دادند و چندین ویدئو از EA، Epic و Futuremark را برای بیان مزایای استفاده از این کتابخانه به نمایش گذاشتند.

پردازنده‌های جی پی یو

معماری جدید در پردازنده‌ های گرافیکی GeForce RTX 2080 و 2080 Ti که هر دو از تراشه TU102 استفاده می‌کنند، قابلیت رهگیری پرتو (ray tracing) را به نمایش گذاشت. به دلیل استفاده از 18.6 میلیارد ترانزیستور و اندازه 754 میلی‌متر مربع، این تراشه نسبت به نسل قبلی خود، GP102، ابعاد بسیار بزرگ‌تری داشت. البته باید گفت دلایل اصلی این افزایش ابعاد، بالاتر بردن حجم حافظه‌های L1 و L2، بهبود پهنای باند داخلی و اضافه شدن هسته‌های تانسور و رهگیری پرتو به هر واحد پردازشی (SM) در GPU بود.

هسته‌های تانسور، که در واقع مجموعه‌ای از ALUهای FP16 هستند که ابتدا در معماری Volta ظاهر شدند و انویدیا برای رسیدن به اهداف خود در Turing آنها را با یک به‌روزرسانی اندک نیز به خدمت گرفت. باید گفت که در آن زمان هسته‌های RT با رویکردی جدید هر کدام از دو واحد اختصاصی برای مدیریت الگوریتم‌های BVH و آزمایش تقاطع پرتو-اشیاء استفاده می‌کردند.

با اینکه رهگیری پرتو می‌توانست روی CPUها انجام شود، برای انجام آن به صورت Real-Time و در بازی‌های روزمره، نیاز به این سخت‌افزارهای جدید بود. با این حال، در زمان عرضه تراشه‌های Turing، بازی‌هایی که از DXR پشتیبانی می‌کردند وجود نداشت، بنابراین بررسی‌کنندگان به عملکرد خام آن‌ها در بازی‌های معمولی پرداختند. نتایج ثبت شده (حداقل برای نسخه Ti در آن زمان) بسیار چشمگیر بود و همین نتایج موجب شد تا شور و هیجان قابل توجهی به سمت محصولات تورینگ هدایت شده و انویدیا بیش از پیش در جایگاه برتر بازار قرار گیرد.

پردازنده‌های gpu
ریگ‌های ماینینگ رمزارز ساخته شده با کارت‌های گرافیک RTX

شاید بتوان گفت تنها بخش تاریک این تراشه‌ها قیمت‌های MSRP پیشنهادی آنها، به ویژه برای GeForce RTX 2080 Ti (999 دلار) بود. این قیمت‌ها پس از بحران بازار در برخورد با ماینرهای رمزارزها (که تازه به حالت عادی بازگشته بود) برای بسیاری از کاربران غیرمنصفانه به نظر می‌رسید.

خط تولید Turing همچنان توسط TSMC و با استفاده از نسخه‌ای سفارشی از فرآیند ساخت 16FF (با برچسب 12FFN) ساخته می‌شد، که باعث می‌شد تراشه‌های بزرگ هرگز به سطح بازدهی تراشه‌های کوچکتر Pascal GP102 نرسند.

جی‌پی‌یو

یکی دیگر از ویژگی‌های کارت‌های گرافیکی GeForce RTX جدید، DLSS یا Deep Learning Super Sampling بود که توسط Nvidia بسیار تبلیغ می‌شد. ایده کلی DLSS این بود که همه‌چیز را با وضوح پایین‌تر رندر کند، سپس از یک الگوریتم توسعه‌یافته با تکنیک‌های یادگیری ماشین (ML)، برای ارتقاء فریم نهایی به وضوح بالاتر صفحه نمایش کاربر اقدام کند.

هسته‌های تانسور به عنوان عنصر کلیدی پشت این ویژگی تبلیغ می‌شدند، اما نسخه اولیه DLSS از آن‌ها در کارت‌های گرافیکی مصرف‌کننده استفاده نمی‌کرد. در عوض، این کار توسط شبکه‌های کامپیوتری خود Nvidia انجام می‌شد که برای تحلیل هر بازی، فریم به فریم آن را آنالیز کرده و رویکرد مناسب برای upscaling را برایش انتخاب کرد و به کار می‌بست.

در همین رابطه بخوانید:

- هرآنچه که باید درباره فرکانس Base Clock و Boost Clock کارت گرافیک بدانید

به دلیل آنکه رندر کردن با وضوح پایین‌تر عملکرد کارت را بهبود می‌بخشید و همزمان، ارتقاء ابعاد تصویر با DLSS نیز به خوبی کار می‌کرد، بازخوردهای اولیه به استفاده از این فناوری بسیار مثبت بود. اما یک مشکل در آن روزها این بود که عملاً هیچ نوع بازی وجود نداشت که همزمان با عرضه کارت‌های بر پایه Turing، از این فناوری استفاده کند و کاربران باید ماه‌ها یبیشتری منتظر می‌ماندند.

پردازنده های GPU

در اواخر سال ۲۰۱۸ و ماه‌های ابتدایی ۲۰۱۹، رسانه‌ها و ریویوئرهای مستقل سخت‌افزار توانستند مجموعه‌ی ویژگی‌های RTX انویدیا را با جزئیات بیشتری بررسی کنند. در آن زمان، عناوین متعددی منتشر شده بودند که از DXR و DLSS پشتیبانی می‌کردند. بازی‌هایی مانند Battlefield V، Shadow of the Tomb Raider و Metro Exodus همگی (با درجات مختلف) از این فناوری‌ها بهره می‌بردند. اما دو نکته (یکی مثبت و دیگری منفی) در خصوص این فناوری به سرعت آشکار شد:

  • استفاده از رهگیری پرتو (Ray Tracing) می‌توانست به طور قابل توجهی واقع‌گرایی نورپردازی محیطی، سایه‌ها و بازتاب‌ها را بهبود بخشد.
  • اجرای این فناوری هزینه‌ی عملکردی بسیار بالایی داشت و تنها استفاده از DLSS می‌توانست کیفیت بازی را تا حدودی حفظ کند. این موضوع در رزولوشن 1080P صدق می‌کرد و رزولوشن‌های بالاتر به هیچ‌وجه قابل اجرا نبودند.

سرعت فریم پایین (حدود ۳۰ فریم بر ثانیه یا کمتر) که معمولاً برای کنسول‌ها قابل قبول بود، در اجرای بازی‌ها با گرافیک بسیار بالا روی PC، کاملاً مغایر انتظارات علاقه‌مندان سخت‌افزار بود، به خصوص با توجه به هزینه ۱۰۰۰ دلاری که برای خرید یک کارت گرافیک پرداخته بودند. در همین زمان، هر دو شرکت AMD و Nvidia کارت‌های گرافیک جدیدی را معرفی کردند. ای‌ام‌دی مدل Radeon VII و انویدیا مدل GeForce RTX 2060 را به همراه بازگشت نام GTX با نسخه‌ی 1660 Ti عرضه کرد.

پردازشگر GPU
ای ام دی با چیپ Vega 20 رسماً با معماری GCN خداحافظی کرد

Radeon VII آخرین محصول مبتنی بر معماری GCN بود. Vega 20 به عنوان تراشه‌ی مورد استفاده در این کارت گرافیک، نسخه‌ی بهبود یافته‌ی تراشه‌ی Radeon Vega 64 به شمار می‌رفت و با فناوری ساخت 7nm شرکت TSMC ساخته شده بود. این مدل روی کاغذ حرف‌های زیادی برای گفتن داشت: ۱۶ گیگابایت حافظه‌ی HBM2 با پهنای باند ۱,۰۲۴ گیگابیت بر ثانیه، به همراه ۶۰ واحد محاسباتی با فرکانس ۱,۸۰۰ مگاهرتز.

ای‌ام‌دی این کارت را با قیمت ۷۰۰ دلار عرضه کرد و آن را رقیب GeForce RTX 2080 انویدیا می‌دانست. در تست‌های انجام‌شده، Radeon VII به طور متوسط تنها چند درصد از رقیب سبز خود کندتر بود. نکته مهم در مورد رادئون 7 این بود که این کارت هرگز برای گیمرها طراحی نشده بود و در واقع نسخه‌ی تغییرنام‌یافته‌ی Radeon Instinct، به عنوان یک مدل محاسباتی مخصوص ایستگاه‌های کاری به شمار می‌رفت.

در همین رابطه بخوانید:

- Frame Time چیست و چگونه بنچمارک بازی‌ها را درست‌تر تحلیل کنیم؟

از طرف دیگر، GeForce GTX 1660 Ti مجهز به تراشه‌ی TU116، کاملاً بر بازار گیم تمرکز داشت، به ویژه برای کسانی که بودجه‌ی مشخصی را در نظر گرفته بودند. با قیمت ۲۷۹ دلار، این کارت گرافیک در مقایسه با GTX 1070 مبتنی بر معماری Pascal که ۱۰۰ دلار گران‌تر بود، عملکرد مشابهی ارائه می‌داد اما فاقد هسته‌های Tensor و RT بود.

همچنین GeForce RTX 2060 که در ابتدای سال ۲۰۱۹ عرضه شد، از تمام ویژگی‌های RTX بهره می‌برد، اما تقریباً ۳۰ درصد گران‌تر از GTX 1660 Ti بود و به طور متوسط تنها ۱۲ درصد سریع‌تر عمل می‌کرد. بنابراین از نظر ارزش خرید، گزینه‌ی جذابی به شمار نمی‌رفت.

هر دوی این مدل‌های میان‌رده، تا حدودی افزایش قیمت محصولات رده‌بالای RTX انویدیا را تعدیل کردند. قیمت مدل RTX 2080 Ti نیز بیش از ۳۰۰ دلار افزایش یافته بود. بعداً مدل‌های دیگری مانند GTX 1650 با قیمت ۱۴۹ دلار به این مجموعه اضافه شدند.

تاریخچه پردازنده های مدرن گرافیک

ای‌ام‌دی تا تابستان 2019، معماری جدید خود را پنهان نگه داشت. در نهایت، آن‌ها سری Radeon RX 5000 را با تراشه‌ی Navi 10 معرفی کردند. در این نسل جدید، معماری GCN به‌طور کامل بازنگری شده و به RDNA تبدیل شده بود که بسیاری از محدودیت‌های طراحی قدیمی را برطرف می‌کرد.

در حالی که انویدیا به اغنا و ارضای همه بازارها با Turing می‌پرداخت، کارت‌های RNDA آمده بودند که کاربران حوزه PC Gaming را به سمت خود بکشند. مشخصات این کارت‌ها اما مقداری عجیب بود؛ تعداد CUهای کمتر و حتی پایین‌تر از Radeon Vega 64. اما نکته مهم اینجا بود که AMD معماری جدید خود را با بهبود صدور دستورالعمل و جریان داده داخلی اصلاح کرده بود و به همین دلیل نتیجه نهایی محصولی بود که با Radeon VII و GeForce RTX 2070 فاصله زیادی نداشت. با قیمت ۳۹۹ دلار، این محصول هم رقابت را شکسته و با تراشه‌ای با اندازه ۲۵۱ میلی‌متر مربع (به دلیل فرایند ساخت 7 نانومتری و جذاب 7N شرکت TSMC) سودآوری خوبی را برای AMD به ارمغان آورد.

می‌توان این برداشت را به عنوان خلاصه همه اتفاقات پس از معرفی Navi عنوان کرد که «AMD نشان داد که برای رسیدن به عملکرد مناسب در بازی، نیاز به استفاده از تراشه‌های بسیار قدرتمند و هزینه بالا نیست و می‌توانیم همزمان بسیاری از مشکلات سازگاری و درایورها را نیز نداشته باشیم».

تاریخچه کارت گرافیک 3d
RTX 2060 Super یکی از محبوب‌ترین کارت‌های گرافیک علاقه‌مندان به گیمینگ

اما در آن سوی میدان، انویدیا در پاسخ به خانواده Radeon RX 5000 با مدل‌های 'Super' وارد گود رقابت شد و در طول سال ۲۰۱۹، RTX 2080، RTX 2070، RTX 2060 ، GTX 1660 و حتی ۱۶۵۰ همگی با تراشه‌هایی با تعداد بیشتری از هسته‌های شیدر و سرعت‌های بالاتر به روز شدند. این عملکرد بهبود‌یافته از سوی کاربران نیز مورد توجه قرار گرفت؛ به خصوص به آن علت که قیمت MSRP این کارت‌ها (به جز 2060 Super) چندان افزایش نیافته بود.

نکته قابل ذکر دیگر برای پایان این سال، شکل‌گیری کامل پروژه کارت‌های گرافیک مجزای اینتل تحت بیرق پروژه Xe  بود و حتی حدس‌هایی نیز در مورد برخی مدل‌های احتمالی مطرح شد ولی حقیقت این بود که این پروژه همچنان در حوزه گرافیک مجتمع (iGPU) دنبال می‌شد.

2020 - پایان دهه‌ای مهم؛ تراشه‌های جدید، تهدیدهای جدید، مشکلات بدتر

سال ۲۰۲۰ را همه ما با اوج‌گیری ویروس COVID-19 به خاطر داریم. اما در پس‌زمینه این عالم‌‌گیری، AMD، اینتل و انویدیا همه کارت‌های گرافیکی جدیدی که شامل معماری‌ها و طراحی‌های محصول جدید بودند را به بازار عرضه کردند.

پردازنده گرافیک گوشی

از سوی دیگر، مایکروسافت و سونی کنسول‌های جدید نسل نهم را با مجموعه‌ای از فن‌آوری‌ها و ویژگی‌های جدید به بازار آوردند. در این میان، ایکس‌باکس سری S/X به‌روزرسانی‌های API چندین ساله خود را با انتشار DirectX 12 Ultimateادغام کرده بود و حالا هر دو کنسول آماده شده‌اند تا برای مدت زمانی شاید نزدیک به 6 تا 7 سال، پاسخگوی گیمرها باشند.

پردازنده گرافیک لپ تاپ
روند افزایش ابعاد تراشه‌های پردازش گرافیکی انویدیا و AMD

در جهان حرفه‌ای محاسبات و هوش مصنوعی نیز، ما شاهد محصولاتی مانند AMD Radeon Instinct MI100 و Nvidia A100 بودیم؛ دو کارت شتاب‌دهنده محاسباتی که هر دو دارای تراشه‌های غول‌پیکر (به اندازه 750 و ۸۵۶ میلی‌مترمربع به ترتیب) و با قدرت بسیار زیاد (۱۲۰ واحد محاسباتی با توان ۲۳ ترافلاپس FP32 یا ۴۳۲ هسته تانسور که توان ۳۱۲ ترافلاپس FB16 را فراهم می‌کردند) بودند.

کارت محاسباتی Instinct MI100 در واقع معماری CDNA جدید AMD را ارائه کرد؛ معماری‌ای که GCN را مانند ققنوسی از خاکستر متولد کرد. ولی انویدیا از طراحی جدید Ampere برای کارت A100 استفاده کرده بود؛ معماری‌ای که به عنوان جایگزینی مستقیم برای Volta به بازار عرضه شد و افزایش کارایی زیادی را برای بارهای کاری هوش مصنوعی ارائه می‌دهد.

پردازنده گرافیکی لپتاپ
تراشه GA100 انویدیا؛ بزرگترین GPU ساخته شده انویدیا در آن زمان

در مورد هوش مصنوعی، انویدیا نسخه بهبود یافته‌ی DLSS را در بهار همان سال معرفی کرد، که از یک فرآیند بسیار متفاوت با نسخه اول استفاده می‌کرد. اکنون، تنسورها در کارت‌های گرافیک کاربران الگوریتم توسعه نهایی را برای بزرگنمایی تصویر پردازش می‌کردند و به طور کلی، سیستم جدید خوب پذیرفته شد.

در طول سال ۲۰۲۰، علاقه‌مندان به حوزه PC برای مشاهده کارت‌های گرافیکی جدید باید تا اواخر سال صبر می‌کردند، اما شکیبایی آن‌ها با ارائه GeForce RTX 3000 و Radeon RX 6000 توسط انویدیا و ای‌ام‌دی به ثمر رسید. اگرچه تفاوت‌های قابل توجهی بین تراشه GA100 در A100 و GA102 که خط RTX را رهبری می‌کرد، وجود داشت، محصولات جدید انویدیا در این سال معماری Ampere را به عموم مردم معرفی کردند. می‌توان حتی گفت که GA200 اصولاً یک به‌روزرسانی برای معماری Turing بود که در آن همه هسته‌ها (CUDA، Tensor و RT) توسط انویدیا، بزور و بهینه‌تر شده بودند.

در مورد واحدهای شیدر عمومی، ALU‌های محاسبه عدد صحیح (Integer) اکنون قادر به انجام رویه‌های FP32 مانند FP شدند و این امر به انویدیا امکان داد که سری 3000 را با دو برابر تعداد هسته‌ها نسبت به نسل‌های قبلی تبلیغ کند. اگرچه این ادعا کاملاً درست نبود، اما بدان معنی بود که GA102 پتانسیل ارائه توانایی قابل توجهی در زمینه توان محاسباتی شناور را دارد.

به صورت کلی این کارت‌ها همچنان ارتقاء قابل توجهی نسبت به تورینگ را ارائه می‌دادند، چون بازی‌ها کاملاً توسط شیدرهای FP32 محدود نمی‌شوند، عملکرد کلی RTX 3090، 3080، و 3070 پایین‌تر از مشخصات اعلام شده آنها (روی کاغذ) بود. ذکر این نکته نیز مهم است که این‌بار انویدیا قیمت MSRP این کارت‌ها را پایین‌تر از قیمت‌های عرضه اولیه RTX 2000 در نظر گرفته بوده و همین عامل موجب شد بسیاری از کاربران علاقه زیادی به خرید سری 3000 پیدا کنند.

در تیم مقابل، AMD از RDNA استفاده کرد و جنبه‌های مهم آن مانند مصرف انرژی، فرکانس‌های عملیاتی و توان داده را بهینه‌سازی کرد تا عواملی را که در نهایت توانایی‌های کارت‌های RX 5000 را محدود می‌کرد، کاهش دهد. RDNA 2 نشان داد که پیشرفت ثابتی که با معماری Zen انجام شده بود به یک هدف کلی شرکت تبدیل شده و به خوبی مسیر خود را می‌پیماید.

سازنده پردازنده گرافیکی

پردازنده گرافیکی Navi 21 که به نام Big Navi شناخته می‌شود، تعداد واحدهای محاسباتی قبلی خود را دو برابر کرده و تیم قرمز 128 مگابایت حافظه نهان L3 و پردازنده‌های بافت سازگار شده را در خود جای داد که به واسطه آنها بررسی‌های طی مسیرهای حرکت پرتو نور در عملیات ری‌تریسینگ انجام دهند که جایگزین بسیار خوبی برای هسته‌های RT با عملکرد بالا، در خانواده AMD به حساب می‌آیند.

اگرچه سری RX 6000 در هنگام ردیابی پرتو عملکرد بسیار خوبی از خود نشان نداده و فناوری مانند DLSS در تیم قرمز وجود نداشت که بتواند برای افزایش عملکرد در رزولوشن‌های بالاتر مورد استفاده قرار گیرد ولی بهبودهای عنوان شده موجب شد تا AMD در اجرای بیشتر بازی‌ها، در یک زمین بازی با شرایط برابر با Nvidia قرار گیرد.

سازنده های پردازنده گرافیکی
روند افزایش توان پردازشی تراشه‌های GPU انویدیا و AMD

اقدام جالب توجه و مشترک سونی و مایکروسافت نیز می‌تواند مهر تاییدی بر عملکرد عالی RDNA 2 و Zen 2 باشد. معماری RDNA 2، البته با CU‌های بسیار کمتر و بدون کش اضافی، به کنسول‌های جدید ایکس‌باکس وان اس/ایکس و پلی استیشن 5 کمک می‌کند که همراه با پردازنده گرافیکی Zen 2 روی همان die، عملکرد سطح بالایی از خود نشان دهند؛ عملکردی که باعث شد تا گیمرها از پتانسیل‌هایی که دو کنسول بازی نسل نهم ارائه می‌کردند غافلگیر شوند.

حافظه‌های GDDR6 و HBM2E نیز در این سال شاهد بهبود‌هایی بودند. افزایش پهنای باند و کاهش تأخیر، به کارت‌های گرافیکی اجازه داد تا داده‌ها را با سرعتی بیشتر پردازش کنند. این امر به ویژه در مواردی که نیاز به حافظه‌ی بالا بود، مانند واقعیت مجازی و رندرینگ 3D، اهمیت بیشتری پیدا کرد.

در این سال نیز طلسم شکسته شده و اینتل بالاخره یک کارت گرافیک مجزا را به صورت رسمی معرفی کرد. البته در فاز اول، اینتل این کارت را تنها در اختیار سازندگان OEM و AiOها قرار داد تا سال‌های بعد به صورت مستقل و مستقیم در اختیار مشتریان نیز قرار دهد. در مقیاس عملکرد اما کارت دسکتاپ Iris Xe که قبلاً با نام DG1 شناخته می‌شد، اتفاق چندان هیجان‌انگیز تلقی نمی‌شد ولی تیم آبی به لطف این سری به خوبی نشان داد که می‌تواند حرف‌های زیادی برای گفتن داشته باشد و حداقل در رده اقتصادی بازار، جذابیت‌های خاص خود را دارد.

سال 2022 تا به امروز ؛ تغییرات بزرگ در همه ابعاد صنعت GPU

سال 2022، سالی بود که صنعت پردازنده‌ های گرافیکی با تغییرات بزرگی روبرو شد. معماری‌های جدید، حافظه‌های پیشرفته، و تکنیک‌های نوآورانه، کارت‌های گرافیکی را به سطحی نوین از عملکرد و کارایی رساندند.

معماری‌های جدید معرفی شده در این سال در هر دو شرکت شامل Hooper تیم سبز و RDNA 3 تیم قرمز بودند. معماری Hopper که به عنوان جانشین معماری Ampere معرفی شد، از فناوری 5 نانومتری استفاده می‌کند. این معماری قدرت پردازشی بالا، بهبود‌های در عملکرد Ray Tracing و پشتیبانی از تکنولوژی‌های AI را به کارت‌های گرافیکی می‌آورد. در آن سوی میدان، AMD نیز با معماری RDNA 3 به رقابت با Nvidia پرداخت. این معماری هم بر پایه لیتوگرافی 5 نانومتری TSMC روی تراشه‌های شرکت پیاده شد و توانست قدرت بسیار جذابی را برای کارت‌های گرافیک سری RX 7000 رقم بزند.

سازنده کارت گرافیک

نکته جالب توجه دیگر در این سال استفاده گسترده از فناوری حافظه رم GDDR7 بود. حافظه‌ی GDDR7 با پهنای باند بالا و کاهش تأخیر، عملکرد کارت‌های گرافیکی را بهبود داد. همچنین حافظه‌ی HBM3 وارد گود شد با پهنای باند بالا و مصرف انرژی کم، در کارت‌های گرافیکی حرفه‌ای و مصرفی مورد استفاده قرار گرفت.

در ابعاد نرم‌افزاری نیز انویدیا نسل سوم فناوری افزایش ابعاد خود، موسوم به DLSS 3.0 معرفی کرد و در آن سوی میدان، AMD هم بیکار ننشته و با معرفی فناوری FSR یاFidelityFX Super Resolution به رقابت با DLSS پرداخت. هر دوی این تکنیک‌ها با استفاده از هوش مصنوعی و شبکه عصبی تطبیقی، در سطوح بسیار بالاتری از نسل‌های اولیه خود، امکان ارتقای ابعاد تصویر بازی‌ها را فراهم می‌کردند و نکته مثبت این است که محدودیت‌های بسیار کمتری از اولین نسخه‌های خود دارند و می‌توانند با آزادی عمل بیشتری توسط توسعه‌دهندگان و گیمرها مورد استفاده قرار بگیرند.

انواع پردازنده گرافیکی

آینده پردازنده های گرافیکی؛ امیدی برای بهبود هر آنچه هست و خواهد آمد

نگاهی به آینده و حدس و گمان در مورد دهه آینده ضروری است. چالش‌های مربوط به عرضه و قیمت‌گذاری دائمی نیستند، اما هیچ نشانه فوری از بهبود وجود ندارد.

انتظار عمومی این است که با بهبود گره‌های فرایند ساخت و رسیدن به سطوحی مانند 2 و 1 نانومتری طی 10 سال آینده، قدرت پردازشی بسیار بیشتری را نسبت به GPUهای امروزی شاهد باشیم. توجه داشته باشید که همچنان شرکت‌ها بیمی از بزرگتر کردن ابعاد die تراشه GPUها ندارند و به همین دلیل می‌توان انتظار داشت که با تراشه‌هایی روبرو شویم که در عین ریزتر شدن ترانزیستورهای آنها، همچنان ابعاد نهایی‌شان نیز بزرگتر شود.

بحث دیگری که وقوع آن بسیار محتمل است، ورود NPUها به واحدهای پردازش گرافیکی عمومی یا جی پی یو است. این روزها شاهد آن هستیم که تقریباً همه شرکت‌های سازنده SoC مانند اینتل، AMD، سامسونگ، کوالکام و حتی مدیاتک و دیگران، روی به استفاده از NPUها برای SoCهای ویژه خود در هر دو پلتفرم دسکتاپ و موبایل آورده‌اند. حالا چرا انویدیا و دو بخش گرافیک AMD و اینتل این کار را نکنند؟ در واقع با گسترش استفاده از یک واحد پردازش NPU که می‌تواند به صورت لحظه‌ای اقدام به پردازش فریم‌ها کرده و شرایط را برای بهبود نمایش آنها میسر کند، هیچ بعید نیست که طی سالیان آینده شاهد GPUهایی باشیم که درون خود واحدهای پردازشی به جز CUDA، Tensor و RT داشته باشند.

از سوی دیگر هوش مصنوعی، یادگیری ماشین و یادگیری عمیق نیز به سرعت در نرم‌افزارهای توسعه گرافیک و APIهای سیستم‌عامل‌ها و موتورهای بازی وارد می‌شوند. گسترش استفاده هر چه بیشتر از این تکنولوژی‌های یادگیرنده موجب می‌شود که در آینده بتوان سطح بالاتری از بهینگی را به دست آورد.

کارت گرافیک لپ تاپ
مهمترین کارت های گرافیک انویدیا در یک قاب

روند توسعه پردازشگرهای گرافیکی مخصوص گوشی‌های هوشمند

تا قبل از سال ۲۰۰۶، جی پی یو موبایل به شکل فعلی آن مورد توجه قرار نمی‌گرفت و در گوشی‌های که یک رابط کاربری داشتند از همان توان پردازنده‌ها یا CPU برای نمایش استفاده می‌شد. اما با پیشرفت تلفن‌های هوشمند و تبلت‌ها، نیاز به جی پی یو برای نمایش داده‌های تصویری افزایش یافت. کوالکام در این زمینه تلاش کرد و با همکاری ATI، تکنولوژی GPU‌های موبایل را بهبود بخشید. در دور‌ه‌های مختلف شرکت‌های متعددی وارد حوزه پردازش گرافیک موبایل شدند که برخی از آنها به سرعت کنار رفتند.

در ادامه سه شرکت مهمی که در حوزه پردازش گرافیک موبایل بیشترین نقش را داشتند مورد بررسی قرار داده و تلاش می‌کنیم نوآوری‌های آنها در هر نسل را بیان کنیم.

چرا جی پی یو اختراع شد؟

کوالکام، منحصر به فرد، پیشرو و تاریخ‌ساز

کوالکام، به‌عنوان یکی از شرکت‌های بزرگ در حوزه فناوری، از سال ۱۹۸۵ فعالیت خود را آغاز کرد. این شرکت در زمینه توسعه تراشه‌های موبایل و ارتباطات بی‌سیم فعالیت داشت و در سال‌های بعد با معرفی برندهای موفقی چون Snapdragon و Krait، به عنوان یکی از پیشروهای صنعت نیز شناخته شد.

واحد پردازش گرافیکی Adreno، که در پردازنده‌های Snapdragon کوالکام تعبیه شده، از همکاری مشترک با ATI Technologies در سال 2008 و به عنوان نسخه بازتعریف و توسعه‌یافته معماری اختصاصی پردازشگرهای گرافیکی کوالکام موسوم به QShader به وجود آمد. در واقع در این سال بود که اتفاقات بزرگی مانند عرضه رسمی سیستم‌عامل اندروید اتفاق افتاد و کوالکام حس کرد که برای آقایی در بازار پردازشگرهای موبایل باید هر آنچه می‌خواهد، از CPU گرفته تا GPU را خودش توسعه دهد. تصمیمی که در نهایت منجر به تولد Adreno گردید.

این اتفاق پیش از فروش بخش موبایل AMD به کوالکام در ژانویه 2009 به قیمت 65 میلیون دلار رخ داد. ادعاهایی مبنی بر اینکه Adreno در واقع عبارتی تغییر‌ نام‌ یافته از کلمه Radeon با تغییر جای حروف است و در اصل با محصولات Radeon ATI یکی‌ست نیز صحت ندارد.

مدل‌های اولیه Adreno شامل 100 و 110 بودند که قابلیت‌های گرافیکی 2D و توانایی‌های محدود چندرسانه‌ای داشتند. پیش از 2008، گرافیک‌های 3D در پلتفرم‌های موبایل معمولاً توسط موتورهای رندر نرم‌افزاری انجام می‌شد که عملکرد محدود و مصرف انرژی زیادی داشتند.

مخترع کارت گرافیک کیست؟
تراشه شتاب‌دهنده گرافیک ATI Imageon 2262 در مادربرد گوشی موتورولا RAZR V3i

با افزایش تقاضا برای قابلیت‌های پیشرفته‌تر چندرسانه‌ای و گرافیک 3D، کوالکام IP Imageon را از AMD لایسنس کرد تا قابلیت‌های 3D سخت‌افزاری را به محصولات موبایل خود اضافه کند. همکاری بیشتر با AMD منجر به توسعه Adreno 200 شد، که ابتدا با نام AMD Z430 شناخته می‌شد و بر اساس یک نسخه موبایلی از معماری R400 استفاده شده در GPU Xenos کنسول بازی Xbox 360 عاریه گرفته و در 2008 وارد اولین SoC  اسنپدراگون شده بود. در ژانویه 2009، AMD کل بخش گرافیک دستگاه‌های دستی Imageon خود را به کوالکام فروخت.

اولین سری از پردازشگرهای گرافیکی Adreno، در اوایل دهه ۲۰۰۰ معرفی شده و در گوشی‌های هوشمند مورد استفاده قرار گرفتند. این پردازشگرها از فناوری‌هایی مانند OpenGL ES 1.0 و DirectX 9.0c پشتیبانی می‌کردند.

سری Adreno 2xx در سال‌های بعد از سال ۲۰۰۷ معرفی شدند و از OpenGL ES 2.0 و DirectX 9.0c پشتیبانی می‌کردند. این پردازشگرها از معماری بهبود‌یافته‌ای برخوردار بودند که عملکرد و کیفیت تصویر را بهبود می‌بخشید. سری Adreno 3xx در اوایل دهه ۲۰۱۰ معرفی شد و با انتشار تکنولوژی‌هایی مانند OpenGL ES 3.0، بهبود‌های قابل توجهی در کیفیت و عملکرد گرافیکی ارائه دادند. این سری برای نخستین بار توانایی پشتیبانی از ویژگی‌های مثل tessellation را داشتند که کیفیت تصاویر را به طرز قابل توجهی بهبود می‌بخشید.

تاریخچه کارت گرافیک گوشی
گوشی LG G Flex 2 به عنوان یک دستگاه منعطف جهت پردازش گرافیکی از تراشه Snapdragon 810 با گرافیک Adreno 430 استفاده می‌کرد

سری Adreno 4xx بهبود‌های قابل توجهی در کیفیت و عملکرد گرافیکی داشتند. این پردازشگرها از OpenGL ES 3.1 و DirectX 11.2 پشتیبانی می‌کردند و ویژگی‌هایی مانند geometry shaders و hardware tessellation را ارائه می‌دادند که کیفیت تصاویر را به سطح بالاتری می‌رساندند. همچنین، Adreno 4xx برای نخستین بار از تکنولوژی فشرده‌سازی تصاویر ASTC (Adaptive Scalable Texture Compression) استفاده کردند که باعث بهبود کیفیت تصاویر با کاهش حجم حافظه مورد نیاز شد.

سری Adreno 5xx، بهبود‌های بزرگی در عملکرد و کیفیت گرافیکی موبایل ارائه دادند. این پردازشگرها از فناوری‌های جدیدی مانند Vulkan API، DirectX 12 و OpenGL ES 3.2 پشتیبانی کردند که به کاربران امکانات بیشتری را در اختیار می‌گذاشتند. سری Adreno 6xx اما با معرفی در سال 2020 و همزمان با انویدیا و AMD، تکنولوژی‌ها و معماری‌های پیشرفته در زمینه پردازش گرافیکی استفاده می‌کند. این پردازشگرها از تکنولوژی‌هایی مانند ray tracing و AI-based rendering پشتیبانی می‌کنند که به کیفیت و واقعیت تصاویر موبایل کمک می‌کنند.

تاریخچه پردازنده های کانپیوتر

سری Adreno 7xx که آخرین نسخه GPUهای کوالکام به حساب آمده در طیف وسیعی از SoCهای شرکت برای بازار موبایل و حتی دسکتاپ طراحی شده‌اند را باید اوج هنر مهندسان شرکت دانست. بالاترین نسخه این سری که در زمان نگارش این مطلب Adreno 750 نام دارد از سوی کوالکام وعده افزایش عملکرد تا ۲۵ درصد نسبت به مدل قبلی خود یعنی Adreno 740 و همچنین بهبود ۲۵ درصدی را در کارایی داده است.

تاریخچه gpu سه بعدی

همچنین کوالکام با استفاده از پلتفرم ویژه Snapdragon Elite Gaming، امکان اجرای بازی‌ها تا 240 فریم در ثانیه را با استفاده از این GPU ممکن کرده و گفته می‌شود Adreno Frame Motion Engine 2.0 می‌تواند بازی‌هایی با گرافیک بالا را با سرعت 60 تا 120 فریم در ثانیه به راحتی اجرا کند. اتفاق جالب توجه دیگر در این سری آن است که کوالکام می‌گوید در صورت استفاده از یک نمایشگر استاندارد، امکان ارتقاء مقیاس برای اجرای بازی‌ها تا رزولوشن 8K نیز در این GPU میسر است.

Adreno 750 از تمام API‌های رایج اندروید پشتیبانی می‌کند و از قبل برای استفاده با Unreal 5 Lumens آماده شده است. این GPU همچنین در تراشه Snapdragon X Elite نیز به کار گرفته شده که کوالکام با ترکیب یک CPU بسیار قدرتمند و همکاری نزدیکی که با مایکروسافت در توسعه سیستم‌عامل ویندوز مخصوص ARM داشته، در تلاش است قدم‌های محکمی برای حضور در حوزه لپ‌تاپ‌ها بردارد.

در حالیکه بسیاری از محدودیت‌های توان پردازشی در هر دو بخش CPU و GPU با فناوری‌های این تیم از بین می‌رود، بهبود قابل توجهی نیز در شارژدهی دستگاه‌های تولیدی و رسیدن به آرمان شارژدهی بیشتر از 24 ساعته در یک لپ‌تاپ رده‌بالا و مخصوص گیمینگ که وزن اندکی دارد نیز محقق خواهد شد.

پردازنده gpu گوشی

؛ تکمیل کننده بازارARM

قبل از سال ۲۰۰۵، شرکت ARM معماری‌های پردازنده‌های کاربردی را تولید می‌کرد که بیشتر در حوزه پردازش مرکز داده و دستگاه‌های قابل حمل مورد استفاده قرار می‌گرفتند. این شرکت در زمینه پردازش گرافیکی فعالیت چندانی نداشت.

با افزایش استفاده از دستگاه‌های قابل حمل و هوشمند، نیاز به پردازشگرهای گرافیکی قدرتمند در این دستگاه‌ها افزایش یافت. در این زمینه، شرکت ARM با توجه به تجربه و معماری‌های موجود در پردازنده‌های خود، به توسعه تکنولوژی‌های پردازش گرافیکی پرداخته و در سال ۲۰۰۶ پردازشگرهای گرافیکی Mali را معرفی کرد. این پردازشگرها از تکنولوژی‌هایی مانند OpenGL ES و OpenCL پشتیبانی می‌کردند و برای اولین بار به صورت یک محصول قابل استفاده در دستگاه‌های هوشمند ارائه شدند.

این شرکت تا به حال از چهار نسل معماری Utgard، Midgard، Bifrost و Valhall در ساخت GPUهای اختصاصی خود استفاده کرده و در سال 2022 اعلام شد که GPUهای اختصاصی این شرکت به صورت سخت‌افزاری قادر به اجرای ری‌تریسنگ شده‌اند.

پردازنده gpu لپ تاپ

در سال ۲۰۰۶، شرکت ARM نخستین نسل از پردازشگرهای گرافیکی Mali را معرفی کرد، که به نام Mali-55 شناخته می‌شد. این پردازشگرها از تکنولوژی‌های OpenGL ES ۱.۱ و OpenVG ۱.۰ پشتیبانی می‌کردند و برای استفاده در دستگاه‌های هوشمند بهبود عملکرد گرافیکی را ارائه می‌دادند.

در سال ۲۰۰۸، ARM نسل بعدی از پردازشگرهای گرافیکی Mali را معرفی کرد، که به نام Mali-200 شناخته می‌شد. این پردازشگرها دارای بهبودهای قابل توجهی در عملکرد و کیفیت تصویر بودند و برای استفاده در دستگاه‌های هوشمندی همچون گوشی‌های هوشمند به‌کار می‌رفتند.

در سال‌های بعد، ARM به ارائه نسل‌های متعددی از پردازشگرهای گرافیکی Mali پرداخت. به عنوان مثال، در سال ۲۰۱۰، ARM پردازشگرهای گرافیکی Mali-T604 را معرفی کرد که از تکنولوژی‌های پیشرفته‌تری مانند OpenGL ES 2.0 و OpenCL 1.1 پشتیبانی می‌کردند و برای استفاده در دستگاه‌های هوشمند با عملکرد بالا و تجربه گرافیکی بهتر توصیه می‌شدند.

در سال‌های اخیر، ARM به ارائه نسل‌های جدیدی از پردازشگرهای گرافیکی Mali پرداخته است، از جمله نسل Mali-Gهای موجود در سری‌های گوشی‌های هوشمند معروف. این پردازشگرها از تکنولوژی‌های پیشرفته‌تری مانند Vulkan API و Ray Tracing پشتیبانی می‌کنند و برای ارتقاء کارایی و کیفیت گرافیکی در دستگاه‌های هوشمند استفاده می‌شوند.

سازنده پردازنده gpu

در زمان نگارش نسخه اولیه این مطلب (بهار 1403)، پردازنده گرافیکی Immortalis-G720 MP12 (MC12) قدرتمندترین پردازنده گرافیکی ساخت ARM است که برای بازار هدف گوشی‌های هوشمند و تبلت‌ها طراحی شده که برای اولین بار به این شکل در چیپست مدیاتک دیمنسیتی 9300 نیز از آن استفاده شده است. این جی پی یو از 12 هسته استفاده می‌کند و بر اساس نسل پنجم معماری valhall توسعه یافته است. طبق گفته‌های شرکت، Immortalis-G720، به میزان 15 درصد عملکرد بالاتری نسبت به نسل قبلی با همان تعداد هسته را ارائه داده و می‌تواند به پهنای باند حافظه 40 درصد بیشتر دسترسی داشته باشد.

از جذاب‌ترین فناوری‌ها در پردازنده گرافیکی 4 نانومتری Immortalis-G720 می‌توان به سایه‌زنی با نرخ متغیر (VRS)، سایه‌زنی راس معوق (DVS) و ردیابی پرتوی مبتنی بر سخت‌افزار اشاره کرد.

انواع gpu

ایمجینیشن تکنولوژیز؛ تلاقی دوست داشتنی نوآوری و شهامت

شرکت Imagination Technologies به عنوان یکی از پیشگامان در زمینه پردازنده‌ های گرافیکی، از سال 1995 با ارائه سری پردازنده‌های PowerVR، نقشی کلیدی در صنعت گرافیک ایفا کرده است. این پردازنده GPU به دلیل عملکرد بالا، کارایی و پشتیبانی از طیف وسیعی از APIها، به طور گسترده‌ای در طیف وسیعی از دستگاه‌ها، از جمله گوشی‌های هوشمند، تبلت‌ها، خودروها و تلویزیون‌ها، مورد استفاده قرار می‌گیرد.

قبل از سال ۲۰۰۵، شرکت Imagination Technologies بیشتر به تولید تراشه‌های مورد استفاده در دستگاه‌های قابل حمل و تجهیزات مخابراتی متمرکز بود. این شرکت در زمینه پردازش گرافیکی و تراشه‌های گرافیکی فعالیت چندانی نداشت. با گسترش استفاده از دستگاه‌های هوشمند و نیاز به پردازشگرهای گرافیکی قوی‌تر، شرکت Imagination Technologies به توسعه تکنولوژی‌های پردازش گرافیکی پرداخت. این توسعه‌ها شامل بهبود عملکرد، کیفیت تصویر و کارایی بود.

انواع پردازنده های گرافیکی
یک نمونه کارت گرافیک برند VideoLogic برای استفاده در سیستم‌های دسکتاپ از سری Vivid

برند PowerVR در واقع بخشی از شرکت Imagination Technologies است که قبلاً VideoLogic نام داشت. این برند به صورت ویژه در زمینه توسعه سخت‌افزار و نرم‌افزار برای رندرینگ دو بعدی و سه بعدی و همچنین کدگذاری و دیکود کردن ویدئو، پردازش تصاویر مرتبط و شتاب‌دهی DirectX, OpenGL ES, OpenVG, و OpenCL فعالیت دارد. PowerVR همچنین شتاب‌دهنده‌های هوش مصنوعی به نام Neural Network Accelerator (NNA) را نیز توسعه می‌دهد.

این شرکت در دهه 1990 با توسعه فناوری رندرینگ مبتنی بر کاشی به نام Tile-Based Deferred Rendering (TBDR) وارد بازار شد و توانست با این روش نوآورانه، کارایی سیستم‌های گرافیکی را به طور قابل توجهی افزایش دهد. این روش باعث شد که PowerVR به یکی از مهم‌ترین برندهای صنعت پردازش گرافیک تبدیل شود.

PowerVR با معرفی محصولاتی مانند PCX1 و PCX2 در سال‌های 1996 و 1997، که در کامپیوترهای شخصی و سیستم‌های آرکید استفاده می‌شدند، شهرت یافت. با گذشت زمان، این فناوری به سری طراحی‌هایی تبدیل شد که می‌توانستند در معماری‌های SoC مناسب برای استفاده در دستگاه‌های قابل حمل مانند تلفن‌های هوشمند و تبلت‌ها تعبیه شوند.

محصولات PowerVR توسط خود شرکت تولید نمی‌شوند، بلکه بلوک‌های IP طراحی مدارهای مجتمع و اختراعات آن‌ها به شرکت‌های دیگری مانند Texas Instruments, Intel, NEC, BlackBerry, Renesas, Samsung, Sony, STMicroelectronics, Freescale, Apple, NXP Semiconductors و بسیاری دیگر از شرکت‌ها لایسنس داده می‌شود.

این روزها PowerVR به دلیل نوآوری‌های خود در فناوری‌های رندرینگ و همچنین مدل کسب‌وکار مبتنی بر لایسنس‌دهی IP، به یکی از مهم‌ترین بازیگران در صنعت پردازش گرافیک تبدیل شده است. این شرکت با ارائه راه‌حل‌های پیشرفته و کارآمد، تاثیر عمیقی بر توسعه فناوری‌های گرافیکی در دستگاه‌های مختلف داشته است.

حافظه اختصاصی gpu چیست
اپل سال‌ها از لایسنس گرافیک PowerVR استفاده می‌کرد

برخی از فناوری‌ها و محصولات شاخص این شرکت شامل Tile-Based Architecture (معماری ویژه پردازشگرهای گرافیکی که به پردازنده گرافیکی PowerVR اجازه می‌دهد تا داده‌ها را به طور کارآمدتر پردازش کند که منجر به عملکرد و کارایی بهتر می‌شود) و Scalable Vector Execution (فناوری که به پردازنده گرافیکی PowerVR اجازه می‌دهد تا چندین دستورالعمل را به طور همزمان اجرا کند، که منجر به عملکرد بهتر می‌شود) است.

Imagination Technologies در سال 1995 اولین پردازنده گرافیکی PowerVR خود را با نام PowerVR PVR1337 معرفی کرد. این پردازنده برای استفاده در کامپیوترهای شخصی طراحی شده بود و به دلیل عملکرد بالا و کارایی خود مورد تحسین قرار گرفت.

در سال 1999 اولین پردازنده گرافیکی PowerVR این شرکت برای دستگاه‌های جاسازی شده با نام PowerVR MBX معرفی شد. این پردازنده به دلیل مصرف انرژی کم و عملکرد بالا محبوب بود و در طیف وسیعی از دستگاه‌ها مانند دوربین‌های دیجیتال و پخش‌کننده‌های MP3 مورد استفاده قرار گرفت. دو سال بعد اولین پردازنده گرافیکی PowerVR برای گوشی‌های هوشمند با نام PowerVR NEC-FX1 معرفی شد که به دلیل عملکرد بالا و کارایی خود در دستگاه‌های با توان کم، انقلابی در صنعت گوشی‌های هوشمند ایجاد کرد.

اما برای ایجاد تفاوت بارز نیاز به یک تحول بزرگتر بود که در سال 2006 اتفاف افتاد. در این سال Imagination Technologies اولین پردازنده گرافیکی PowerVR خود را با پشتیبانی از OpenGL ES 2.0 با نام PowerVR SGX531 معرفی کرد. این پردازنده به دلیل پشتیبانی از جدیدترین API گرافیکی، به توسعه‌دهندگان امکان می‌داد تا گرافیک‌های با کیفیت بالاتری را برای دستگاه‌های تلفن همراه ایجاد کنند.

تا سال 2010 پشتیبانی از OpenGL ES 3.0 نیز توسط PowerVR SGX543 به محصولات Imagination Technologies اضافه شد. این پردازنده به دلیل پشتیبانی از جدیدترین API گرافیکی، به توسعه‌دهندگان امکان می‌داد تا گرافیک‌های با کیفیت بالاتری را برای دستگاه‌های تلفن همراه ایجاد کنند.

Imagination Technologies در سال 2012 نیز اولین پردازنده گرافیکی خود با پشتیبانی از Vulkan را با نام PowerVR Series 6XT معرفی کرد. Vulkan یک API گرافیکی جدید بود که به توسعه‌دهندگان امکان می‌داد تا به طور مستقیم به سخت‌افزار گرافیکی دسترسی داشته باشند و عملکرد را بهبود بخشند. در نهایت و در سال 2018 اولین پردازنده گرافیکی PowerVR با پشتیبانی از ray tracing با نام PowerVR IMG8XE معرفی شد.

بررسی پردازنده های گرافیکی
نورپردازی زیبای کارت گرافیک گیگابایت AORUS GeForce 2080 Xtreme 

جمع‌بندی

تاریخچه کارت‌های گرافیکی با نوآوری مداوم و پیشرفت‌های سریع در فناوری مشخص شده است. از روزهای اولیه نمایش‌های فقط متنی تا آخرین GPUهای قادر به رندر کردن گرافیک‌های واقع‌گرایانه و شتاب‌دهی به وظایف محاسباتی پیچیده، کارت‌های گرافیکی راه طولانی را طی کرده‌اند. امروزه، GPUها اجزای ضروری در طیف گسترده‌ای از برنامه‌های کاربردی، از بازی و چندرسانه‌ای تا تحقیقات علمی و هوش مصنوعی، هستند. با ادامه رشد تقاضا برای گرافیک‌های باکیفیت بالا و توانایی‌های محاسباتی قدرتمند، احتمالاً کارت‌های گرافیکی به تکامل خود ادامه خواهند داد و نقش فزاینده‌ای در سیستم‌های رایانه‌ای مدرن ایفا خواهند کرد.



مطالب مرتبط پیشنهادی

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0

نظرات (9)

  • مهمان - علی

    شما یه فناوری پیدا کن AMD افتاده باشه توش جلو. همش انویدیا رفته بعد ای ام دی دنبالش کرده. یه دونه نوآوری پیدا نمیکنی

  • مهمان - احمد

    اگه دقت کرده باشید بازم اهداف نظامی باعث شده یه صنعت خفن خلق بشه. مثل شبکه و اینترنت. میخوام اینو بگم که اگه صنعت نظامی با هدف باشه منجر به رشد فناوری میشه و خیلی هم مفید میشه برای بشر

  • مهمان - صابر کاظمی

    چقدر خوبه که افراد و سایتای متخصص اینطوری میان و یه تاریخچه مفید از یک صنعت بزرگ میگن. بعضی وقتا میبینی سایتا میان یه چیزی رو از منبع خارجی کپی میکنن و ترجمه و هیچی هم آخرش آدم متوجه نمیشه ولی سایت قدیمی و دوست داشتنی شهر سخت افزار اومده یه تاریخچه خوب از کارت گرافیک گفته که وادار شدم یه نفس بشینم و همشو بخونم و کلی هم لذت ببرم.
    ممنونم ازتون و بازم از این کارا برای قطعات دیگه بکنید حتما. مرسی;)

  • مهمان - سامان

    به‌به عالی بود. ممنون بابت این مقاله قشنگ و خوش بیان

  • مهمان - پیام

    ممنون از مقاله خوبتون خیلی جالب بود

  • مهمان - قاسمپور

    کاش ایران هم یک کشور صنعتی بود، تولیدات داشتیم، و الان لذت میبردیم در کنار کشورهای دیگه، از پیشرفت چندین سالمون

  • مهمان - chaiebaksh

    خیلی باحال بود، راجع بازی ها و موبایل ها هم بذارید همچین مطلبی

  • مهمان - حسن

    مقاله جامع و کاملی بود?✔

  • مهمان - کاربر شهر سخت افزار

    سلام. بسیار عالی بود و لذت بردم. امیدوارم رشد علم هرساله چند هزار برابری باشد. بسیار از پیشرفت های علمی شگفت زده می شوم و دوست دارم سهی حتی اندک در ان داشته باشم.

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید