تا اونجایی که من تجربه کردم در کارهای گرافیکی اگر CPU از یک حدی ضعیف تر باشه سیستم نمیتونه از حداکثر کارایی GPU استفاده کنه. ضمنا" هرچقدر GPU قویتر باشه به همان نسبت نیاز به CPU قویتری هست.
البته نمیدونم عکسش هم صادق هست یا نه ؟
تا اونجایی که من تجربه کردم در کارهای گرافیکی اگر CPU از یک حدی ضعیف تر باشه سیستم نمیتونه از حداکثر کارایی GPU استفاده کنه. ضمنا" هرچقدر GPU قویتر باشه به همان نسبت نیاز به CPU قویتری هست.
البته نمیدونم عکسش هم صادق هست یا نه ؟
آخرین ویرایش توسط mehdi_s82 در تاریخ 09-01-09 انجام شده است
|
|
کاربر شهرسختافزار
میزان استفاده ی CPU در 3D Mark 2006 :
برای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنید
برای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنید
کاربر شهرسختافزار
هر دو تا باید قوی باشن
ولی برا گیمرا GPU برا کسایی که کار محاسبه دارن CPU
کاربر شهرسختافزار
حداقل CPU ای که افت بیشتر از 3 الی 5 فریم را روی کارت گرافیک نزاره و GPU هم دیگه هر چی پر قدرت تر بهتر .
برای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنید
آقا چیزی که شما نوشتی به هیچ وجه درست نیست در کارهای گرافیکی انیمیشن حرف اول رو سی پی یو و رم میزنن و کارت گرافیکی کمترین نقش رو داره !
کاربر شهرسختافزار
دوست عزيز ، اصلا اين دو مقوله ربطي بهم نداره. درسته با هم در ارتباطن اما هر كدوم تخصص خودشو داره. در كل CPU مغز اصلي سيستمه و GPU صرفا واسه پردازشهاي گرافيكي (بيشتر هم در بازيها) بكار ميره. مثل اينكه مثلا بخواهيم مهندسي عمران را با كامپيوتراز نظر كيفي مقايسه كنيم در حاليكه دو تخصص كاملا جداگانهبرای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنید ارسالی توسط Trance برای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنید
هست (با اينكه با هم در ارتباط هستند). پس به نظر من اين بحث با اين عنوان اصلا جواب منطقي نداره.
Trance (30-01-09)
|
|
مدتي هست بحث GPGPU مطرح شده . كمك كارتهاي گرافيك به پردازش عمومي
http://www.gpgpu.org
- Static and dynamic parallelization for hybrid CPU/GPU systems
- Compiler optimizations for GPU computing
- Language constructs and extensions to enable parallel programming with GPUs
- Run-time techniques to off-load computation to the GPU
- Language, programming model, or compiler techniques for mapping irregular computations to GPUs
- Debugging support for GPU programs
- Performance analysis tools related to GPU computing
- Other hardware-assisted methods for extracting and exploiting parallelism
Labyrinth (11-01-09)
یکی از موارد استفاده از این مورد تبدیل فرمت های ویدیویی است و بسیار کارآمده بطور مثال یک کارت 4870 سه برابر سریعتر از یک QX9650 کار میکنه اگر دیدید نیازه بگید بررسیش رو بگذارم برای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنیدبرای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنید ارسالی توسط AMD>INTEL برای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنید
عضو VIP شهرسختافزار
GPU ها که به منظور انجام محاسبات گرافیکی و کمک به CPU طراحی شده بودند ، اکنون توانایی کار بر روی همه انواع عملیات محاسباتی را دارند و نکته جالبتر اینکه به دلیل معماری مناسب GPU ، و عدم نیاز به کاشه های بزرگ (حافظه هایی که در پردازنده تعبیه می شوند ) ، GPU ها بسیار سریعتر از CPU ها پردازش می نمایند !برای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنید برای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنید برای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنید
این امر هم در مورد پردازشهای گرافیکی و هم در مورد کلیه نرم افزارهای روزمره و نیز حرفه ای صادق است . نتایج یک نمونه تست و مقایسه زمان مورد نیاز برای پردازش ، توسط GPU در مقابل CPU در زیر آورده شده است :
براساس جدیدترین آزمایشات صورت گرفته توسط سایت معروف و تخصصی Tomshardware :
CPU 1 thread: 1419 ms
_CPU 2 threads: 749 ms
_CPU 4 threads: 593 ms
_GPU (8600M GT) blocks of 256 pixels: 109 ms
_GPU (8600M GT) blocks of 128 pixels: 94 ms
_GPU (8800 GTX) blocks of 128 pixels / 256 pixels: 31 ms
مشاهده می شود که در ضعیفترین GPU ، سرعت نسبت به بهترین حالت CPU ، حدودا شش بار بیشتر است ! این توانایی پردازش در همه کارتهای گرافیکی وجود دارد . تنها نکته ، چگونگی کمپایل نرم افزارها است . در واقع برنامه نویس باید بتواند کدها را به زبان GPU بنویسد . ولیNvidia با معرفی CUDA ، به هر برنامه نویسی که توانایی نوشتن کد به زبانهای معمول C/C++ را دارد ، امکان کار با GPU و استفاده از قدرت بالای آن را می دهد .
جدیدأ ، به منظور استفاده بهتر از Nvidia ، CUDA تراشه های گرافیکی سری Geforce GTX 200 را نیز به بازار عرضه نموده است . این تراشه ها همچنان از DirectX 10 پشتیبانی می نمایند ولی دارای معماری جدیدی نسبت به سریهای 8 و 9 می باشند . مزیت اصلی این GPU همانطور که ذکر شد ، امکان اجرای نرم افزارهای رایج است (General Purpose Graphic Processing Unit یا GPGPU ) . البته این کار در چند کار تحقیقاتی (و با عرضه سیستم Tesla) با کارتهای گرافیکی قبلی نیز انجام شد ولی برای چند نرم افزار خاص ، نه برای همه نرم افزارهای رایج .
تراشه های Nvidia Geforce GTX 200 در دو نسخه متفاوت به بازار عرضه شده اند و همانطور که گفته شده ، دارای معماری متفاوتی نسبت به سریهای 8 و 9 می باشند و به نظر می رسد دارای راندمان بسیار بالایی می باشند . در زیر مقایسه ای از این کارتها را مشاهده می نمایید :
برای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنید
در نهایت باید به این نکته توجه کرد که صنعت رایانه ، به سمت پردازشهای موازی پیش می رود . عملی که در حال حاضر پردازنده های گرافیکی (GPU) ها بسیار بهتر از CPU ها انجام می دهند و Nvidia با دانش کافی از معماری GPU های تولیدی خود ، در این راه گام برداشته است . Intel و AMD نیز اعلام داشته اند که در این راه بیکار ننشسته اند و در حال ارائه تکنولوژی های جدیدی در این زمینه می باشند . و قطب دیگر ، Microsoft ، نیز اعلام داشته است در حال ارائه سیستم عامل و کمپایلری است که تمامی این پردازنده ها را پشتیبانی نماید . حال کدام یک از این غولهای رایانه در آینده موفقند ( البته در حال حاضر ، کمپانی موفق Nvidia بوده است که گفته های خود را عملی نیز نموده است ) مشخص نیست ، ولی چیزی که مشخص است ، قدرت GPU و برتری آن به CPU است . تراشه ای که برای کمک آمده بود ، در حال خارج کردن استاد خود از رده است !
منبع : سایت تامز هاردور برای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنید
البته این مورد در سری ATI هم وجود دارد ولی نرم افزارهای کمی هستن که از این قابلیت بتوانند استفاده کنند
یکی از موارد مهم در این پروژه که قدرت پردازنده گرافیکی را تعییین میکند واحد های سایه زنی است و قسمت دیگه فرکانس هسته
البته موارد زیاده ولی باشد برای بعد ...
برای مشاهده این لینک/عکس می بایست عضو شوید ! برای عضویت اینجا کلیک کنید
آخرین ویرایش توسط Labyrinth در تاریخ 30-01-09 انجام شده است
1 کاربر در حال مشاهده این موضوع. (0 عضو و 1 میهمان)
Bookmarks