انویدیا امروز اعلام کرد که TensorRT را به پلتفرم RTX می‌آورد. این فناوری با استفاده هسته‌های RT که به طور معمول برای شتاب‌دهی رهگیری پرتو در کارت‌های گرافیک GeForce RTX به کار می‌روند، عملکرد برنامه‌های هوش‌مصنوعی را تا دوبرابر افزایش می‌دهد.

طبق اعلام انویدیا، با استفاده از TensorRT، کاربران در برنامه‌های هوش مصنوعی تا ۲ برابر افزایش عملکرد نسبت به DirectML مشاهده خواهند کرد. TensorRT همچنین به طور بومی توسط Windows ML پشتیبانی می‌شود و لازم به ذکر است که TensorRT-LLM (نسخه مخصوص مدل‌های زبانی بزرگ) از قبل در ویندوز در دسترس است.

راه‌حلی برای چالش‌های توسعه‌دهندگان

پشته نرم‌افزاری فعلی کامپیوترهای هوش مصنوعی، توسعه‌دهندگان را با چالش انتخاب بین فریم‌ورک‌هایی با پشتیبانی سخت‌افزاری گسترده اما عملکرد پایین‌تر، یا راهکارهای بهینه‌سازی شده که فقط سخت‌افزار یا مدل‌های خاصی را پوشش می‌دهند، مواجه می‌کند. فریم‌ورک استنتاج جدید Windows ML برای حل این چالش‌ها طراحی شده است.

tensorrt-2.jpg

Windows ML بر پایه ONNX Runtime ساخته شده و به طور یکپارچه به یک لایه اجرای هوش مصنوعی بهینه‌سازی شده که توسط هر سازنده سخت‌افزار ارائه و بروزرسانی می‌شود، متصل می‌گردد. برای کارت‌های گرافیک GeForce RTX، Windows ML به طور خودکار از TensorRT for RTX که یک کتابخانه استنتاج بهینه‌سازی شده برای عملکرد بالا و استقرار سریع است، استفاده می‌کند. انویدیا ادعا می‌کند TensorRT در مقایسه با DirectML، بیش از ۵۰٪ عملکرد سریع‌تری برای بارهای کاری هوش مصنوعی در کامپیوترهای شخصی ارائه می‌دهد.

مزایا برای توسعه‌دهندگان و کاربران

Windows ML همچنین مزایایی برای توسعه‌دهندگان به همراه دارد. این فریم‌ورک می‌تواند به طور خودکار سخت‌افزار مناسب برای اجرای هر ویژگی هوش مصنوعی را انتخاب کرده و فایل‌ها متناسب برای آن سخت‌افزار را دانلود کند. این امر به انویدیا امکان می‌دهد تا به محض آماده شدن، آخرین بهینه‌سازی‌های عملکرد TensorRT را در اختیار کاربران قرار دهد. همچنین، به دلیل ساختار مبتنی بر ONNX Runtime، Windows ML با هر مدل ONNX سازگار است.

tensorrt-2.jpg

علاوه بر بهبود عملکرد، TensorRT for RTX مزایای دیگری نیز دارد: حجم فایل‌های کتابخانه آن ۸ برابر کوچک‌تر شده و شامل بهینه‌سازی‌های لحظه‌ای  برای هر کارت گرافیک است. TensorRT for RTX در ماه ژوئن برای تمامی کارت‌های گرافیک NVIDIA GeForce RTX از طریق وبسایت توسعه دهندگان انویدیا در دسترس خواهد بود.

نمونه‌های افزایش عملکرد

انویدیا در اسلایدهای خود نشان داده است که در نرم‌افزار ComfyUI، کاربران می‌توانند تا ۲ برابر افزایش عملکرد داشته باشند، در حالی که DaVinci Resolve و Vegas Pro افزایش ۶۰ درصدی را تجربه خواهند کرد. این بهبودها منجر به زمان‌های اجرای سریع‌تر هوش مصنوعی و گردش کار روان‌تر شده و به کارت‌های گرافیک و کامپیوترهای RTX اجازه می‌دهد پتانسیل کامل خود را به نمایش بگذارند.

tensorrt-2.jpg

انویدیا همچنین بیش از ۱۵۰ کیت توسعه نرم‌افزار (SDK) هوش مصنوعی را با ۵ ادغام جدید با فروشندگان مستقل نرم‌افزار (ISV) که در این ماه عرضه می‌شوند، تقویت می‌کند. این موارد عبارتند از:

  • افزایش ۳۰٪ عملکرد با آخرین نسخه CUDA در LM Studio
  • شتاب‌دهی ویدیوی هوش مصنوعی مولد با CUDA در Topaz Video AI
  •  ادغلام فکت‌های NVIDIA Broadcast در شبکه اشتراک‌گذاری ویدئوی چنینی Bilibili
  • AutoDesk VRED (DLSS 4)
  • Chaos Enscape (DLSS 4)

علاوه بر این، انویدیا NIMهای جدید (NVIDIA Inference Microservices) و AI Blueprints را معرفی کرده است که شامل پلاگین‌های جدیدی برای Project G-Assist مانند ادغام با Discord، Gemini، IFTTT، Twitch، Spotify و SignalRGB است. کاربران همچنین می‌توانند پلاگین‌های سفارشی خود را برای Project G-Assist از طریق صفحه گیتهاب پروژه بسازند.

نظر خود را اضافه کنید.

ارسال نظر بدون عضویت در سایت

0
نظر شما پس از تایید مدیر منتشر خواهد شد.
  • هیچ نظری یافت نشد

ورود به شهرسخت‌افزار

ثبت نام در شهر سخت افزار
ورود به شهر سخت افزار

ثبت نام در شهر سخت افزار

نام و نام خانوادگی(*)
لطفا نام خود را وارد کنید

ایمیل(*)
لطفا ایمیل خود را به درستی وارد کنید

رمز عبور(*)
لطفا رمز عبور خود را وارد کنید

شماره موبایل
Invalid Input

جزو کدام دسته از اشخاص هستید؟(*)

لطفا یکی از موارد را انتخاب کنید