تبادل نظر در مورد سری Volta (نامی قدیمی معماری نوین)

ساخت وبلاگ

خرد هر کجا گنجی آرد پدید ز نام خدا سازد آن را کلید


بعد از چند سال تاخیر بلاخره مشخصات و معماری ولتا ان چیزی که برای انویدیا برای رقابت راضی کننده بود نهایی شد

در GTC 2017 اولین مسئله ای که توسط CEO انویدیا عنوان شد
جهان پس از قانون مور

روند افزایش ترانزیستور برای بالا بردن کارایی از دیدگاه افزایش بهینگی مصرف می اید

در حقیقت کارایی cpu ها هر سال فقط 10 درصد افزایش پیدا می کنند اما gpu رشد قابل توجهی دارد
به همین خاطر جریان کاهش بار cpu و دادن ان به gpu مخصوصا برای محاسبات سنگین اغاز شده است

معرفی اولین تراشه سری ولتا با نام تسلا gv100
طبق گفته انویدیا اندازه سطح این تراشه در نهایت پذیرش سطح لیتوگرافی ممکن است
815 میلیمتر مربع !!!! و در لیتوگرافی 12 نانومتری مخصوص tsmc برای انوییدا FFN که برابر 21.1 بیلیون ترانزیستور می شود

به دلیل افزایش مشکلات تراشه در سطوح بزرگ از تعداد 84 sm ان
4 عدد برای غیر فعال بودن در نظر گرفته شده است و به صورت رسمی تعداد 80 SM اعلام شده

نسبت به gp100 پاسکال در مصرف یکسان شاهد افزایش تعداد ترانزیستور و سطح تراشه 33 درصدی هستیم
اما تعداد هسته های سایه زن 42 درصد افزایش داشته . که نشان از بهینه سازی معماری از نظر ترانزیستور دارد

واحد کنترل حافظه HBM2 پهنای باند 1.2 برابری بیشتری از پاسکال دارد
NVlink با سرعت بیشتر و حافظه coherency مشترک یکسان بین cpu و gpu
شکل شاخص معماری انویدیا که متشکل از SM ها و GPC مشترک دارد تفاوتی نکرده
و هر SM می تواند به صورت یک گرافیک مستقل عمل کند

اما خود SM ها تغییراتی خیلی زیادی داشته است که ادامه مطلب فقط به ان اختصاص دارد

[Only registered and activated users can see links. ]

اولین چیزهایی که جلب توجه میکند تغییر تعداد قسمت های شدر و سایه زن هر sm به 64 عدد است
که به چهار قسمت 16 تایی تقسیم شده است و دو بخش Tensor cores در هر کدام که تعداد کلی 8 در هر SM می شود

در سابق انویدیا از simd هایی با طول 4 استفاده می کرده است
و اگر همچنان این گونه باشد در هر بخش 16 قسمتی sm چهار simd یا چهار مرحله خط لوله با SFU هستند
انویدیا گفته است که فرکانس را افزایش داده اند اما در gv100 و gp100 فرکانس با وجود sm های بیشتر ولتا تغریبا یکسان هست

طبق گفته انویدیا sm های جدید 50 درصد بهینه تر هستند
برخلاف سابق انویدیا بخش های عدد صحیح و شناور سایه زن های خود را از هم جدا کرده است
که باعث شده است که INT و FP به صورت دستور غیر یکسان و همزمان فعالیت داشته باشند
یا خاموش کردن بخش دیگر در صورت استفاده نشدن

Independent Thread Scheduling

علت یا عامل اصلی تغییرات معماری قابلیت دسته بندی رشته ها به صورت مستقل است
برخلاف معماری مکسول که دسته بندی بر اساس کامپایلر داشت
که این تغییر می تواند کمک زیادی در DX12 و Vulkan باشد

در این تصویر تفاوت اصلی بین مکسول و ولتا را می بینید

[Only registered and activated users can see links. ]

در گذشته تمام نخ های یک warp از شمارنده برنامه pc یکسان استفاده می کردند
ولی در ولتا هر نخ یک شمارنده مجزا و اختصاصی دارد

[Only registered and activated users can see links. ]

[Only registered and activated users can see links. ]

که نتیجه باعث می شود که برخلاف مکسول که در sm به صورت همپوشی و قرار دادن اطلاعات
یکسان در کل یک sm یکسان به صورت قفل شده بود
در ولتا هرکدام می توانند به صورت دسته بندی دقیق تر و مشخص تر باشند

مثالی از مدیریت شاخه یا branch و تفاوت انها در هر دو معماری

[Only registered and activated users can see links. ]

در مکسول دو شاخه که هر شاخه می تواند اطلاعات دیگری که به دسته ان می خورد داشته باشد
تا صرفه جویی و مصرف بهینه از ضرفیت simd داشته باشد

[Only registered and activated users can see links. ]

اما در مدیریت مستقل نخ ها در ولتا هر شاخه به صورت مستقل هست
که به ادرس دهی دقیق نخ ها در vulkan منجر می شود بر خلاف حالت قبل که کامپایلر بود

اتحاد کش سطح اول و کش اشتراکی

در گذشته و از زمان فرمی بعد از کش سطح دوم ، دو کش جداگانه وجود داشت
که یکی کش اختصاصی سطح اول و دیگری کش اشتراکی که اطلاعات بین sm ها تبادل میکند

[Only registered and activated users can see links. ]

در مدل مکسول نبود کش سطح اول باعث کاهش سرعت 30 درصدی میشد
اشتراک این دو قسمت به صورتی است که جداگانه نبودن کش سطح اول فقط 7 درصد کاهش سرعت دارد

[Only registered and activated users can see links. ]

در ولتا کش سطح اول می تواند coherency از طریق کش سطح دوم داشته باشد
این قسمت یکی از ضروریت های api های چند نخی جدید هست
که معماری gcn از همان ابتدا این گونه بوده است

TENSOR CORES

این قسمت پردازشی اضافه در sm ها پردازنده های تک منظوره ساده ای هستند
که در عین توجه به صرفه جویی اندازه برای سرعت بخشیدن به محاسبات ماتریسی هوش مصنوعی هست
Tensor با همین نام ابتدا توسط google برای هوش مصنوعی ابداء شد و به صورت متن باز و رایگان منتشر شد
با استفاده از این پردازنده های ساده ضرفیت هوش مصنوعی انویدیا فقط در یک نسل به 12 برابر رسید
چیزی که خیلی بیشتر از توانایی های cpu و gpu های عمومی هست
وجود tensor و مرحله اضافه قبل از شدر ها تاخیر قابل قبول 7 میلی ثانیه می اورد

[Only registered and activated users can see links. ]

یکی از کاربرد های هوش مصنوعی در تکنیک نور پردازی ray tracing انویدیا هست
Ray tracing یکی از پردازش هایی هست که سطوح اجسام و اندازه پیکسل ها و تفاوت خیلی زیاد انها فشار به گرافیک می اورد
اما با گزینش هدفمند پیکسل ها با هوش مصنوعی بازدهی ray tracing خیلی افزایش پیدا می کند

مرجع اورکلاک...
ما را در سایت مرجع اورکلاک دنبال می کنید

برچسب : نویسنده : استخدام کار external بازدید : 244 تاريخ : دوشنبه 15 خرداد 1396 ساعت: 13:47