رنگ های غنی ، کنتراست فوق العاده و جزئیات عالی. کسانی که به بخش تلویزیون یک فروشگاه لوازم الکترونیکی مصرفی نگاه می کنند ، از شکوه و جلال بی نظیر تصویر خیره خواهند شد. این روزها حتی مدل های میان رده کیفیت تصویر بسیار بهتری را نسبت به برترین دستگاه های HDTV که هفت سال پیش منتشر شده اند ، ارائه می دهند.

هنگام تماشای تلویزیون تخت جدید ، معمولاً این تصور ایجاد می شود که فقط وضوح UHD یا 4K مسئول کیفیت عالی عکس است. این پیکسل چهار برابر بیشتر از فناوری قبلی Full HD است که در نهایت باید به یک تصویر واضح تر منجر شود. در حقیقت ، وضوح تصویر UHD کمتر از آنچه تصور می شود ، بر کیفیت تصویر تأثیر می گذارد. آنچه تولیدکنندگان به تعداد زیادی پیکسل نسبت می دهند به پارامترهای دیگر بستگی دارد: کنتراست بالا ، رنگ های طبیعی و رئوس مطالب صاف اغلب نتیجه فناوری هایی مانند HDR با افزایش عمق رنگ (10 بیتی) است.

وضوح گرافیکی در مقایسه
تصویر Ultra HD (UHD) دارای 4 برابر پیکسل بیشتر از وضوح تصویر Full HD (1080p) است

کیفیت بالا: استاندارد 4K

اصطلاح 4K از صنعت فیلم تولید می شود و استاندارد رسمی ضبط و پخش در دوربین های فیلم ، پروژکتورها و صفحه نمایش ها است. در عین حال ، رزولوشن 4K 4096 × 2160 پیکسل است و به عنوان یک جانشین مستقیم برای استاندارد 2K قبلی (1080 20 2048 پیکسل) عمل می کند. 4K نه تنها رزولوشن را شامل می شود ، بلکه نسبت فشرده سازی ، سرعت بیت و عمق رنگ مواد فیلم را نیز تعریف می کند.

با این حال ، حتی اگر بسیاری از تلویزیون ها به عنوان پشتیبانی از وضوح 4K تبلیغ می شوند ، در واقع تعداد کمی از آنها 4096x2160 را با نسبت ابعاد 19:10 ارائه می دهند. وقتی صحبت از دستگاه های 4K مصرف کننده می شود ، منظور آنها معمولاً تلویزیون هایی با وضوح UHD است که 3840 × 2160 پیکسل است. UHD استاندارد رسمی برای نمایشگرها و تلویزیون ها محسوب می شود و همچنین "جانشین" 1080p یا Full HD (1920 10 1080 پیکسل) است. از آنجا که تفاوت بین 4K و UHD هنگام قضاوت روی صفحه تلویزیون بسیار ناچیز است ، تولیدکنندگان و رسانه ها اغلب این دو را اشتباه می گیرند.



وضوح UHD به مزایای خود در دستگاههایی با مورب بزرگ یا فاصله بسیار نزدیک از صفحه تلویزیون پی می برد.

همانطور که قبلاً ذکر شد ، وضوح UHD به خودی خود فقط بخشی از کیفیت تصویر را نشان می دهد. با دید خوب ، تفاوت بین UHD و Full HD تنها در فاصله کمی از صفحه تلویزیون قابل درک است. برای یک تلویزیون 50 اینچی ، این فاصله حدود 1.5 متر است - برای اکثر اتاق های نشیمن بسیار کوتاه. فاصله دید راحت معمولاً 3-4 متر است. در مسافت بیشتر ، برای دستیابی به جلوه 4K به یک پروژکتور و صفحه نمایش نیاز است.

با این حال ، اثر UHD به پارامترهای زیادی بستگی دارد. قدرت بینایی و کیفیت فیلم از عوامل اصلی هستند. ضبط های Blu-Ray 4K دارای اثر UHD بیشتری نسبت به فیلم های جریان 4K نسبتاً فشرده شده Netflix هستند. همچنین ، هنگام تفسیر مواد با وضوح 1080p ، تلویزیون های مدرن UHD کاملاً کیفیت آنها را تنظیم می کنند: بنابراین ، فیلم های منظم Blu-ray معمولاً در آنها بهتر از دستگاه های Full HD به نظر می رسد. هرکسی که بخواهد با وجود فاصله زیاد از صفحه نمایش ، یک تصویر بهبود یافته در تلویزیون UHD خود ببیند ، مجبور نیست "تخیل را روشن کند". این وضوح نیست که مسئول "تأثیر لذت" واقعی در تلویزیون UHD است ، بلکه فناوری HDR است.

جزئیات بیشتر به لطف افزایش کنتراست

به زبان ساده ، فناوری دامنه دینامیکی بالا یا HDR (محدوده دینامیکی بالا) کنتراست را چندین برابر افزایش می دهد. این باعث می شود تصاویر واقعی تر و دقیق تر به نظر برسند. صحنه های شب در Full HD اغلب مانند تصاویر سیاه به نظر می رسند و با UHD + HDR ، حتی در صحنه های بسیار تاریک ، جزئیات زیادی دیده می شود. بنابراین ، HDR نه تنها چشم نواز است و تجربه فیلم ها و برنامه های تلویزیونی را افزایش می دهد ، بلکه در بازی های ویدیویی نیز با موفقیت به کار می رود.


آرم رسمی
آرم Ultra HD Premium دستگاه ها و رسانه های محتوایی را که از وضوح UHD و فناوری HDR10 پشتیبانی می کنند شناسایی می کند.

با این حال ، HDR فقط به معنای HDR خود نیست: استانداردهای مختلفی (HDR10 ، Dolby Vision ، Advanced HDR یا HLG) با مزایا و معایب خاص خود وجود دارد. تمام دستگاه های دارای نشان Premium UHD و همچنین کنسول های بازی PS4 Neo و Xbox One S از HDR10 پشتیبانی می کنند. HDR10 در درجه اول با استاندارد Dolby Vision HDR مخالف است. دالبی ویژن برخلاف HDR10 به تراشه سخت افزاری خاص خود احتیاج دارد که هزینه آن به همراه حق الزحمه نشان دهنده یک مورد مهم است.

در همان زمان ، عمق رنگ Dolby Vision 12 بیت است و بنابراین بهترین جلوه HDR را فراهم می کند ، همچنین با عمق رنگ 10 بیت از HDR10 به مراتب بهتر عمل می کند. به طور کلی ، HDR10 برای مصرف کننده اصلی جریان استاندارد است ، در حالی که Dolby Vision یک خبر گران قیمت برای علاقه مندان به سینمای خانگی است.

هنگام پخش ضبط های Dolby Vision در تلویزیون های ارزان قیمت فقط HDR10 ، مشکلی وجود ندارد زیرا Dolby Vision قابلیت های اساسی HDR10 را نیز ارائه می دهد. با این حال ، به نظر می رسد که یک فیلم Blu-ray 4K در تلویزیون فقط Full HD نمایش داده می شود.

اکنون می توان پیش بینی کرد که آیا هر دو روش به طور موازی وجود خواهند داشت یا فقط یکی زنده خواهد ماند. با این حال ، سامسونگ اخیراً استاندارد جانشین HDR10 + را معرفی کرده است که می تواند در آینده چالش های بزرگی برای Dolby Vision ایجاد کند. در HDR10 + ، فراداده ای که رنگ و کنتراست تصویر را توصیف می کند به صورت استاتیک ایجاد نمی شود ، بلکه به صورت پویا برای هر صحنه یا کادر جداگانه ایجاد می شود ، مانند Dolby Vision.

این اثر تقریباً مزیت کیفیت Dolby Vision را نفی می کند. علاوه بر این ، استاندارد همچنین محدوده دینامیکی HDTV معمولی را بهینه می کند (بدون U ، "فوق العاده"). دستگاه های منتخب با نشان 2015-2016 Premium UHD از طریق به روزرسانی میان افزار ، از جمله استاندارد مورد نیاز HDMI 2.0b ، از پشتیبانی HDR10 + برخوردار می شوند. در پایان اینکه چقدر HDR10 خوب خواهد بود ، به زودی مشخص خواهد شد که سرویس پخش جریانی آمازون ویدئو شروع به پخش فیلم با استفاده از HDR10 + می کند.


مقایسه HDR و SDR
HDR به طور چشمگیری دامنه کنتراست را افزایش می دهد. عکس سمت چپ یک کادر با HDR (1) را نشان می دهد ، در مقایسه با تصویر کم رنگ SDR بسیار رسا و دقیق تر است (2)

همچنین لازم است که به فناوری HLG (Hybrid Log Gamma) - نوعی HDR اشاره کنیم که با مشارکت شرکت انگلیسی BBC تولید شده است. تاکنون ، یک مشکل قابل توجه در مورد HDR این است که فراداده مورد نیاز برای عملکرد آن به فضای دیسک و پهنای باند خوب نیاز دارد. این مسئله در پخش تلویزیونی با فرکانسهای محدودش به یک مشکل تبدیل می شود. حیله HLG: ویدیوی پخش جریانی تلویزیون حاوی تمام اطلاعات پخش همزمان HDR و SDR (محدوده پویای استاندارد) است. این نه تنها برای شرکتهای تلویزیونی ، بلکه برای پخش کننده های جریانی از جمله مزیت است. از آنجا که HLG بخشی از استاندارد HDMI-2.0b است ، در آینده تمام تلویزیون هایی که از HDR10+ پشتیبانی می کنند نیز باید بر HLG "تسلط داشته باشند".

4K Blu-Ray: پرونده ها و پخش کننده های چندرسانه ای

این روزها کلاس پرمیوم علاقه مندان به سینما UHD یا 4K Blu-Ray است. این استانداردهای چندرسانه ای حدود یک سال است که در همه جا وجود دارد و در حال حاضر حدود صد پرونده در سیستم عامل آمازون ذکر شده است. نسخه های Blu-ray 4K به جای یک دیسک پلاستیکی آبی ، با یک مستطیل تیره با نشان "4K Ultra HD" نشان داده می شوند.

هزینه محصولات جدید حدود 1500 روبل است. بسیاری از فیلم های Blu-ray 4K نیز با پرداخت هزینه ای اندک با کیفیت Blu-ray معمولی در دسترس هستند. متأسفانه ، در حال حاضر فقط فیلم ها با کیفیت 4K در دسترس هستند. سریال ها گم شده اند. احتیاط لازم است با دیسک هایی با عنوان "Mastered in 4K" زیرا محتوای Full HD را ارائه می دهند.

بسیاری از تولیدکنندگان بزرگ پخش کننده های فیلم Blu-ray 4K را با HDR10 ارائه می دهند - قیمت از 18000 روبل شروع می شود (سامسونگ UBD-K8500)

نسخه HDR پخش کننده های Blu-ray 4K در حال حاضر به طور انحصاری از فناوری HDR10 استفاده می کند. اگرچه Warner ، Lionsgate و Universal از اكران فیلم های Dolby Vision در CES 2017 در ژانویه خبر دادند ، اما Power Rangers هنوز از پایان ژوئن تنها فیلم HDR در این قالب است. شروع "بلاتکلیف" نیز به این دلیل است که در حال حاضر عملاً هیچ دستگاه پخش Blu-ray با پشتیبانی از Dolby Vision وجود ندارد. فقط اوپو قول داده است که از طریق نسخه به روزرسانی سیستم عامل از این استاندارد برای پخش کننده برتر UDP-203 خود پشتیبانی کند (نگاه کنید به سمت چپ) ، در حالی که LG قول داده است که برای پخش Dolby Vision LG UP970 را به روز کنید. بنابراین هرکسی که روی این فناوری شرط ببندد باید کمی بیشتر صبر کند.

برای پخش دیسک های 4K HDR10 به دستگاه های پخش کننده Blu-ray جدید نیاز است ، زیرا چنین رسانه هایی به سخت افزار جدید و بیش از همه پشتیبانی از محافظت از کپی AACS 2.0 نیاز دارند. انتخاب هنوز کم است ، اما هر تولید کننده اصلی مدل مشابهی را در مجموعه دستگاه های خود ارائه می دهد. قیمت تجهیزات از 10،000 تا 50،000 روبل است. همه دستگاه ها با دیسک های Blu-ray معمولی سازگار هستند و می توانند به پورتال های اصلی پخش ویدئو (به عنوان مثال Netflix ، Amazon ، YouTube) متصل شوند.


سونی KD-49XD8005 49 اینچی می تواند UHD و HDR10 را بازی کند. در حال حاضر با قیمت حدود 65000 روبل در دسترس است.

4K Blu-Ray در رایانه شخصی: پیش نیازهای پیچیده

کسانی که می خواهند محتوای 4K Blu-ray را در رایانه خود تماشا کنند با مشکلات جدی روبرو هستند. CyberLink اخیراً نسخه جدید 4K PowerDVD 17 را معرفی کرده است. با این حال ، برای پخش در رایانه شخصی ، همه تجهیزات ، از درایو گرفته تا نمایشگر ، باید از استاندارد حفاظت از کپی AACS 2.0 پشتیبانی کنند. در اینجا لیستی از موارد ضروری آورده شده است: ویندوز 10 64 بیتی ، پردازنده دسک تاپ Intel Kaby Lake و مادربرد با محافظت از اطلاعات Intel Software Guard Extension (SGX).


PowerDVD 17 بر روی رایانه شخصی UHD Blu-Ray را بازی می کند. برای انجام این کار ، تمام اجزای رایانه باید از استاندارد جدید حفاظت از کپی AACS 2.0 پشتیبانی کنند.

شما همچنین به GPU با قابلیت پخش رسانه های 4K و پشتیبانی از HDCP 2.2 نیاز دارید. گرافیک های یکپارچه اینتل قبلاً این کار را انجام داده اند ، اما nVidia و AMD تازه شروع به تطبیق کارت های گرافیک و درایورهای خود کرده اند. این صفحه نمایش همچنین به پشتیبانی HDCP 2.2 نیاز دارد: به عنوان مثال ، از طریق HDMI 2.0. درایوهای Blu-ray با قابلیت پخش BDXL و پشتیبانی از AACS 2.0 در حال حاضر فقط در ژاپن موجود است. با این حال ، آنها باید در تابستان در اروپا ظاهر شوند. هزینه های کاملاً قابل توجه - و فقط برای جلوگیری از دزدی دریایی.


برای پخش به درایوهای مجاز نیاز دارد ، مانند BDR-S11J-BK پایونیر

نمایشگرهایی با پشتیبانی از HDR10 هنوز برای فروش نادر هستند: به عنوان مثال ، LG در آینده نزدیک قصد دارد یک مدل 32 اینچی (حدود 70،000 روبل) را در اروپا ارائه دهد و دل با پشتیبانی از HDR از عرضه مدل UP2718Q (حدود 130،000 روبل) خبر داد. ، برای آمریکای شمالی. اگر در مورد مدلهای معمولی 4K صحبت کنیم ، انتخاب در اینجا بسیار زیاد است و قیمتها از 23000 روبل (Samsung LU28E590DS) شروع می شود.

ویدئو از نتفلیکس و آمازون: فیلم های 4K به خانه شما

پلتفرم های پخش ویدئو Amazon Video و Netflix دارای تعداد زیادی فیلم 4K و تا حدودی HDR و نمایش های تلویزیونی هستند. Netflix همچنین از Dolby Vision در کنار HDR10 استفاده می کند. پخش 4K و HDR نیاز به گرانترین اشتراک و حداقل پهنای باند 25 مگابیت در ثانیه دارد. پخش ویدئوی 4K "خالص" از قبل با سرعت 15 مگابیت بر ثانیه امکان پذیر است.


Netflix برخی از فیلم ها را با کیفیت HDR10 یا حتی Dolby Vision ارائه می دهد ، اما تنها در صورتی که تلویزیون از این استانداردها پشتیبانی کند.

برای مشاهده در دالبی ویژن ، یک تلویزیون UHD مناسب پیش نیاز است که در حال حاضر فقط توسط LG با قیمت نسبتاً بالا ارائه می شود. همچنین ، بازیکنان را می توان در نظر گرفت (حدود 5000 روبل) ، (حدود 20،000 روبل) یا (حدود 25،000 روبل). آمازون همچنین از HDR10 و Dolby Vision برای برخی از محتوای چندرسانه ای پشتیبانی می کند. نیازهای سیستم مشابه Netflix است ، اما شما با خرید بسته خدمات استاندارد Amazon Prime تمام مطالب را دریافت می کنید.


Fire TV Box فیلم 4K را با سرعت 30 فریم در ثانیه پخش می کند. پشتیبانی از HDR فقط در مدل های آینده در دسترس خواهد بود.

هرکسی که می خواهد از دستگاه Amazon Fire TV Box به عنوان پخش کننده استفاده کند باید توجه کند: Fire TV مدرن (حدود 3000 روبل) از پخش فیلم 4K با سرعت 30 فریم در ثانیه پشتیبانی می کند ، اما از HDR پشتیبانی نمی کند.

با این حال ، محتوای آمازون باید روی دستگاه مناسب قابل پخش باشد. با آمازون که پخش HDR10 + را به زودی آغاز می کند ، استفاده از آن در صورت بروزرسانی منطقی است.

وضعیت دریافت 4K HDR در روسیه چگونه است؟

در حال حاضر بزرگترین سینمای آنلاین MEGOGO به کاربران روسی امکان تماشای فیلم های دوبله شده با فرمت 4K HDR را می دهد. دارندگان تلویزیون های هوشمند UHD می توانند برنامه را نصب کنند (اگر به طور پیش فرض مانند تلویزیون های LG از قبل نصب نشده اند) ، یک اشتراک پولی خریداری کرده و از شاهکارهای فیلم با کیفیت بالا با دامنه روشنایی گسترده لذت ببرند. در زمان تهیه این مقاله ، این سرویس شامل 28 فیلم داخلی و خارجی با فرمت 4K HDR بود.


Insight 4K به طور عمده پخش تلویزیونی واقعیت و یکی از چهار ایستگاه UHD دریافت شده از طریق ماهواره Astra را ارائه می دهد

برای ایستگاه های رادیویی و مراکز تلویزیونی خصوصی ، 4K یا UHD یکی از آینده های دور است - حتی پخش کنندگان بزرگ قرار نیست به این زودی ها در Ultra HD پخش کنند. امروزه ، به غیر از کانال های تخصصی ، فقط چهار برنامه وجود دارد که توسط اپراتور Tricolor TV پخش می شود: کانال ورزشی و سرگرمی Russian Extreme Ultra ، کانال فیلم KINO UHD ، کانال نمایش واقعیت INSIGHT UHD و کانال مد Fashion One 4K.

همه آنها در بسته Ultra HD پولی پذیرفته می شوند. برای دریافت محتوای 4K ، یک گیرنده ماهواره CI + مورد نیاز است که از رمزگشایی پخش Ultra HD 4K و همچنین فشرده سازی HEVC (H.265) ، استانداردهای HDMI 2.0 و HDCP 2.2 پشتیبانی می کند که قبلاً در بسیاری از تلویزیون های هوشمند مدرن ادغام شده اند.


برای بسته هایی با فرمت UHD از Sky ، به گیرنده Sky + Pro نیاز دارید ، اما ارائه دهنده تلویزیون هنوز از فناوری HDR پشتیبانی نمی کند.

تلویزیون 4K: UHD + HDR10 با قیمتی مقرون به صرفه

از آنجا که مزایای UHD بیشتر در صفحه های بزرگ مشاهده می شود ، یک پروژکتور همراه یک دستگاه پخش ایده آل است ، اما قیمت ها بسیار بالا است. ایسر V9800 که بهترین نتیجه را در آزمایشگاه ما نشان داد ، 427000 روبل است. از طرف دیگر ، UHD در تلویزیون چندان گران نیست: مدل های خوب UHD با مورب تا 55 اینچ و پشتیبانی از HDR10 از 50000 روبل هزینه دارند. اوضاع در مورد تلویزیونهایی که از Dolby Vision پشتیبانی می کنند متفاوت است: اینها مدلهای OLED بسیار گران قیمت ال جی هستند. ارزانترین مدل - - 115000 روبل هزینه دارد.


یک پروژکتور 4K تقریباً یک ثروت دارد. Acer V9800 "ارزان" (حدود 427،000 روبل) کیفیت تصویر عالی را ارائه می دهد.

بهترین تلویزیون های UHD HDR

در جداول زیر ، بهترین تلویزیون های UHD تا 55 "، 55" و بالاتر و مدل های HDR10 را با حداکثر 100000 روب و 100000 روبل ذکر کرده ایم. در دسته "بهترین انتخاب" ، ما توصیه می کنیم که - بهترین گزینه با HDR10 را بررسی کنید. قیمت تمام مدل های دیگر حدود 80،000 روبل یا به طور قابل توجهی بیشتر است. Dolby Vision فقط در مدل های OLED جدید LG پشتیبانی می شود: به عنوان مثال.

5 تلویزیون برتر 4K تا 55 اینچ


1.

کیفیت تصویر (50٪)

: 98


امکانات (25٪)

: 100


ارگونومی (15٪)

: 94.8


کیفیت صدا (5٪)

: 100


بازده انرژی (5٪)

: 58.9


امتیاز کلی: 96.2

ارزش پول: 45

2.

کیفیت تصویر (50٪)

: 98.2


امکانات (25٪)

: 93.7


ارگونومی (15٪)

: 100


کیفیت صدا (5٪)

: 94


بازده انرژی (5٪)

: 65.4


امتیاز کلی: 95.5

ارزش پول: 53

3.

کیفیت تصویر (50٪)

: 96.3


امکانات (25٪)

: 97.1


ارگونومی (15٪)

: 100


کیفیت صدا (5٪)

: 92.9


بازده انرژی (5٪)

: 60.1


امتیاز کلی: 95.1

ارزش پول: 46

4.

کیفیت تصویر (50٪)

: 100


امکانات (25٪)

: 92.2


ارگونومی (15٪)

: 97.4


کیفیت صدا (5٪)

: 97.2


بازده انرژی (5٪)

: 51.1


امتیاز کلی: 95.1

ارزش پول: 51

5.

کیفیت تصویر (50٪)

: 97.6


امکانات (25٪)

: 93.7


ارگونومی (15٪)

: 100


کیفیت صدا (5٪)

: 78.3


بازده انرژی (5٪)

: 72.9


امتیاز کلی: 94.8

ارزش پول: 62

5 تلویزیون برتر 4K از 56 اینچ


پارامترمقدار
نام رمز تراشهGP104
فن آوری تولید16 نانومتر FinFET
تعداد ترانزیستور7.2 میلیارد
منطقه اصلی314 میلی متر مربع
معماری
پشتیبانی سخت افزاری DirectX
اتوبوس حافظه
1607 (1733) مگاهرتز
واحدهای محاسباتی20 پردازنده چند جریان از جمله 2560 ALU مقیاس دار برای محاسبات نقطه شناور در چارچوب استاندارد IEEE 754-2008.
بلوک های بافت160 واحد آدرس دهی و فیلتر کردن بافت با پشتیبانی از م componentsلفه های FP16 و FP32 در بافت ها و پشتیبانی از فیلترهای سه خطی و ناهمسانگرد برای همه قالب های بافت
نظارت بر پشتیبانی
مشخصات کارت گرافیک مرجع GeForce GTX 1080
پارامترمقدار
فرکانس هسته1607 (1733) مگاهرتز
2560
تعداد واحدهای بافت160
تعداد بلوک های ترکیب64
فرکانس حافظه موثر10000 (4 × 2500) مگاهرتز
نوع حافظهGDDR5X
اتوبوس حافظه256 بیتی
اندازه حافظه8 گیگابایت
320 گیگابایت در ثانیه
حدود 9 ترافلاپ
103 گیگا پیکسل در ثانیه
257 گیگاتکسل در ثانیه
لاستیکPCI Express 3.0
اتصالات
مصرف برقتا 180 وات
غذای اضافییک کانکتور 8 پین
2
قیمت پیشنهادی599-699 دلار (ایالات متحده آمریکا) ، 54990 روبل (روسیه)

مدل جدید کارت گرافیک GeForce GTX 1080 یک نام منطقی برای اولین راه حل از سری جدید GeForce دریافت کرده است - فقط با رقم نسل تغییر یافته از سلف مستقیم آن متفاوت است. این تازگی نه تنها جایگزین بهترین راه حلهای موجود در شرکت فعلی است ، بلکه برای مدتی به گل سرسبد سری جدید تبدیل شد ، تا اینکه Titan X با پردازنده های گرافیکی با قدرت حتی بیشتر عرضه شد. در زیر آن در سلسله مراتب ، مدل GeForce GTX 1070 که قبلاً اعلام شده است ، بر اساس نسخه محروم تراشه GP104 قرار دارد که در زیر به آن توجه خواهیم کرد.

پردازنده های گرافیکی جدید انویدیا به ترتیب MSRP 599 و 699 دلار برای نسخه عادی و Founders Edition دارند (زیر را ببینید) ، که با توجه به اینکه GTX 1080 نه تنها از GTX 980 Ti بلکه از Titan X نیز بهتر عمل می کند ، معامله بسیار خوبی است. امروز محصول جدید بدون هیچ گونه س theالی بهترین راه حل عملکردی برای کارت گرافیک های تک تراشه ای در بازار است و در عین حال هزینه آن کمتر از پربارترین کارت گرافیک های نسل قبلی است. تاکنون GeForce GTX 1080 رقیبی از AMD ندارد ، بنابراین انویدیا توانست قیمتی متناسب با آنها تعیین کند.

کارت گرافیک مورد نظر مبتنی بر تراشه GP104 با گذرگاه حافظه 256 بیتی است ، اما نوع جدید حافظه GDDR5X با فرکانس موثر بسیار بالا 10 گیگاهرتز کار می کند که پهنای باند حداکثر 320 گیگابایت بر ثانیه را می دهد - که تقریباً در سطح GTX 980 Ti با 384 است اتوبوس -بیتی میزان حافظه نصب شده روی کارت گرافیک با چنین گذرگاهی می تواند معادل 4 یا 8 گیگابایت باشد ، اما تنظیم احمقانه ای برای چنین راه حل قدرتمندی در شرایط مدرن احمقانه است ، بنابراین GTX 1080 کاملاً منطقی 8 گیگابایت حافظه دریافت می کند و این مقدار برای اجرای هر سه بعدی کافی است. برنامه های کاربردی با هر تنظیمات کیفی برای چندین سال آینده.

PCB GeForce GTX 1080 ، بنا به دلایلی کاملاً متفاوت با PCB های قبلی این شرکت متفاوت است. مقدار معمول مصرف برق برای محصول جدید 180 وات است که کمی بالاتر از GTX 980 است ، اما به طور قابل توجهی کمتر از Titan X و GTX 980 Ti کم قدرت است. برد مرجع مجموعه متداول اتصالات اتصال دستگاههای خروجی تصویر را دارد: یکی Dual-Link DVI ، دیگری HDMI و سه DisplayPort.

بنیانگذار نسخه مرجع طراحی

حتی با معرفی GeForce GTX 1080 در اوایل ماه مه ، نسخه ویژه ای از کارت گرافیک به نام Founders Edition اعلام شد که در مقایسه با کارت های ویدیوی معمول شرکای این شرکت ، قیمت بالاتری دارد. در واقع ، این نسخه یک طراحی مرجع برای کارت و سیستم خنک کننده است و توسط خود انویدیا تولید می شود. شما می توانید چنین گزینه هایی را برای کارت گرافیک ها به روش های مختلف درمان کنید ، اما طراحی مرجع توسعه یافته توسط مهندسان این شرکت و ساخت و ساز ساخته شده با استفاده از اجزای با کیفیت بالا طرفداران خود را دارد.

اما اینکه آیا آنها چند هزار روبل بیشتر برای کارت گرافیک Nvidia به خود اختصاص می دهند ، سوالی است که فقط تمرین می تواند پاسخ دهد. در هر صورت ، در ابتدا ، کارت های ویدیوی مرجع از انویدیا با افزایش قیمت در معرض فروش قرار می گیرند و چیز زیادی برای انتخاب وجود ندارد - این امر با هر اعلامیه ای اتفاق می افتد ، اما مرجع GeForce GTX 1080 از نظر تفاوت در این است که قرار است در کل دوره آن را به این شکل بفروشد زندگی ، درست تا راه حل های نسل بعدی.

انویدیا معتقد است که این نسخه حتی نسبت به بهترین کارهای شرکا نیز شایستگی هایی دارد. به عنوان مثال ، طراحی کولر دو شکاف باعث می شود تا بتوانید بر اساس این کارت گرافیک قدرتمند ، هم رایانه های شخصی دارای یک فرم نسبتاً کوچک و هم سیستم های ویدئویی چند تراشه را بسازید (حتی اگر شرکت توصیه نمی کند در حالت سه و چهار تراشه کار کنید). نسخه GeForce GTX 1080 Founders Edition دارای برخی از مزایای یک کولر محفظه بخار کارآمد و یک فن است که هوای گرم را از داخل کیس خارج می کند ، اولین راه حل Nvidia با مصرف کمتر از 250 وات.

در مقایسه با طرح های محصول مرجع قبلی این شرکت ، مدار تغذیه از چهار فاز به پنج فاز ارتقا یافته است. انویدیا همچنین در مورد اجزای بهبودیافته که محصول جدید بر اساس آنها ساخته شده است و همچنین کاهش نویز الکتریکی ، امکان بهبود پایداری ولتاژ و پتانسیل اورکلاک را دارد. در نتیجه تمام پیشرفت ها ، برد مرجع 6٪ از انرژی کمتری نسبت به GeForce GTX 980 بهره می برد.

و به منظور تفاوت با مدلهای "معمولی" GeForce GTX 1080 و از لحاظ ظاهری ، یک طراحی مورد "خرد شده" غیرمعمول برای Founders Edition ایجاد شد. که البته احتمالاً منجر به پیچیده شدن شکل محفظه تبخیر و رادیاتور نیز شده است (عکس را ببینید) ، که ممکن است یکی از دلایل اضافه شدن 100 دلار برای چنین نسخه ویژه ای باشد. تکرار می کنیم که در ابتدای فروش ، خریداران حق انتخاب زیادی نخواهند داشت ، اما در آینده آنها می توانند هم یک راه حل با طراحی خاص خود از یکی از شرکای شرکت و هم ساخت خود انویدیا انتخاب کنند.

نسل بعدی معماری گرافیکی پاسکال

کارت گرافیک GeForce GTX 1080 اولین راه حل این شرکت مبتنی بر تراشه GP104 است که متعلق به نسل جدید معماری گرافیک انویدیا - پاسکال است. اگرچه معماری جدید مبتنی بر راه حلهای ارائه شده در ماکسول است ، اما تفاوتهای عملکردی مهمی نیز دارد که بعداً درباره آنها خواهیم نوشت. تغییر اصلی از دیدگاه جهانی فرآیند جدید فناوری بود که طبق آن پردازنده گرافیکی جدید ساخته شد.

استفاده از فناوری فرآیند 16 نانومتری FinFET در تولید پردازنده های گرافیکی GP104 در کارخانه های شرکت تایوانی TSMC امکان افزایش قابل توجه پیچیدگی تراشه را با حفظ منطقه و هزینه نسبتاً پایین فراهم آورد. تعداد ترانزیستورها و سطح تراشه های GP104 و GM204 را مقایسه کنید - از نظر مساحت نزدیک هستند (تراشه تازگی از نظر فیزیکی حتی کمی کوچکتر است) ، اما تراشه معماری Pascal تعداد ترانزیستورهای قابل توجهی بیشتری دارد و بر این اساس ، واحدهای اجرایی ، از جمله آنهایی که عملکرد جدیدی دارند.

از نظر معماری ، بازی اول پاسکال بسیار شبیه راه حل های مشابه معماری ماکسول است ، اگرچه تفاوت هایی وجود دارد. مانند ماکسول ، پردازنده های Pascal پیکربندی های متفاوتی از Graphics Processing Cluster (GPC) ، Streaming Multiprocessors (SM) و کنترل کننده های حافظه خواهند داشت. چند پردازنده SM یک پردازنده کاملاً موازی است که برنامه ریزی و اجرای تارها (تارها ، گروه های 32 رشته دستورالعمل) را روی هسته های CUDA و سایر واحدهای اجرای یک پردازنده چند منظوره انجام می دهد. در بررسی راه حلهای قبلی انویدیا می توانید اطلاعات دقیق در مورد طراحی این بلوک ها را بیابید.

هر یک از پردازنده های چندگانه SM با موتور PolyMorph جفت شده اند که از نمونه برداری از بافت ، ساخت قالب ، تغییر شکل ، تنظیم ویژگی های راس و تصحیح چشم انداز استفاده می کند. بر خلاف راه حل های قبلی این شرکت ، PolyMorph Engine در تراشه GP104 همچنین شامل واحد جدید همزمان چند پروجکشن همزمان است که در زیر به آن خواهیم پرداخت. ترکیبی از چند پردازنده SM با یک موتور Polymorph به طور سنتی TPC - Cluster Processor Cluster for Nvidia نامیده می شود.

در کل تراشه GP104 در GeForce GTX 1080 شامل چهار خوشه GPC و 20 پردازنده چند منظوره SM و همچنین هشت کنترل کننده حافظه همراه با 64 واحد ROP است. هر GPC دارای یک موتور rasterization اختصاصی است و شامل پنج پردازنده چند SM است. هر چند پردازنده به نوبه خود شامل 128 هسته CUDA ، 256 کیلوبایت پرونده ثبت ، 96 کیلوبایت حافظه مشترک ، 48 کیلوبایت حافظه پنهان L1 و هشت واحد بافت TMU است. یعنی در کل ، GP104 شامل 2560 هسته CUDA و 160 TMU است.

همچنین پردازنده گرافیکی که GeForce GTX 1080 بر روی آن بنا شده شامل هشت کنترل کننده حافظه 32 بیتی (در مقایسه با 64 بیتی که قبلاً استفاده شده بود) است که به ما یک گذرگاه حافظه 256 بیتی نهایی می دهد. هشت ROP و 256 KB حافظه پنهان L2 به هر کنترل کننده حافظه متصل می شوند. یعنی تراشه GP104 در کل شامل 64 ROP و 2048 KB حافظه پنهان L2 است.

با تشکر از بهینه سازی های معماری و یک فناوری فرآیند جدید ، اولین بازی Pascal به کارآمدترین GPU تاکنون تبدیل شده است. علاوه بر این ، مشارکت در این امر هم از پیشرفته ترین فرایندهای فن آوری 16 نانومتری FinFET است و هم از بهینه سازی های معماری در پاسکال ، در مقایسه با ماکسول. انویدیا در هنگام استفاده از فناوری پردازش جدید توانست سرعت کلاک را حتی بیش از آنچه انتظار داشتند افزایش دهد. GP104 با فرکانس بالاتر از فرضیه GM204 ، تولید شده با استفاده از فناوری فرایند 16nm ، کار می کند. برای انجام این کار ، مهندسان انویدیا مجبور بودند تمام تنگناهای راه حل های قبلی را که امکان اورکلاک بالای یک حد مجاز را ندارند ، به دقت بررسی و بهینه سازی کنند. در نتیجه ، GeForce GTX 1080 جدید بیش از 40٪ سریعتر از GeForce GTX 980 کار می کند. اما این همه تغییرات ساعت GPU نیست.

GPU Boost 3.0 Technology

همانطور که از کارت گرافیک های قبلی انویدیا به خوبی می دانیم ، آنها از پردازنده سخت افزاری GPU Boost در GPU های خود استفاده می کنند که برای افزایش فرکانس ساعت کاری GPU در حالت هایی طراحی شده است که هنوز به محدودیت های مصرف برق و اتلاف گرما نرسیده است. طی این سالها ، این الگوریتم دستخوش تغییرات زیادی شده است و از نسل سوم این فناوری در تراشه ویدئویی معماری Pascal - GPU Boost 3.0 استفاده می شود که نوآوری اصلی آن تنظیم دقیق تر فرکانس های توربو ، بسته به ولتاژ است.

اگر اصل عملکرد نسخه های قبلی این فناوری را به یاد بیاورید ، تفاوت بین فرکانس پایه (حداقل مقدار فرکانس تضمین شده ، GPU که در زیر آن حداقل در بازی ها سقوط نمی کند) و فرکانس توربو ثابت شد. یعنی فرکانس توربو همیشه تعداد معینی مگاهرتز بالاتر از پایه بود. GPU Boost 3.0 توانایی تنظیم بازگرداندن فرکانس توربو را برای هر ولتاژ به طور جداگانه ارائه می دهد. ساده ترین راه برای درک این موضوع از تصویر زیر است:

در سمت چپ GPU Boost از نسخه دوم ، در سمت راست - سوم ، که در Pascal ظاهر شده است. تفاوت ثابت بین فرکانس های پایه و توربو اجازه نمی دهد تا توانایی های GPU کاملاً آشکار شود ، در برخی موارد GPU های نسل قبلی می توانند با ولتاژ تنظیم شده سریعتر کار کنند ، اما بیش از حد ثابت فرکانس توربو این اجازه را نمی دهد. در GPU Boost 3.0 ، چنین فرصتی ظاهر شد و می توان فرکانس توربو را برای هر یک از مقادیر ولتاژ جداگانه تنظیم کرد ، و تمام آب را از GPU خارج کرد.

برای کنترل اورکلاکینگ و تنظیم منحنی فرکانس توربو به برنامه های کاربردی مفید نیاز است. خود انویدیا این کار را انجام نمی دهد ، اما به شرکای خود کمک می کند تا چنین تسهیلاتی را برای تسهیل اورکلاکینگ ایجاد کنند (البته در حد معقول). به عنوان مثال ، عملکرد جدید GPU Boost 3.0 قبلاً در EVGA Precision XOC رونمایی شده است که شامل یک اسکنر اورکلاکینگ اختصاصی است که با اجرای یکپارچه عملکرد و پایداری ، اختلاف غیر خطی فرکانس پایه و فرکانس توربو را برای ولتاژهای مختلف به طور خودکار شناسایی و تنظیم می کند. در نتیجه ، کاربر دارای یک منحنی فرکانس توربو است که به طور ایده آل با توانایی های یک تراشه خاص مطابقت دارد. که علاوه بر این ، به هر صورت به صورت دستی قابل اصلاح است.

همانطور که در تصویر برنامه مشاهده می کنید ، علاوه بر اطلاعات مربوط به پردازنده گرافیکی و سیستم ، تنظیمات دیگری نیز برای اورکلاک وجود دارد: Power Target (میزان معمولی مصرف برق هنگام اورکلاک را تعیین می کند ، به عنوان درصد استاندارد) ، GPU Temp Target (حداکثر دمای مجاز هسته) ، GPU Clock Offset (بیش از فرکانس پایه برای تمام ولتاژها) ، جبران حافظه (بیش از فرکانس حافظه فیلم بیش از مقدار پیش فرض) ، ولتاژ اضافه (گزینه اضافی برای افزایش ولتاژ).

برنامه Precision XOC شامل سه حالت اورکلاکینگ است: Basic Basic ، Linear Linear و Manual Manual. در حالت اصلی ، همانند GPU های قبلی می توانید یک مقدار بیش از حد فرکانس (فرکانس ثابت توربو) را نسبت به پایه تنظیم کنید. حالت Linear به شما امکان می دهد فرکانس را از حداقل تا حداکثر مقادیر ولتاژ برای GPU رمپ تنظیم کنید. خوب ، در حالت دستی می توانید مقادیر منحصر به فردی برای فرکانس GPU برای هر نقطه ولتاژ روی نمودار تعیین کنید.

این برنامه همچنین شامل یک اسکنر ویژه برای اورکلاک اتوماتیک است. می توانید سطح فرکانس خود را تنظیم کنید یا اجازه دهید Precision XOC GPU را در تمام ولتاژ اسکن کند و پایدارترین فرکانس ها را برای هر نقطه از منحنی ولتاژ و فرکانس به طور خودکار پیدا کنید. در طی فرآیند اسکن ، Precision XOC به تدریج فرکانس GPU را اضافه می کند و عملکرد آن را از نظر پایداری یا مصنوعات بررسی می کند ، یک منحنی فرکانس و ولتاژ ایده آل ایجاد می کند که برای هر تراشه منحصر به فرد خواهد بود.

با تنظیم فاصله زمانی برای آزمایش هر مقدار ولتاژ ، حداقل و حداکثر فرکانس مورد آزمایش و مرحله آن ، این اسکنر می تواند متناسب با نیازهای شما تنظیم شود. واضح است که برای دستیابی به نتایج پایدار ، بهتر است یک گام کوچک و یک آزمایش مناسب تنظیم کنید. در حین آزمایش ، ممکن است عملکرد ناپایدار درایور فیلم و سیستم مشاهده شود ، اما اگر اسکنر یخ نزند ، عملکرد را بازیابی می کند و فرکانس های بهینه را پیدا می کند.

نوع جدید حافظه ویدیویی GDDR5X و فشرده سازی بهبود یافته

بنابراین ، قدرت پردازنده گرافیکی به طرز چشمگیری افزایش یافته است و گذرگاه حافظه فقط 256 بیت باقی مانده است - آیا پهنای باند حافظه عملکرد کلی را محدود می کند و چه کاری می توان در مورد آن انجام داد؟ به نظر می رسد که حافظه امیدوار کننده نسل دوم HBM هنوز برای ساخت بسیار گران است ، بنابراین باید به دنبال گزینه های دیگر بود. از زمان معرفی حافظه GDDR5 در سال 2009 ، مهندسان انویدیا در حال بررسی امکان استفاده از انواع جدید حافظه بوده اند. در نتیجه ، توسعه به اجرای استاندارد جدید حافظه GDDR5X - پیچیده ترین و پیشرفته ترین استاندارد در حال حاضر ، با نرخ انتقال 10 گیگابیت بر ثانیه - منجر شد.

انویدیا مثال جالبی از سرعت آن ارائه می دهد. فقط 100 پیکو ثانیه از بیت های منتقل شده عبور می کند - در این مدت ، پرتو نور فقط یک اینچ (حدود 2.5 سانتی متر) را طی می کند. و هنگام استفاده از حافظه GDDR5X ، زنجیره های انتقال و دریافت داده باید مقدار بیت ارسال شده را در کمتر از نیمی از این زمان ، قبل از ارسال بقیه ، انتخاب کنند - این فقط برای این است که شما بفهمید فناوری های مدرن کجا آمده اند.

برای دستیابی به این سرعت ، توسعه یک معماری جدید برای سیستم ورودی و خروجی داده ها لازم بود که به چندین سال توسعه مشترک با تولیدکنندگان تراشه های حافظه نیاز داشت. علاوه بر افزایش سرعت انتقال داده ، بازده انرژی نیز افزایش یافته است - تراشه های حافظه GDDR5X از ولتاژ کمتری 1.35 ولت استفاده می کنند و با استفاده از فن آوری های جدید تولید می شوند ، که همان مصرف برق را با 43٪ فرکانس بالاتر می دهد.

مهندسان این شرکت مجبور شدند خطوط انتقال داده بین هسته GPU و تراشه های حافظه را دوباره طراحی کنند و توجه بیشتری به جلوگیری از اتلاف سیگنال و تخریب آن از حافظه به GPU و بازگشت داشته باشند. به عنوان مثال ، تصویر بالا سیگنال گرفته شده را به عنوان یک "چشم" بزرگ متقارن نشان می دهد ، که نشان دهنده بهینه سازی خوب کل مدار و سهولت نسبی در گرفتن اطلاعات از سیگنال است. علاوه بر این ، تغییرات توضیح داده شده در بالا نه تنها امکان استفاده از GDDR5X در 10 گیگاهرتز را فراهم کرده است ، بلکه همچنین باید به دستیابی پهنای باند حافظه بالا برای محصولات آینده با استفاده از حافظه GDDR5 آشنا تر کمک کند.

خوب ، ما بیش از 40٪ از پهنای باند حافظه را با استفاده از حافظه جدید بدست آورده ایم. اما آیا این کافی نیست؟ انویدیا برای بهبود بیشتر کارایی پهنای باند حافظه ، به پیشرفت فشرده سازی داده پیشرفته معرفی شده در معماری های قبلی ادامه داده است. زیر سیستم حافظه در GeForce GTX 1080 از چندین تکنیک جدید و فشرده سازی بدون فقدان اطلاعات برای کاهش پهنای باند حافظه استفاده می کند - نسل چهارم فشرده سازی درون تراشه.

الگوریتم های فشرده سازی برای داده های در حافظه چندین مزیت را به طور هم زمان به همراه دارد. فشرده سازی مقدار داده نوشته شده در حافظه را کاهش می دهد ، همان مورد مربوط به داده های منتقل شده از حافظه ویدئویی به حافظه نهان L2 است که باعث بهبود کارایی حافظه نهانگاه L2 می شود ، زیرا کاشی فشرده (یک بلوک از چندین پیکسل فریم بافر) دارای اندازه کوچکتر از یک فشرده نشده است. همچنین میزان داده های ارسالی بین نقاط مختلف مانند واحد بافت TMU و قاب باکس را کاهش می دهد.

خط لوله فشرده سازی داده ها در GPU از الگوریتم های مختلفی استفاده می کند که بسته به "فشرده سازی" داده ها تعیین می شوند - بهترین الگوریتم موجود برای آنها انتخاب شده است. یکی از مهمترین آنها الگوریتم فشرده سازی رنگ دلتا است. این روش فشرده سازی به جای تفاوت داده ها ، داده ها را به عنوان تفاوت بین مقادیر متوالی رمزگذاری می کند. GPU تفاوت مقادیر رنگ بین پیکسل های یک بلوک (کاشی) را محاسبه می کند و بلوک را به عنوان مقداری رنگ متوسط \u200b\u200bبرای کل بلوک به اضافه داده در مورد اختلاف مقادیر برای هر پیکسل ذخیره می کند. برای داده های گرافیکی ، این روش معمولاً مناسب است ، زیرا رنگ داخل کاشی های کوچک برای همه پیکسل ها اغلب خیلی متفاوت نیست.

GPU GP104 در GeForce GTX 1080 از الگوریتم های فشرده سازی بیشتری نسبت به تراشه های قبلی ماکسول پشتیبانی می کند. بنابراین ، الگوریتم فشرده سازی 2: 1 کارآمدتر شده است و علاوه بر آن ، دو الگوریتم جدید ظاهر شده است: یک حالت فشرده سازی 4: 1 ، مناسب برای مواردی که تفاوت در مقدار رنگ پیکسل های بلوک بسیار کوچک است و یک حالت 8: 1 ، که ترکیبی از ثابت است فشرده سازی 4: 1 بلوک های پیکسل 2 × 2 با فشرده سازی دلتا 2 برابر بین بلوک ها. وقتی فشرده سازی به هیچ وجه امکان پذیر نباشد ، از آن استفاده نمی شود.

با این حال ، در واقعیت ، مورد اخیر به ندرت اتفاق می افتد. این را می توان از نمونه عکسهای بازی Project CARS که توسط انویدیا برای نشان دادن افزایش نسبت فشرده سازی در پاسکال آورده شده است ، مشاهده کرد. در تصاویر ، آن کاشی های قاب بافر که GPU قادر به فشرده سازی آنها بود ، با رنگ بنفش رنگ آمیزی شده اند و آنهایی که فاقد ضرر هستند با رنگ اصلی باقی مانده اند (بالا - ماکسول ، پایین - پاسکال).

همانطور که مشاهده می کنید ، الگوریتم های جدید فشرده سازی در GP104 در واقع عملکرد بسیار بهتری نسبت به ماکسول دارند. اگرچه معماری قدیمی همچنین می توانست بیشتر کاشی های صحنه را فشرده کند ، بسیاری از چمن ها و درختان اطراف لبه ها و همچنین قطعات ماشین آلات تحت الگوریتم های فشرده سازی قدیمی نیستند. اما با ورود تکنیک های جدید در پاسکال ، مناطق بسیار کمی از تصویر فشرده نشده باقی مانده اند - بهره وری بهبود یافته واضح است.

در نتیجه پیشرفت در فشرده سازی داده ها ، GeForce GTX 1080 قادر است میزان داده ارسال شده در هر فریم را به میزان قابل توجهی کاهش دهد. از نظر تعداد ، فشرده سازی بهبود یافته 20٪ اضافی را در پهنای باند حافظه موثر ذخیره می کند. علاوه بر بیش از 40٪ پهنای باند حافظه بالاتر GeForce GTX 1080 نسبت به GTX 980 از استفاده از حافظه GDDR5X ، همه اینها در حدود 70٪ افزایش پهنای باند حافظه موثر را نسبت به مدل نسل قبلی دارد.

پشتیبانی محاسبه Async

بیشتر بازی های مدرن علاوه بر محاسبات گرافیکی از محاسبات پیچیده ای نیز استفاده می کنند. به عنوان مثال ، محاسبات هنگام محاسبه رفتار اجسام فیزیکی می تواند نه قبل یا بعد از محاسبات گرافیکی ، بلکه همزمان با آنها انجام شود ، زیرا آنها مربوط به یکدیگر نیستند و در یک چارچوب به یکدیگر بستگی ندارند. همچنین ، یک مثال پردازش پس از فریم های ارائه شده از قبل و پردازش داده های صوتی است که می تواند به صورت موازی با ارائه نیز انجام شود.

مثال بارز دیگر استفاده از قابلیت ها ، تکنیک Asynchronous Time Warp است که در سیستم های VR برای تغییر فریم رندر مطابق با حرکت سر پخش کننده درست قبل از رندر کردن ، ایجاد وقفه در ارائه بعدی استفاده می شود. چنین بارگذاری همزمان همزمان GPU امکان افزایش کارایی استفاده از واحدهای اجرای آن را فراهم می کند.

این بارهای کاری ، دو مورد جدید استفاده از GPU ایجاد می کند. اولین آنها شامل بارهای همپوشانی است ، زیرا بسیاری از انواع کارها به طور کامل از توانایی پردازنده های گرافیکی استفاده نمی کنند و برخی از منابع بیکار هستند. در چنین مواردی ، می توانید به راحتی دو کار مختلف را روی یک GPU اجرا کنید که واحدهای اجرای آن را برای استفاده کارآمدتر جدا می کند - برای مثال ، جلوه های PhysX که همراه با ارائه قاب سه بعدی انجام می شوند.

برای بهبود عملکرد این سناریو ، تعادل بار پویا به معماری پاسکال معرفی شده است. در معماری قبلی ماکسول ، بارهای کاری همپوشانی در قالب تخصیص ساکن منابع GPU به گرافیک و محاسبه اجرا شد. این روش موثر است به شرطی که تعادل بین دو بار کاری تقریباً با تقسیم منابع مطابقت داشته باشد و وظایف همزمان انجام شود. اگر محاسبات غیر گرافیکی طولانی تر از محاسبات گرافیکی باشد و هر دو منتظر تکمیل کار مشترک باشند ، بخشی از پردازنده گرافیکی برای مدت زمان باقیمانده بیکار خواهد بود ، که باعث کاهش عملکرد کلی می شود و تمام مزایا را لغو می کند. توازن بار دینامیکی سخت افزار به شما امکان می دهد منابع GPU آزاد شده به محض دسترسی ، مورد استفاده قرار گیرند - در اینجا مثالی برای درک این مطلب وجود دارد.

همچنین وظایفی وجود دارد که برای زمان اجرا بسیار مهم هستند و این دومین سناریو برای محاسبات ناهمزمان است. به عنوان مثال ، اجرای الگوریتم ناهمزمان تاب دادن زمان در VR باید قبل از اسکن کامل شود (اسکن کردن) در غیر این صورت فریم کنار گذاشته نمی شود. در این حالت ، GPU باید از قطع سریع کار پشتیبانی کرده و به دیگری تغییر کند تا بتواند وظیفه کم اهمیت تری را از اجرای GPU برداشته و منابع آن را برای کارهای مهم آزاد کند - این را پیش شرط می نامند.

یک دستور رندر منفرد از موتور بازی می تواند شامل صدها تماس تساوی باشد ، هر تماس تساوی به نوبه خود حاوی صدها مثلث پردازش شده است که هر کدام شامل صدها پیکسل برای محاسبه و ترسیم است. رویکرد سنتی GPU فقط از وقفه در سطح بالا استفاده می کند و خطوط گرافیکی باید منتظر بمانند تا تمام این کارها قبل از تغییر کار انجام شود و در نتیجه تأخیر بسیار بالایی دارد.

برای رفع این مشکل ، معماری Pascal اولین کسی بود که توانایی ایجاد وقفه در سطح پیکسل - Pixel Level Preemption - را ایجاد کرد. واحدهای اجرای GPU پاسکال می توانند به طور مداوم روند انجام کارها را رصد کنند ، و در صورت درخواست وقفه ، آنها می توانند با متوقف کردن سریع به کار دیگری ، اجرا را متوقف کنند.

قطع و تغییر در سطح نخ برای عملیات محاسباتی به طور مشابه قطع در سطح پیکسل برای محاسبات گرافیکی عمل می کند. بارهای محاسباتی از چندین شبکه تشکیل شده است که هر یک از آنها دارای رشته های زیادی هستند. هنگامی که یک درخواست وقفه دریافت می شود ، رشته هایی که روی پردازنده چند پردازنده در حال اجرا هستند ، خاتمه می یابند. بلاک های دیگر حالت خود را ذخیره می کنند تا از همان نقطه در آینده ادامه یابد و GPU به کار دیگری می رود. کل فرآیند تعویض وظیفه پس از اتمام رشته های در حال اجرا کمتر از 100 میکرو ثانیه طول می کشد.

برای بارهای بازی ، ترکیبی از وقفه های سطح پیکسل برای گرافیک و وقفه های سطح موضوع برای کارهای محاسباتی ، به GPU های پاسکال این امکان را می دهد تا با کمترین اتلاف وقت ، بین کارها جابجا شوند. و برای کارهای محاسباتی در CUDA ، وقفه با کمترین دانه کاری نیز ممکن است - در سطح دستورالعمل. در این حالت ، همه رشته ها بلافاصله اجرا را متوقف می کنند ، بلافاصله به کار دیگری تغییر می دهند. این روش نیاز به ذخیره اطلاعات بیشتر در مورد وضعیت همه ثبات های هر رشته دارد ، اما در برخی موارد محاسبات غیر گرافیکی ، کاملاً موجه است.

استفاده از وقفه سریع و تغییر کار در کارهای گرافیکی و محاسباتی به معماری Pascal اضافه شد تا کارهای گرافیکی و غیر گرافیکی در سطح دستورالعمل های جداگانه ، به جای کل رشته ها ، قطع شود ، همانطور که در ماکسول و کپلر اتفاق افتاد. این فن آوری ها می توانند اجرای ناهمزمان بارهای مختلف GPU را بهبود بخشیده و پاسخگویی را هنگام انجام چندین کار به طور همزمان بهبود دهند. در این رویداد ، انویدیا نمایشی از محاسبات ناهمزمان را با استفاده از مثال تأثیرات فیزیکی محاسبات نشان داد. اگر بدون محاسبات ناهمزمان عملکرد در سطح 77-79 FPS بود ، با در نظر گرفتن این ویژگی ها نرخ فریم به 93-94 FPS افزایش یافت.

ما قبلاً به عنوان نمونه یکی از احتمالات استفاده از این قابلیت در بازیها به صورت تحریف ناهمزمان زمان در VR ذکر کردیم. تصویر نشان می دهد که چگونه این فناوری با حق تقدم و قطع سریع کار می کند. در حالت اول ، سعی می شود روند اعوجاج زمان ناهمزمان تا حد ممکن دیر انجام شود ، اما قبل از شروع به روزرسانی تصویر بر روی صفحه نمایش. اما کار الگوریتم باید برای اجرا در GPU چند میلی ثانیه زودتر ارائه شود ، زیرا بدون وقفه سریع راهی برای انجام دقیق کار در لحظه مناسب وجود ندارد و GPU برای مدتی بیکار است.

در مورد وقفه های دقیق در سطح پیکسل و جریان (در تصویر سمت راست) ، این امر باعث می شود تا دقت بیشتری در تعیین لحظه وقفه ایجاد شود ، و با اطمینان از اتمام کار قبل از به روزرسانی اطلاعات بر روی صفحه نمایش ، می توان تحریف ناهمزمان زمان را خیلی دیرتر آغاز کرد. و GPU که در حالت اول برای مدتی بیکار است می تواند با برخی کارهای اضافی گرافیکی بارگیری شود.

همزمان فناوری چند پروجکشن

GPU جدید GP104 پشتیبانی از فناوری جدید همزمان چند پروجکشن همزمان (SMP) را فراهم می کند ، که به GPU ها اجازه می دهد داده ها را با بازده بیشتری روی سیستم های نمایش مدرن ارائه دهند. SMP به تراشه ویدئویی اجازه می دهد تا داده ها را به طور همزمان در چندین پیش بینی نمایش دهد ، که این امر مستلزم معرفی یک واحد سخت افزاری جدید در GPU به موتور PolyMorph در انتهای خط لوله هندسه قبل از واحد رستراسیون است. این بلوک وظیفه کار با چندین پیش بینی برای یک جریان هندسی واحد را دارد.

موتور چند ردیابی داده های هندسی را به طور همزمان برای 16 پیش بینی از قبل پیکربندی شده که یک نقطه فرافکنی (دوربین) را ترکیب می کند پردازش می کند ، این پیش بینی ها می توانند به طور مستقل چرخانده یا کج شوند. از آنجا که هر ابتدای هندسه می تواند به طور همزمان در چندین پیش بینی ظاهر شود ، موتور SMP این قابلیت را فراهم می کند ، به یک برنامه اجازه می دهد تا GPU را برای تکرار هندسه تا 32 بار (16 پیش بینی در دو مرکز طرح ریزی) بدون پردازش اضافی ، آموزش دهد.

کل فرایند پردازش سخت افزاری شتاب گرفته است ، و از آنجا که پس از موتور هندسه چند پروژهای کار می کند ، نیازی به تکرار چندین مرحله پردازش هندسه نیست. منابع ذخیره شده هنگامی که سرعت ارائه با عملکرد پردازش هندسه محدود می شود ، از جمله tessellation ، که در آن همان کار هندسه چندین بار برای هر طرح انجام می شود ، مهم است. بر این اساس ، در اوج خود ، چند طرح می تواند نیاز به پردازش هندسه را تا 32 برابر کاهش دهد.

اما چرا همه اینها لازم است؟ چند مثال خوب وجود دارد که در آن فناوری چند پروجکشن می تواند مفید باشد. به عنوان مثال ، یک سیستم چند مانیتور از سه نمایشگر با زاویه نسبت به یکدیگر به اندازه کافی نزدیک کاربر (پیکربندی فراگیر) نصب شده است. در یک موقعیت معمول ، صحنه در یک طرح ریزی ارائه می شود ، که منجر به تحریف هندسی و ارائه نادرست هندسه می شود. مسیر صحیح برای هر یک از نمایشگرها ، با توجه به زاویه قرارگیری آنها ، سه پیش بینی متفاوت است.

با استفاده از کارت گرافیک روی تراشه ای با معماری Pascal ، این کار را می توان با تعیین سه پیش بینی مختلف ، هر کدام برای مانیتور مخصوص خود ، در یک گذر هندسه انجام داد. بنابراین کاربر می تواند با چرخش پیش بینی های مانیتورهای جانبی ، زاویه ای را که مانیتورها در آن قرار دارند نه به لحاظ فیزیکی بلکه به صورت مجازی نیز تغییر دهد تا از منظر صحیح در صحنه سه بعدی با زاویه دید کاملاً گسترده تر (FOV) برخوردار شود. با این حال ، محدودیتی وجود دارد - برای چنین پشتیبانی ، برنامه باید بتواند صحنه ای را با FOV وسیع ترسیم کند و برای تنظیم آن از تماس های ویژه SMP API استفاده کند. یعنی در هر بازی نمی توانید این کار را انجام دهید ، به پشتیبانی ویژه نیاز دارید.

به هر حال ، روزهای طرح ریزی روی یک مانیتور صفحه تخت گذشته است ، اکنون بسیاری از تنظیمات چند نمایشگر و صفحه نمایش های منحنی وجود دارد که می توانند از این فناوری نیز استفاده کنند. نیازی به ذکر نیست که سیستم های واقعیت مجازی که از لنزهای ویژه ای بین صفحه نمایش و چشم کاربر استفاده می کنند ، که به تکنیک های جدیدی برای نمایش تصاویر سه بعدی در تصاویر دو بعدی نیاز دارد. بسیاری از این فن آوری ها و تکنیک ها هنوز در مراحل ابتدایی قرار دارند ، نکته اصلی این است که GPU های قدیمی نمی توانند به طور م moreثر از بیش از یک طرح ریزی صفحه استفاده کنند. آنها به چندین پاس رندر ، پردازش چند هندسه مشابه و غیره نیاز دارند.

تراشه های ماکسول پشتیبانی چندانی از چند وضوح برای کمک به افزایش کارایی نداشتند ، اما SMP پاسکال می تواند کارهای بیشتری انجام دهد. ماکسول می تواند برای نقشه برداری مکعب یا رزولوشن های مختلف طرح ریزی ، 90 درجه طرح را بچرخاند ، اما این فقط در تعداد محدودی از برنامه ها مانند VXGI مفید بود.

سایر امکانات استفاده از SMP رسم با وضوح مختلف و ارائه استریو تک پاس است. به عنوان مثال ، برای بهینه سازی عملکرد می توان از رندر با رزولوشن های مختلف (Multi-Res Shading) در بازی ها استفاده کرد. وقتی اعمال می شود ، از وضوح بالاتری در مرکز قاب استفاده می شود و در محیط پیرامونی کاهش می یابد تا سرعت رندر بالاتر به دست آید.

رندر استریو یک پاس در VR استفاده می شود و قبلاً به VRWorks اضافه شده است و از قابلیت multi-projection برای کاهش میزان کار هندسی مورد نیاز برای ارائه VR استفاده می کند. در صورت استفاده از این ویژگی ، پردازنده گرافیکی GeForce GTX 1080 فقط یک بار هندسه صحنه را پردازش می کند و همزمان برای هر چشم دو پیش بینی تولید می کند که باعث می شود بار هندسی GPU به نصف برسد و همچنین تلفات راننده و سیستم عامل کاهش می یابد.

یک روش حتی پیشرفته تر برای افزایش بهره وری ارائه VR ، Lens Matched Shading است که با استفاده از چندین پیش بینی اعوجاج های هندسی مورد نیاز برای ارائه VR را شبیه سازی می کند. این روش با استفاده از چند فرافکنی یک صحنه سه بعدی را روی سطحی ارائه می دهد که تقریباً شبیه لنزهای اصلاح شده است وقتی برای خروجی به یک هدست VR ارائه می شود ، که از نمایش بسیاری از پیکسل های اضافی در حاشیه که دور ریخته می شوند ، جلوگیری می کند. ساده ترین راه برای درک ماهیت روش استفاده از تصویر است - در مقابل هر چشم ، چهار پیش بینی کمی باز شده استفاده می شود (در پاسکال ، شما می توانید از 16 پیش بینی برای هر چشم استفاده کنید - برای تقلید دقیق تر از یک لنز منحنی) به جای یک:

این روش می تواند در عملکرد بسیار صرفه جویی کند. بنابراین ، یک تصویر معمولی برای Oculus Rift برابر با 1.1 مگاپیکسل در هر چشم است. اما به دلیل تفاوت در پیش بینی ها ، تصویر اصلی 2.1 مگاپیکسلی برای ارائه آن استفاده می شود - 86٪ بیشتر از حد لازم! استفاده از چندین فرافکنی که در معماری Pascal پیاده سازی شده است ، به شما امکان می دهد وضوح تصویر ارائه شده را به 1.4 مگاپیکسل کاهش دهید ، و یک و نیم برابر صرفه جویی در سرعت پردازش پیکسل بدست آورید و همچنین پهنای باند حافظه را نیز ذخیره کنید.

پردازنده گرافیکی کارت گرافیک GeForce GTX 1080 همراه با صرفه جویی دو برابری در سرعت پردازش هندسه به دلیل رندر استریو تک پاس ، قادر به افزایش چشمگیر عملکرد رندر VR است که از نظر سرعت پردازش هندسه و حتی پردازش پیکسل بسیار بیشتر است.

بهبود در بلوک های خروجی و پردازش داده های ویدئویی

علاوه بر عملکرد و قابلیت های جدید مربوط به رندر سه بعدی ، خروجی تصویر و قابلیت رمزگشایی و رمزگذاری فیلم نیز باید در سطح خوبی حفظ شود. و اولین پردازنده گرافیکی معماری Pascal ناامید کننده نبود - این از تمام معیارهای مدرن به این معنا پشتیبانی می کند ، از جمله رمزگشایی سخت افزاری فرمت HEVC برای تماشای فیلم های 4K روی کامپیوتر. همچنین ، دارندگان آینده کارت گرافیک GeForce GTX 1080 به زودی می توانند از پخش ویدئو 4K از Netflix و سایر ارائه دهندگان بر روی سیستم های خود لذت ببرند.

از نظر خروجی نمایشگر ، GeForce GTX 1080 دارای پشتیبانی HDMI 2.0b با HDCP 2.2 و همچنین DisplayPort است. تاکنون DP 1.2 گواهی شده است اما GPU برای صدور گواهینامه برای نسخه های جدید استاندارد آماده است: DP 1.3 Ready و DP 1.4 Ready. مورد دوم اجازه می دهد تا تصاویر با استفاده از یک جفت کابل DisplayPort 1.3 در صفحه های 4K با نرخ تازه سازی 120 هرتز و در نمایشگرهای 5K و 8K با سرعت 60 هرتز نمایش داده شوند. اگر برای GTX 980 حداکثر رزولوشن پشتیبانی شده 5120 × 3200 در 60 هرتز بود ، پس برای GTX 1080 جدید با همان 60 هرتز به 7680 × 4320 افزایش یافت. مرجع GeForce GTX 1080 دارای سه خروجی DisplayPort ، یک HDMI 2.0b و یک دیجیتال Dual-Link DVI است.

مدل جدید کارت گرافیک انویدیا همچنین یک واحد بهبودیافته برای رمزگشایی و رمزگذاری داده های ویدیویی دریافت کرده است. به عنوان مثال ، تراشه GP104 از استانداردهای بالای PlayReady 3.0 (SL3000) برای پخش ویدئو برخوردار است و اطمینان حاصل می کند که محتوای با کیفیت بالا از ارائه دهندگان مشهور مانند Netflix با بالاترین کیفیت و بهره وری انرژی پخش می شود. جزئیات مربوط به پشتیبانی از فرمت های مختلف ویدیویی در هنگام رمزگذاری و رمزگشایی در جدول آورده شده است ، محصول جدید به وضوح با راه حل های قبلی برای بهتر متفاوت است:

اما حتی می توان از تازگی های جالبتر پشتیبانی از نمایشگرهای به اصطلاح دامنه دینامیکی بالا (HDR) نام برد که به زودی در بازار گسترده می شوند. تلویزیون ها در سال 2016 به فروش می رسند (با چهار میلیون تلویزیون HDR که قرار است فقط در یک سال به فروش برسند) و سال آینده مانیتور می شوند. HDR بزرگترین پیشرفت در فن آوری صفحه نمایش در سالهای گذشته است ، که دو برابر رنگ (75٪ از طیف قابل مشاهده در مقابل 33٪ برای RGB) ، نمایشگرهای روشن تر (1000 نیت) با کنتراست بالاتر (10000: 1) ارائه می دهد. و رنگ های غنی.

ظهور توانایی تولید مثل محتوا با اختلاف بیشتر در روشنایی و رنگ های غنی تر و اشباع تر ، تصویر را روی صفحه نمایش به واقعیت نزدیکتر می کند ، سیاه پوستان عمیق تر می شوند و نور شدید مانند دنیای واقعی خیره می شود. در نتیجه ، کاربران جزئیات بیشتری را در مناطق روشن و تاریک تصاویر نسبت به مانیتورها و تلویزیون های استاندارد مشاهده خواهند کرد.

برای پشتیبانی از نمایشگرهای HDR ، GeForce GTX 1080 هر آنچه شما نیاز دارید را دارد - توانایی خروجی رنگ 12 بیتی ، پشتیبانی از استاندارد BT.2020 و SMPTE 2084 و خروجی تصویر مطابق با استاندارد HDMI 2.0b 10/12 بیتی برای HDR در 4K - وضوح ، که ماکسول داشت. علاوه بر این ، پاسکال پشتیبانی از رمزگشایی با فرمت HEVC با وضوح 4K در 60 هرتز و رنگ 10 یا 12 بیتی را که برای فیلم HDR استفاده می شود ، و همچنین رمزگذاری همان قالب با همان پارامترها را اضافه می کند ، اما فقط در 10 بیتی برای ضبط یا پخش فیلم HDR. همچنین ، جدید برای استاندارد سازی DisplayPort 1.4 برای انتقال داده های HDR از طریق این اتصال آماده است.

ضمناً ، برای انتقال چنین داده هایی از یک رایانه خانگی به یک کنسول بازی SHIELD که می تواند HEVC 10 بیتی را بازی کند ، ممکن است در آینده به رمزگذاری ویدیویی HDR نیاز باشد. یعنی کاربر قادر خواهد بود بازی را از طریق رایانه شخصی در قالب HDR جریان دهد. متوقف شوید ، از کجا می توانم بازی ها را با چنین پشتیبانی دریافت کنم؟ انویدیا دائماً در حال کار با توسعه دهندگان بازی برای اجرای این پشتیبانی است و هر آنچه را که لازم دارند (پشتیبانی درایور ، نمونه کد و ...) برای ارائه صحیح تصاویر HDR و سازگار با نمایشگرهای موجود در اختیار آنها قرار می دهد.

در زمان عرضه کارت گرافیک ، GeForce GTX 1080 ، بازی هایی مانند Obduction ، The Witness ، Lawbreakers ، Rise of the Tomb Raider ، Paragon ، The Talos Principle و Shadow Warrior 2 از خروجی HDR پشتیبانی می کنند. اما انتظار می رود این لیست در آینده نزدیک اضافه شود. ...

تغییرات در ارائه چند تراشه SLI

همچنین برخی تغییرات مربوط به فناوری اختصاصی رندر چند GPU SLI انجام شده است ، گرچه هیچ کس انتظار چنین چیزی را نداشت. علاقه مندان به بازی های رایانه های شخصی به منظور افزایش کارایی تا مقادیر شدید با نصب قدرتمندترین کارت های ویدیوی تک تراشه به صورت پشت سر هم ، یا بدست آوردن نرخ فریم بسیار بالا ، از SLI استفاده می کنند و خود را به چند راه حل میان رده محدود می کنیم ، که بعضی اوقات هزینه های آنها کمتر از یک سطح بالا است ( تصمیم بحث برانگیز است ، اما آنها آن را انجام می دهند). با وجود مانیتورهای 4K ، بازیکنان تقریباً چاره ای جز نصب یک جفت کارت گرافیک ندارند ، زیرا در چنین شرایطی حتی در مدل های سطح بالا نیز اغلب نمی توان یک بازی راحت را با حداکثر تنظیمات ارائه داد.

یکی از اجزای مهم Nvidia SLI پل هایی هستند که کارت های ویدیو را به یک زیر سیستم مشترک ویدیویی متصل می کنند و در خدمت سازماندهی یک کانال دیجیتال برای انتقال داده ها بین آنها هستند. کارت های گرافیک GeForce به طور سنتی به کانکتورهای دوگانه SLI مجهز شده اند که برای اتصال بین دو یا چهار کارت گرافیک در پیکربندی های 3-Way و 4-Way SLI کار می کردند. هر یک از کارت های ویدئویی باید به هر کدام متصل شوند ، زیرا تمام پردازنده های گرافیکی فریم های ارائه شده را به GPU اصلی ارسال می کنند ، بنابراین دو رابط در هر کارت مورد نیاز است.

با شروع کارت گرافیک GeForce GTX 1080 ، برای همه کارت های گرافیک مبتنی بر Nvidia Pascal ، دو SLI برای افزایش عملکرد انتقال داده بین کارت های گرافیک به یکدیگر گره خورده اند و این حالت جدید SLI دو کاناله ، هنگام نمایش اطلاعات بصری در نمایشگرهای با وضوح بسیار بالا ، عملکرد و راحتی را بهبود می بخشد. یا سیستم های چند مانیتور.

برای این حالت ، پل های جدیدی نیز به نام SLI HB مورد نیاز بود. آنها یک جفت کارت گرافیک GeForce GTX 1080 را بیش از دو کانال SLI در یک زمان ترکیب می کنند ، اگرچه کارت های گرافیک جدید با پل های قدیمی نیز سازگار هستند. برای رزولوشن های 1920 × 1080 و 2560 × 1440 پیکسل با سرعت تازه سازی 60 هرتز ، می توان از پل های استاندارد استفاده کرد ، اما در حالت های با تقاضای بیشتر (4K ، 5K و سیستم های چند مانیتور) ، فقط پل های جدید از نظر صاف بودن تغییرات قاب نتایج بهتری را ارائه می دهند ، اگرچه پل های قدیمی کار می کنند. اما کمی بدتر

همچنین ، هنگام استفاده از پل های SLI HB ، رابط داده GeForce GTX 1080 با سرعت 650 مگاهرتز کار می کند ، در حالی که برای پل های SLI معمولی در پردازنده های گرافیکی قدیمی 400 مگاهرتز است. علاوه بر این ، برای برخی از پل های سخت قدیمی ، فرکانس انتقال داده بالاتر با تراشه های ویدیویی از معماری Pascal نیز در دسترس است. با افزایش میزان انتقال داده بین GPU ها از طریق یک رابط SLI دو برابر با افزایش فرکانس عملکرد ، نمایش صاف تری از فریم ها به صفحه نمایش نسبت به راه حل های قبلی ارائه می شود:

همچنین لازم به ذکر است که پشتیبانی از ارائه چند پردازنده گرافیکی در DirectX 12 تا حدی متفاوت از آنچه در گذشته بود ، نیست. در آخرین نسخه API گرافیکی ، مایکروسافت تغییرات زیادی را در رابطه با عملکرد چنین سیستم های ویدیویی ایجاد کرده است. برای توسعه دهندگان نرم افزار ، DX12 برای استفاده از چندین GPU دو گزینه در نظر گرفته است: حالت های چند نمایشگر آداپتور (MDA) و آداپتور نمایشگر پیوند خورده (LDA).

علاوه بر این ، حالت LDA به دو شکل است: LDA ضمنی (که Nvidia برای SLI استفاده می کند) و Explicit LDA (هنگامی که سازنده بازی وظایف مدیریت رندر چند تراشه را بر عهده می گیرد. MDA و Explicit LDA mod ها به منظور تهیه فقط در DirectX 12 اجرا شدند) توسعه دهندگان بازی هنگام استفاده از سیستم های ویدئویی چند تراشه از آزادی و انعطاف بیشتری برخوردارند. تفاوت بین حالت ها در جدول زیر به وضوح قابل مشاهده است:

در حالت LDA ، حافظه هر پردازنده گرافیکی می تواند به حافظه دیگری متصل شود و به صورت حجم کلی زیادی نمایش داده شود ، البته با تمام محدودیت های عملکرد هنگام بازیابی اطلاعات از حافظه "خارجی". در حالت MDA ، حافظه هر GPU جداگانه کار می کند و GPU های مختلف نمی توانند مستقیماً به داده های حافظه GPU دیگر دسترسی داشته باشند. حالت LDA برای سیستم های چند تراشه ای با عملکرد مشابه طراحی شده است ، در حالی که حالت MDA محدودیت کمتری دارد و GPU های گسسته و مجتمع یا راه حل های گسسته با تراشه های سازندگان مختلف می توانند با هم کار کنند. اما این حالت همچنین در هنگام برنامه نویسی همکاری به منظور توسعه ارتباط GPU ها با یکدیگر ، به توجه و کار بیشتر توسعه دهندگان نیاز دارد.

به طور پیش فرض ، سیستم SLI مبتنی بر کارت های GeForce GTX 1080 تنها از دو پردازنده گرافیکی پشتیبانی می کند و پیکربندی های سه و چهار تراشه برای استفاده به طور رسمی توصیه نمی شود ، زیرا تهیه عملکرد در بازی های مدرن از اضافه شدن پردازنده گرافیکی سوم و چهارم دشوارتر می شود. به عنوان مثال ، بسیاری از بازی ها هنگام کار با سیستم های ویدئویی چند تراشه با قابلیت پردازنده مرکزی سیستم روبرو می شوند و بازی های جدید به طور فزاینده ای از تکنیک های زمانی (موقتی) استفاده می کنند که از داده های فریم های قبلی استفاده می کنند ، که در آنها عملکرد کارآمد چندین GPU به سادگی غیرممکن است.

با این وجود ، کارکرد سیستم ها در سیستم های چند تراشه ای دیگر (غیر SLI) همچنان ممکن است ، مانند حالت های MDA یا LDA Explicit در DirectX 12 یا یک سیستم SLI دو تراشه با یک GPU سوم اختصاصی برای اثرات فیزیکی PhysX. اما در مورد سوابق معیار چطور ، آیا انویدیا واقعاً آنها را کنار می گذارد؟ خیر ، البته ، از آنجا که تقریباً تعداد کمی از کاربران در دنیا تقاضای چنین سیستم هایی را دارند ، برای چنین علاقه مندان فوق العاده ای یک کلید ویژه Enthusiast ارائه می دهند که می تواند از وب سایت انویدیا بارگیری شود و این ویژگی را مسدود کند. برای این کار ابتدا باید با اجرای یک برنامه ویژه شناسه GPU منحصر به فرد را بدست آورید ، سپس Enthusiast Key را در وب سایت درخواست کنید و پس از بارگیری آن ، کلید را در سیستم نصب کنید و بدین ترتیب پیکربندی های 3-Way و 4-Way SLI را باز کنید.

فناوری همگام سازی سریع

هنگام نمایش اطلاعات بر روی صفحه نمایش ، برخی تغییرات در فناوری های همگام سازی رخ داده است. با نگاه به جلو ، هیچ چیز جدیدی در G-Sync وجود ندارد و همچنین فناوری Adaptive Sync پشتیبانی نمی شود. اما انویدیا تصمیم گرفت که نرمی خروجی و همگام سازی را برای بازی هایی که عملکرد بسیار بالایی نشان می دهند ، افزایش دهد ، در حالی که نرخ فریم به طور قابل توجهی بالاتر از میزان تازه سازی مانیتور است. این مورد مخصوصاً برای بازیهایی که به حداقل تأخیر و پاسخ سریع نیاز دارند و برای نبردها و مسابقات چند نفره مورد استفاده قرار می گیرند بسیار مهم است.

همگام سازی سریع یک گزینه همگام سازی عمودی جدید است که مصنوعات تصویری پارگی تصویر را در تصویر ندارد و به نرخ تازه سازی ثابت متصل نیست ، که باعث تأخیر می شود. مشکل همگام سازی عمودی در بازی هایی مانند Counter-Strike: Global Offensive چیست؟ این بازی با پردازنده های گرافیکی مدرن قدرتمند با چند صد فریم در ثانیه اجرا می شود و بازیکن یک گزینه دارد: همگام سازی عمودی را فعال کند یا خیر.

در بازی های چندنفره ، کاربران اغلب کمترین تأخیر را تعقیب می کنند و VSync را غیرفعال می کنند ، به وضوح پارگی در تصویر دیده می شود ، که حتی در نرخ فریم بالا نیز بسیار ناخوشایند است. اگر همگام سازی عمودی را فعال کنید ، هنگامی که خط لوله گرافیکی به میزان تازه سازی مانیتور کاهش می یابد ، پخش کننده تاخیر قابل توجهی بین عملکردهای خود و تصویر روی صفحه تجربه می کند.

این یک نقاله سنتی است که چگونه کار می کند. اما انویدیا تصمیم گرفت با استفاده از فناوری Fast Sync روند رندر و نمایش را جدا کند. این امکان را برای بخشی از پردازنده گرافیکی فراهم می کند که فریم ها را با سرعت کامل ارائه می دهد تا آنجا که می تواند با کارایی بیشتر ، با ذخیره این فریم ها در یک بافر Last Rendered موقت ، به کار خود ادامه دهد.

این روش به شما امکان می دهد تا روش نمایش را تغییر داده و بهترین حالتهای VSync On و VSync Off را با تأخیر کم ، اما بدون مصنوعات تصویری دریافت کنید. با Fast Sync ، هیچ كنترل جریان قاب وجود ندارد ، موتور بازی در حالت غیر همگام سازی كار می كند و به او گفته نمی شود كه تا ترسیم شدن بعدی منتظر بماند ، بنابراین تأخیرها تقریباً به اندازه حالت خاموش VSync کم است. اما از آنجا که Fast Sync به طور مستقل بافر را برای نمایش انتخاب می کند و کل فریم را نمایش می دهد ، هیچ گونه وقفه ای در تصویر وجود ندارد.

Fast Sync از سه بافر مختلف استفاده می کند که دو مورد اول به طور مشابه بافر بافر در خط لوله کلاسیک کار می کنند. بافر اصلی (Front Buffer - FB) یک بافر است که اطلاعات از آن روی صفحه نمایش داده می شود ، یک قاب کاملاً ارائه شده. Back Buffer (BB) بافري است كه اطلاعات هنگام رندر در آن دريافت مي شود.

هنگام استفاده از همگام سازی عمودی با نرخ فریم بالا ، بازی منتظر می ماند تا به فاصله تازه سازی برسید تا بافر اصلی را با ثانویه عوض کنید تا کل قاب روی صفحه نمایش داده شود. این روند را کند می کند و افزودن بافرهای اضافی مانند بافر سه گانه سنتی فقط تأخیر را اضافه می کند.

Fast Sync سومین بافر Last Rendered Buffer (LRB) را اضافه می کند ، که برای نگهداری تمام فریم های ارائه شده در بافر پشتی استفاده می شود. نام بافر خودش صحبت می کند ؛ این شامل یک کپی از آخرین قاب کاملاً ارائه شده است. و هنگامی که لحظه به روزرسانی بافر اصلی فرا می رسد ، این بافر LRB در نسخه اصلی به صورت کلی کپی می شود و نه در قسمت ها ، همانند نسخه دوم که همگام سازی عمودی غیرفعال است. از آنجا که کپی کردن اطلاعات از بافر بی اثر است ، آنها به راحتی مبادله می شوند (یا تغییر نام می دهند ، زیرا درک آن راحت تر خواهد بود) و منطق جدید تعویض بافرهای معرفی شده در GP104 این روند را کنترل می کند.

در عمل ، فعال کردن روش جدید همگام سازی سریع همگام سازی ، در مقایسه با همگام سازی عمودی کاملاً غیرفعال ، کمی تأخیر بیشتری ایجاد می کند - به طور متوسط \u200b\u200b، 8 میلی ثانیه بیشتر ، اما کل فریم ها را روی مانیتور نشان می دهد ، بدون آثار ناخوشایند روی صفحه که تصویر را می شکند. روش جدید را می توان از تنظیمات گرافیکی موجود در کنترل پنل Nvidia در قسمت کنترل عمودی همگام سازی فعال کرد. با این حال ، مقدار پیش فرض کنترل برنامه است و شما به سادگی نیازی به فعال کردن سریع همگام سازی در همه برنامه های 3D ندارید ؛ بهتر است این روش را به طور خاص برای بازی های با FPS بالا انتخاب کنید.

فناوری های واقعیت مجازی Nvidia VRWorks

ما در مقاله بیش از یک بار موضوع داغ واقعیت مجازی را لمس کرده ایم ، اما این موضوع عمدتا در مورد افزایش نرخ فریم و اطمینان از تأخیر کم بود که برای VR بسیار مهم است. همه اینها بسیار مهم است و در واقع پیشرفت هم وجود دارد ، اما تاکنون بازی های VR به اندازه بهترین بازی های مدرن "معمولی" 3D بسیار چشمگیر به نظر نمی رسند. این اتفاق نه تنها به این دلیل است که بازی سازان برجسته هنوز به طور خاص درگیر برنامه های VR نیستند ، بلکه به دلیل تقاضای بیشتر VR از نرخ فریم است که به دلیل تقاضای زیاد از استفاده بسیاری از تکنیک های معمول در چنین بازی هایی جلوگیری می کند.

به منظور کاهش اختلاف کیفیت بین بازی های VR و بازی های معمولی ، انویدیا تصمیم گرفت یک بسته کامل از فناوری های مرتبط با VRWorks را شامل شود ، که شامل تعداد زیادی API ، کتابخانه ، موتور و فناوری است که می تواند کیفیت و عملکرد VR را به طور قابل توجهی بهبود بخشد. برنامه های کاربردی. ارتباط این موضوع با اعلام اولین راه حل بازی در پاسکال چیست؟ این بسیار ساده است - ما برخی از فناوری ها را برای کمک به افزایش بهره وری و بهبود کیفیت معرفی کرده ایم و قبلاً در مورد آنها مطالبی نوشتیم.

و اگرچه این فقط مربوط به گرافیک نیست ، اما در ابتدا کمی در مورد آن به شما خواهیم گفت. مجموعه فناوری های VRWorks Graphics شامل فن آوری های گفته شده قبلی مانند Lens Matched Shading است که از ویژگی چند پروجکتی که در GeForce GTX 1080 ظاهر شده استفاده می کند. محصول جدید به شما امکان می دهد 1.5-2 برابر عملکرد نسبت به راه حل هایی که چنین پشتیبانی ندارند افزایش عملکرد داشته باشید. ما همچنین به فناوری های دیگری مانند MultiRes Shading اشاره کردیم که برای ارائه در رزولوشن های مختلف در مرکز قاب و حاشیه آن طراحی شده اند.

اما بسیار غیرمنتظره تر اعلامیه فناوری VRWorks Audio بود که برای پردازش با کیفیت بالا داده های صوتی در صحنه های سه بعدی طراحی شده است ، که به ویژه در سیستم های واقعیت مجازی بسیار مهم است. در موتورهای معمولی ، موقعیت قرارگیری منابع صوتی در یک محیط مجازی کاملاً صحیح محاسبه می شود ، اگر دشمن از سمت راست شلیک کند ، صدا از این طرف سیستم صوتی بلندتر شنیده می شود و این محاسبه برای محاسبه قدرت خیلی زیاد نیست.

اما در حقیقت ، صداها نه تنها به دستگاه پخش کننده بلکه به تمام جهات می روند و از مواد مختلف منعکس می شوند ، مانند نحوه تابش پرتوهای نور. و در واقع ، این بازتاب ها را می شنویم ، هرچند به وضوح امواج صوتی مستقیم نیستند. این بازتاب های صوتی غیرمستقیم معمولاً با اثرات خاص ریور شبیه سازی می شوند ، اما این یک رویکرد بسیار بدوی برای کار است.

در بسته VRWorks Audio ، امواج صوتی به طور مشابه ردیابی اشعه در هنگام رندر ارائه می شود ، زمانی که مسیر اشعه های نور به چندین بازتاب از اشیا in در صحنه مجازی ردیابی می شود. VRWorks Audio همچنین بسته به زاویه بروز و خصوصیات مواد بازتابنده ، انتشار امواج صوتی را در محیط ، جایی که امواج مستقیم و منعکس شده ردیابی می شوند ، شبیه سازی می کند. VRWorks Audio در کار خود از موتور ردیابی اشعه با کارایی بالا Nvidia OptiX استفاده می کند ، معروف به کارهای گرافیکی. از OptiX می توان برای کارهای مختلفی مانند محاسبه روشنایی غیرمستقیم و تهیه نقشه های نوری و اکنون برای ردیابی امواج صوتی در VRWorks Audio استفاده کرد.

انویدیا محاسبات موج صوتی دقیقی را در نسخه نمایشی VR Funhouse خود قرار داده است که از چندین هزار پرتو استفاده می کند و حداکثر 12 بازتاب از اشیا را محاسبه می کند. و برای یادگیری مزایای استفاده از این فناوری با استفاده از یک مثال واضح ، پیشنهاد می کنیم ویدیویی درباره عملکرد این فناوری به زبان روسی تماشا کنید:

مهم این است که رویکرد انویدیا با موتورهای صوتی سنتی ، از جمله روش تسریع سخت افزاری با استفاده از یک بلوک ویژه در GPU نسبت به رقیب اصلی ، متفاوت است. همه این روش ها فقط موقعیت دقیق صوتی را فراهم می کنند ، اما بازتاب امواج صوتی از اشیا in را در یک صحنه سه بعدی محاسبه نمی کنند ، اگرچه آنها می توانند با استفاده از اثر طنین انداز این را شبیه سازی کنند. و با این حال ، استفاده از فناوری ردیابی اشعه می تواند واقع بینانه تر باشد ، زیرا فقط این روش تقلید دقیق از صداهای مختلف را با در نظر گرفتن اندازه ، شکل و مواد اشیا in در صحنه فراهم می کند. دشوار است بگوییم که آیا چنین دقت محاسباتی برای یک بازیکن معمولی مورد نیاز است یا خیر ، اما می توان با اطمینان گفت: در VR ، می تواند همان واقع گرایی را به کاربران اضافه کند که هنوز در بازی های معمولی وجود ندارد.

خوب ، ما فقط باید در مورد فناوری VR SLI برای شما بگوییم که هم در OpenGL و هم در DirectX کار می کند. اصل آن بسیار ساده است: یک سیستم ویدیویی دو پردازنده در یک برنامه VR به گونه ای کار خواهد کرد که یک GPU جداگانه به هر چشم اختصاص داده شود ، بر خلاف ارائه AFR ، که برای تنظیمات SLI معمول است. این عملکرد کلی را که برای سیستم های واقعیت مجازی بسیار مهم است ، بسیار بهبود می بخشد. از لحاظ تئوری می توانید از GPU های بیشتری استفاده کنید اما تعداد آنها باید یکنواخت باشد.

این روش لازم بود زیرا AFR برای VR مناسب نیست ، زیرا اولین GPU با کمک آن یک فریم یکنواخت برای هر دو چشم ارائه می دهد ، و دیگری - یک فرد ، که به هیچ وجه تأخیرهای مهم برای سیستم های واقعیت مجازی را کاهش نمی دهد. اگرچه نرخ فریم بسیار بالا خواهد بود. بنابراین با کمک VR SLI ، کار بر روی هر فریم به دو پردازنده گرافیکی تقسیم می شود - یکی روی بخشی از قاب برای چشم چپ ، دیگری برای سمت راست کار می کند و سپس این نیمه های قاب به صورت کلی ترکیب می شوند.

این تقسیم کار بین یک جفت پردازنده گرافیکی تقریباً 2 برابر افزایش عملکرد به همراه دارد ، که باعث می شود نرخ فریم بالاتر و تأخیر کمتری نسبت به سیستم های تک GPU داشته باشید. با این حال ، استفاده از VR SLI برای استفاده از این روش مقیاس گذاری نیاز به پشتیبانی ویژه از برنامه دارد. اما فناوری VR SLI قبلاً در برنامه های نمایشی VR مانند آزمایشگاه Valve و Trials on Tatooine از ILMxLAB تعبیه شده است و این تازه آغاز کار است - انویدیا قول ظهور سایر برنامه ها و همچنین معرفی فناوری به موتورهای بازی را Unreal Engine 4 ، Unity و MaxPlay.

پلت فرم عکس آنسل بازی

یکی از جالب ترین اطلاعیه های مربوط به نرم افزار ، انتشار فناوری ضبط تصاویر با کیفیت بالا در برنامه های بازی بود که به نام یک عکاس معروف - Ansel نامگذاری شد. مدت هاست که بازی ها نه تنها به بازی تبدیل شده اند ، بلکه به مکانی تبدیل شده اند که افراد شیطان صفت از آن استفاده می کنند. شخصی اسکریپت های بازی ها را تغییر می دهد ، شخصی مجموعه هایی با کیفیت بالا برای بازی ها منتشر می کند و شخصی تصاویر زیبایی از صفحه می گیرد.

انویدیا تصمیم گرفت با معرفی یک بستر جدید برای ایجاد (دقیقاً ایجاد ، زیرا این روند ساده نیست) تصاویر با کیفیت بالا از بازی ها ، به مورد دوم کمک کند. آنها معتقدند آنسل می تواند به ایجاد نوع جدیدی از هنر معاصر کمک کند. از این گذشته ، در حال حاضر تعداد زیادی هنرمند وجود دارند که بیشتر عمر خود را با کامپیوتر و با ایجاد تصاویر زیبا از بازی ها سپری می کنند و هنوز ابزار مناسبی برای این کار ندارند.

Ansel به شما اجازه می دهد تا نه تنها تصویر را در بازی ضبط کنید ، بلکه آن را به روشی که سازنده به آن نیاز دارد تغییر دهید. با استفاده از این فناوری می توانید دوربین را به دور صحنه حرکت داده ، بچرخانید و آن را به هر جهت کج کنید تا ترکیب مورد نظر قاب بدست آید. به عنوان مثال ، در بازی هایی مانند شوترهای اول شخص ، فقط می توانید بازیکن را جابجا کنید ، هیچ چیز دیگری قابل تغییر نیست ، بنابراین تمام تصاویر صفحه کاملاً یکنواخت هستند. با استفاده از یک دوربین رایگان در آنسل ، می توانید فراتر از دوربین بازی بروید ، زاویه ای را که برای یک تصویر موفق لازم است انتخاب کنید ، یا حتی یک تصویر استریو کامل 360 درجه را از نقطه مورد نیاز بگیرید ، اما در وضوح بالا برای دیدن بعدا در یک هدست VR.

Ansel کاملا ساده کار می کند - این پلت فرم با استفاده از کتابخانه ویژه Nvidia در کد بازی تعبیه شده است. برای این کار ، توسعه دهنده آن فقط باید یک قطعه کد کوچک به پروژه خود اضافه کند تا به راننده ویدیوی Nvidia اجازه دهد داده ها را از بافرها و سایه اندازها رهگیری کند. کار در آنجا بسیار کم است ، پیاده سازی Ansel در یک بازی به کمتر از یک روز زمان نیاز دارد. بنابراین ، گنجاندن این ویژگی در بازی The Witness حدود 40 خط کد و در The Witcher 3 - حدود 150 خط کد طول کشید.

Ansel با یک بسته توسعه باز - SDK ظاهر می شود. نکته اصلی این است که کاربر یک مجموعه تنظیمات استاندارد را با او همراه می کند که به او امکان می دهد موقعیت و زاویه دوربین را تغییر دهد ، جلوه ها را اضافه کند و غیره به شکل یک عکس صفحه نمایش منظم ، تصویر 360 درجه ، جفت استریو یا فقط یک چشم انداز با وضوح عظیم در می آید.

تنها نکته مهم: همه بازی ها از تمام ویژگی های پلت فرم عکس صفحه بازی Ansel پشتیبانی نمی کنند. برخی از سازندگان بازی ، به یک دلیل یا دلیل دیگر ، نمی خواهند یک دوربین کاملا رایگان در بازی های خود قرار دهند - به عنوان مثال ، به دلیل امکان استفاده از این قابلیت توسط افراد متقلب. یا آنها می خواهند به همین دلیل تغییر در زاویه دید را محدود کنند - به طوری که هیچ کس مزیت ناعادلانه ای کسب نکند. خوب ، یا به این ترتیب که کاربران روح پسندیده را در پس زمینه مشاهده نکنند. همه اینها خواسته های کاملاً طبیعی سازندگان بازی است.

یکی از جالب ترین ویژگی های Ansel ایجاد تصاویر با وضوح بسیار زیاد است. مهم نیست که این بازی مثلا از رزولوشن تا 4K پشتیبانی می کند و مانیتور کاربر Full HD است. با کمک پلت فرم برای گرفتن عکس از صفحه ، می توانید یک تصویر با کیفیت بسیار بالاتر ضبط کنید ، نه به دلیل میزان صدا و عملکرد درایو. این پلت فرم به راحتی عکس های صفحه تا 4.5 گیگاپیکسل را می گیرد و آنها را از 3600 قطعه بهم می چسباند!

واضح است که در چنین تصاویری می توانید تمام جزئیات را ، تا متن روزنامه های دور افتاده ، اگر چنین سطح جزئیاتی ، در اصل ، در بازی ارائه شده است ، مشاهده کنید - Ansel می تواند سطح جزئیات را کنترل کند ، حداکثر سطح را برای دستیابی به بهترین کیفیت تصویر تنظیم کند. اما شما همچنین می توانید نمونه برداری عالی را فعال کنید. همه اینها به شما امکان می دهد از بازی ها تصاویری ایجاد کنید که می توانید با خیال راحت روی آگهی های بزرگ چاپ کنید و از کیفیت آنها آرام باشید.

جالب اینجاست که از یک کد شتابدهنده سخت افزاری مبتنی بر CUDA برای اتصال تصاویر بزرگ به هم استفاده می شود. به هر حال ، هیچ کارت ویدئویی نمی تواند یک تصویر چند گیگاپیکسلی را به طور کلی ارائه دهد ، اما می تواند آن را قطعه قطعه ای انجام دهد ، که فقط لازم است بعداً با در نظر گرفتن تفاوت احتمالی نور ، رنگ و غیره ، آن را ترکیب کنید.

پس از دوختن چنین پانوراماها ، پردازش ویژه پس از پردازش برای کل فریم ، همچنین در GPU تسریع می شود. و برای ضبط تصاویر با دامنه دینامیکی بالا ، می توانید از یک قالب ویژه تصویر - EXR ، یک استاندارد باز از Industrial Light and Magic استفاده کنید ، مقادیر رنگی در هر کانال که در قالب شناور 16 بیتی (FP16) ثبت شده است.

این فرمت به شما امکان می دهد تا روشنایی و دامنه دینامیکی پردازش پس از تصویر را تغییر دهید ، و آن را به همان اندازه ای که با فرمت های RAW از دوربین ها انجام می شود ، به میزان مطلوب برای هر نمایشگر خاص برسانید. و برای استفاده بعدی از فیلترهای پس از پردازش در برنامه های پردازش تصویر ، این قالب بسیار مفید است ، زیرا حاوی داده های بسیار بیشتری از فرمت های معمول برای تصاویر است.

اما خود پلتفرم آنسل دارای فیلترهای زیادی برای پردازش پس از آن است که از اهمیت ویژه ای برخوردار است زیرا نه تنها به تصویر نهایی بلکه به تمام بافرهای مورد استفاده بازی برای رندر دسترسی دارد که می تواند برای جلوه های بسیار جالب مانند عمق میدان نیز به کار رود. برای این منظور ، Ansel دارای یک API اختصاصی برای پردازش پس از آن است و هر یک از جلوه ها را می توان با پشتیبانی از این پلتفرم در بازی گنجاند.

فیلترهای پست Ansel شامل فیلترهایی از قبیل: منحنی رنگ ، فضای رنگ ، تغییر شکل ، اشباع ، روشنایی / کنتراست ، دانه فیلم ، شکوفه ، شعله ور شدن لنز ، تابش خیره کننده آنامورفیک ، اعوجاج ، گرما زدگی ، چشم ماهی ، انحراف رنگ ، نقشه برداری از لحن ، آلودگی لنز ، سبیل ، ویتنام ، تصحیح گاما ، پیچیدگی ، شفاف سازی ، تشخیص لبه ، تاری ، قهوه ای ، denoise ، FXAA و سایر موارد.

در مورد ظاهر پشتیبانی Ansel در بازی ها ، باید کمی صبر کنید تا سازندگان آن را پیاده سازی و آزمایش کنند. اما انویدیا قول می دهد که چنین پشتیبانی به زودی در بازی های معروفی مانند The Division ، The Witness ، Lawbreakers ، The Witcher 3 ، Paragon ، Fortnite ، Obduction ، No Man's Sky ، Unreal Tournament و سایر بازی ها ظاهر خواهد شد.

جدیدترین روند بهینه سازی معماری 16 نانومتری FinFET و بهینه سازی معماری این امکان را به کارت گرافیک GeForce GTX 1080 مبتنی بر GPU GP104 می دهد که حتی در فرم مرجع به سرعت کلاک 1.6-1.7 گیگاهرتز دست یابد و نسل جدید عملکرد در بالاترین فرکانس های ممکن در بازی ها را تضمین می کند فناوری GPU Boost. همراه با افزایش تعداد واحدهای اجرا ، این پیشرفت ها باعث شده که محصول جدید علاوه بر عملکرد کارت ویدیوی تک تراشه با عملکرد بالا ، بلکه به صرفه ترین انرژی در بازار نیز تبدیل شود.

GeForce GTX 1080 اولین کارت گرافیک است که از نوع جدیدی از حافظه گرافیکی GDDR5X بهره می برد - نسل جدید تراشه های پرسرعت که سرعت داده بسیار بالایی را به دست می آورند. در مورد اصلاح GeForce GTX 1080 ، این نوع حافظه با فرکانس موثر 10 گیگاهرتز کار می کند. همراه با الگوریتم های فشرده سازی بهبود یافته در بافر فریم ، این منجر به افزایش 1.7 برابر پهنای باند حافظه موثر برای این پردازنده گرافیکی در مقایسه با نسخه قبلی GeForce GTX 980 شده است.

انویدیا عاقلانه تصمیم گرفت که معماری کاملاً جدیدی را برای یک فرایند فنی کاملاً جدید برای خود منتشر نکند ، تا در هنگام توسعه و تولید با مشکلات غیرضروری روبرو نشود. در عوض ، آنها به طور جدی از نظر معماری خوب و بسیار کارآمد ماکسول بهبود یافته اند و برخی ویژگی ها را به آن اضافه کرده اند. در نتیجه ، با تولید پردازنده های گرافیکی جدید همه چیز خوب است و در مورد مدل GeForce GTX 1080 ، مهندسان به پتانسیل فرکانس بسیار بالایی دست یافته اند - در نسخه های اورکلاک شده از طرف شرکا ، فرکانس GPU تا 2 گیگاهرتز پیش بینی می شود! این فرکانس چشمگیر به لطف فرایند کامل فنی و کار سختگیرانه مهندسان انویدیا در توسعه پردازنده گرافیکی پاسکال به واقعیت تبدیل شده است.

در حالی که پاسکال جانشین مستقیم پرونده ماکسول شده است ، و این معماری های گرافیکی اساساً تفاوت چندانی با یکدیگر ندارند ، انویدیا تغییرات و بهبودهای زیادی از جمله قابلیت نمایش ، موتور رمزگشایی و رمزگشایی ویدئو ، بهبود ناهمزمان را اعمال کرده است. اجرای انواع مختلف محاسبات در پردازنده گرافیکی ، تغییراتی در رندر چند تراشه ایجاد کرده و روش جدیدی را برای همگام سازی سریع ارائه می دهد.

غیرممکن است که فناوری Multi-Projection همزمان همزمان چندگانه را که به افزایش عملکرد در سیستم های واقعیت مجازی ، نمایش صحیح تر صحنه ها در سیستم های چند مانیتور و معرفی تکنیک های جدید برای بهینه سازی عملکرد کمک می کند ، جدا نکنید. اما بیشترین افزایش سرعت را برنامه های VR وقتی از فناوری multiprojection پشتیبانی می کنند ، بدست می آورند ، که به شما در صرفه جویی در منابع GPU در هنگام پردازش داده های هندسی و یک و نیم بار در محاسبات در هر پیکسل کمک می کند.

در میان تغییرات کاملاً نرم افزاری ، بستر ایجاد تصاویر در بازی ها به نام Ansel برجسته است - امتحان کردن آن در عمل نه تنها برای بسیاری از بازیکنان ، بلکه برای افرادی که به گرافیک سه بعدی با کیفیت بالا علاقه مند هستند نیز جالب خواهد بود. این تازگی به شما امکان می دهد هنر ایجاد و رتوش عکس های صفحه را به سطح بالاتری برسانید. خوب ، انویدیا به سادگی به بهبود بسته های خود برای سازندگان بازی ، مانند GameWorks و VRWorks ، گام به گام ادامه می دهد - بنابراین ، در مورد دوم ، احتمال جالب پردازش صدا با کیفیت بالا ، با در نظر گرفتن بازتاب های متعدد امواج صوتی با استفاده از ردیابی اشعه سخت افزاری ، ظاهر می شود.

به طور کلی ، در قالب کارت گرافیک Nvidia GeForce GTX 1080 ، یک رهبر واقعی وارد بازار شده است ، با داشتن تمام ویژگی های لازم برای این کار: عملکرد بالا و عملکرد گسترده ، و همچنین پشتیبانی از ویژگی های جدید و الگوریتم ها. اولین خریداران این کارت گرافیک قادر خواهند بود بسیاری از مزایای ذکر شده را بلافاصله درک کنند و سایر امکانات راه حل کمی بعد ، زمانی که پشتیبانی گسترده ای از نرم افزار وجود داشته باشد ، مشخص خواهد شد. نکته اصلی این است که GeForce GTX 1080 بسیار سریع و کارآمد به نظر می رسد و برخی از مناطق مشکل ساز (همان محاسبات ناهمزمان) ، همانطور که واقعاً امیدواریم ، توسط مهندسان انویدیا اصلاح شده است.

شتاب دهنده گرافیک GeForce GTX 1070

پارامترمقدار
نام رمز تراشهGP104
فن آوری تولید16 نانومتر FinFET
تعداد ترانزیستور7.2 میلیارد
منطقه اصلی314 میلی متر مربع
معمارییکپارچه ، با آرایه ای از پردازنده های رایج برای پردازش جریانی انواع مختلفی از داده ها: راس ، پیکسل و غیره
پشتیبانی سخت افزاری DirectXDirectX 12 ، با پشتیبانی از Feature Level 12_1
اتوبوس حافظه256 بیتی: هشت کنترل کننده حافظه 32 بیتی مستقل که از حافظه GDDR5 و GDDR5X پشتیبانی می کنند
فرکانس GPU1506 (1683) مگاهرتز
واحدهای محاسباتی15 پردازنده جریان فعال (از 20 تراشه) ، از جمله 1920 (از 2560) ALU مقیاس برای محاسبات نقطه شناور در چارچوب استاندارد IEEE 754-2008.
بلوک های بافت120 واحد فعال سازی آدرس (آدرس دهی) و فیلتر کردن بافت با پشتیبانی از م componentsلفه های FP16 و FP32 در بافتها و پشتیبانی از فیلترهای سه خطی و ناهمسانگرد برای همه قالب ها
Raster Operation Blocks (ROP)8 ROP عریض (64 پیکسل) با پشتیبانی از حالت های مختلف ضد الگوریتم ، از جمله حالت های قابل برنامه ریزی با فرمت بافر FP16 یا FP32. این بلوک ها از آرایه ای از ALU های قابل تنظیم تشکیل شده اند و وظیفه تولید و مقایسه عمق ، چند نمونه برداری و ترکیب را دارند.
نظارت بر پشتیبانیپشتیبانی یکپارچه از حداکثر چهار نمایشگر متصل از طریق رابط های Dual Link DVI ، HDMI 2.0b و DisplayPort 1.2 (1.3 / 1.4 Ready)

مشخصات GeForce GTX 1070 مرجع
پارامترمقدار
فرکانس هسته1506 (1683) مگاهرتز
تعداد پردازنده های جهانی1920
تعداد واحدهای بافت120
تعداد بلوک های ترکیب64
فرکانس حافظه موثر8000 (4 × 2000) مگاهرتز
نوع حافظهGDDR5
اتوبوس حافظه256 بیتی
اندازه حافظه8 گیگابایت
پهنای باند حافظه256 گیگابایت در ثانیه
عملکرد محاسباتی (FP32)حدود 6.5 ترافلاپس
حداکثر نظری میزان پر شدن96 گیگابایت در ثانیه
نرخ نمونه برداری نظری181 گیگاتکسل در ثانیه
لاستیکPCI Express 3.0
اتصالاتیک Dual Link DVI ، یک HDMI و سه DisplayPort
مصرف برقتا 150 وات
غذای اضافییک کانکتور 8 پین
تعداد شکاف های اشغال شده در شاسی سیستم2
قیمت پیشنهادی379-449 دلار (ایالات متحده آمریکا) ، 34990 (روسیه)

کارت گرافیک GeForce GTX 1070 نیز یک نام منطقی دریافت کرد ، مشابه راه حل مشابه سری قبلی GeForce. تفاوت آن با نسل قبلی خود ، GeForce GTX 970 ، فقط در تعداد نسل اصلاح شده است. این ترفند در خط فعلی این شرکت است که یک گام زیر راه حل پیشرفته GeForce GTX 1080 است که به گل سرسبد موقت سری جدید تا زمان انتشار راه حل های پردازنده های گرافیکی با قدرت حتی بیشتر تبدیل شده است.

قیمت های پیشنهادی برای کارت گرافیک برتر جدید انویدیا به ترتیب 379 دلار و 449 دلار برای نسخه های معمولی شرکای انویدیا و نسخه ویژه بنیانگذاران است. در مقایسه با مدل برتر ، این قیمت بسیار خوبی است با توجه به اینکه GTX 1070 در بدترین حالت حدود 25 درصد عقب است. و در زمان اعلام و عرضه ، GTX 1070 بهترین راه حل عملکرد در کلاس خود می شود. مانند GeForce GTX 1080 ، GTX 1070 هیچ رقابتی مستقیم از AMD ندارد و تنها می توان با Radeon R9 390X و Fury مقایسه کرد.

آنها تصمیم گرفتند که ورودی کامل حافظه 256 بیتی را برای پردازنده گرافیکی GP104 در اصلاح GeForce GTX 1070 بگذارند ، اگرچه آنها از نوع جدیدی از حافظه GDDR5X استفاده نمی کنند بلکه از یک GDDR5 بسیار سریع استفاده می کنند که با فرکانس م effectiveثر 8 گیگاهرتز کار می کند. میزان حافظه نصب شده روی کارت گرافیک با چنین گذرگاهی می تواند معادل 4 یا 8 گیگابایت باشد و به منظور اطمینان از حداکثر عملکرد راه حل جدید در شرایط تنظیمات بالا و رزولوشن های رندر ، مدل GeForce GTX 1070 نیز مانند خواهر بزرگتر خود به 8 گیگابایت حافظه ویدیویی مجهز شد. این حجم برای اجرای برنامه های سه بعدی با حداکثر تنظیمات کیفیت برای چندین سال کافی است.

GeForce GTX 1070 Founders Edition Special

هنگامی که GeForce GTX 1080 در اوایل ماه مه معرفی شد ، نسخه ویژه ای از کارت گرافیک به نام Founders Edition معرفی شد که قیمت بالاتری نسبت به کارت های گرافیک معمول شرکای این شرکت دارد. همین مورد در مورد محصول جدید نیز صدق می کند. در این مقاله ، ما دوباره در مورد نسخه ویژه کارت گرافیک GeForce GTX 1070 به نام Founders Edition صحبت خواهیم کرد. همانطور که در مورد مدل قدیمی تر ، انویدیا تصمیم گرفت این نسخه از کارت گرافیک مرجع سازنده را با قیمت بالاتر عرضه کند. آنها استدلال می کنند که بسیاری از گیمرها و علاقه مندان به خرید کارت های گرافیک سطح بالا ، محصولی با ظاهر و احساس برتر را می خواهند.

بر این اساس ، برای این کاربران است که نسخه GeForce GTX 1070 Founders Edition به بازار عرضه می شود ، که توسط مهندسان انویدیا از مواد و اجزای ممتاز ، مانند پوشش آلومینیومی GeForce GTX 1070 Founders Edition ، و همچنین یک صفحه پشت کم مشخصات که پشت PCB و کاملاً محبوب علاقه مندان.

همانطور که از عکسهای صفحه ملاحظه می کنید ، GeForce GTX 1070 Founders Edition دقیقاً همان طراحی صنعتی را که در نسخه مرجع GeForce GTX 1080 Founders Edition وجود دارد ، به ارث می برد. هر دو مدل از یک فن شعاعی استفاده می کنند که هوای گرم شده را به بیرون می راند ، که هم در موارد کوچک و هم در تنظیمات چند تراشه SLI با فضای فیزیکی محدود بسیار مفید است. با دمیدن هوای گرم شده به بیرون به جای گردش در داخل شاسی ، می تواند تنش گرمایی را کاهش دهد ، نتایج اورکلاک را بهبود بخشد و عمر اجزای سیستم را افزایش دهد.

در زیر سیستم خنک کننده مرجع GeForce GTX 1070 ، یک رادیاتور آلومینیومی با شکل خاص با سه لوله حرارتی مسی یکپارچه وجود دارد که گرما را از GPU خود خارج می کند. گرمای دفع شده توسط لوله های گرما سپس توسط هیت سینک آلومینیومی دفع می شود. صفحه فلزی با مشخصات کم در پشت تخته نیز برای ارائه عملکرد حرارتی بهتر طراحی شده است. همچنین دارای یک قسمت جمع شونده برای حرکت بهتر هوا بین چندین کارت گرافیک در تنظیمات SLI است.

وقتی نوبت به منبع تغذیه برد می رسد ، GeForce GTX 1070 Founders Edition دارای یک سیستم برق چهار فاز است که برای منبع تغذیه پایدار بهینه شده است. انویدیا ادعا می کند که GTX 1070 Founders Edition نسبت به GeForce GTX 970 برای عملکرد بهتر اورکلاک ، بهره وری ، پایداری و قابلیت اطمینان را بهبود بخشیده است. در آزمایش های خود این شرکت ، پردازنده های گرافیکی GeForce GTX 1070 به راحتی عملکردی برابر با 1.9 گیگاهرتز داشتند که نزدیک به نتایج مدل قدیمی تر GTX 1080 است.

کارت گرافیک Nvidia GeForce GTX 1070 از 10 ژوئن در فروشگاه های خرده فروشی در دسترس خواهد بود. قیمت های پیشنهادی GeForce GTX 1070 Founders Edition و راه حل های شریک با یکدیگر متفاوت هستند و این بزرگترین سوال برای این نسخه ویژه است. اگر شرکای انویدیا کارت های گرافیک GeForce GTX 1070 خود را با قیمت 379 دلار (در بازار ایالات متحده) بفروشند ، در این صورت نسخه پایه گذار نسخه مرجع انویدیا 449 دلار هزینه خواهد داشت. آیا علاقه مندان زیادی هستند که بخواهند برای مزایای مشکوک نسخه مرجع ، هزینه بیشتری بپردازند؟ زمان مشخص خواهد شد ، اما ما اعتقاد داریم که صفحه مرجع به عنوان گزینه ای که در ابتدای فروش برای خرید در دسترس است ، جالب تر است و بعداً نقطه دستیابی به آن (و حتی با قیمت بالا!) در حال حاضر به صفر رسیده است.

باید اضافه کرد که برد مدار چاپی مرجع GeForce GTX 1070 مشابه کارت گرافیک قدیمی است و هر دو با دستگاه بورد های قبلی این شرکت متفاوت هستند. مقدار معمول مصرف برق برای محصول جدید 150 وات است که تقریباً 20٪ کمتر از مقدار GTX 1080 است و نزدیک به مصرف برق نسل قبلی GeForce GTX 970 است. برد مرجع انویدیا مجموعه ای از اتصالات آشنا برای اتصال دستگاه های خروجی تصویر را دارد: ، یک HDMI و سه DisplayPort. علاوه بر این ، پشتیبانی از نسخه های جدید HDMI و DisplayPort ظاهر شد ، که ما در بالا در بررسی مدل GTX 1080 در مورد آن نوشتیم.

تغییرات معماری

کارت گرافیک GeForce GTX 1070 بر اساس تراشه GP104 ساخته شده است که اولین نسل از معماری گرافیکی Pascal انویدیا است. این معماری راه حلهای ارائه شده در ماکسول را اساس قرار داد ، اما تفاوتهای عملکردی نیز دارد که در بالا به طور مفصل درباره آنها نوشتیم - در بخشی که به کارت گرافیک برتر GeForce GTX 1080 اختصاص داده شده است.

تغییر اصلی در معماری جدید ، فرآیند فن آوری بود که توسط آن همه پردازنده های گرافیکی جدید اجرا می شوند. استفاده از فناوری فرایند 16 نانومتری FinFET در تولید GP104 امکان افزایش قابل توجهی در پیچیدگی تراشه را فراهم کرد در حالی که منطقه و هزینه نسبتاً کمی را حفظ می کند ، و اولین تراشه معماری Pascal دارای تعداد قابل توجهی بیشتر از واحدهای اجرای ، از جمله واحدهای ارائه دهنده عملکرد جدید ، در مقایسه با تراشه های ماکسول با موقعیت مشابه است.

تراشه ویدئویی GP104 از لحاظ ساختاری مشابه راه حل های مشابه معماری ماکسول است و می توانید در بررسی راه حل های قبلی Nvidia اطلاعات دقیق مربوط به دستگاه GPU های مدرن را بیابید. مانند پردازنده های گرافیکی قبلی ، تراشه های معماری جدید از تنظیمات متفاوتی از Graphics Processing Cluster (GPC) ، Streaming Multiprocessors (SM) و کنترل کننده های حافظه برخوردار هستند و برخی از تغییرات در GeForce GTX 1070 رخ داده است - بخشی از تراشه قفل شده و غیرفعال است ( با رنگ خاکستری برجسته شده):

اگرچه GPU GP104 شامل چهار خوشه GPC و 20 پردازنده چند منظوره SM است ، اما در نسخه GeForce GTX 1070 با یک خوشه GPC که از نظر سخت افزاری غیرفعال شده است ، یک اصلاحیه از بین برد. از آنجا که هر GPC دارای یک موتور رسترایزاسیون اختصاصی است و شامل پنج پردازنده چند SM است و هر چند پردازنده متشکل از 128 هسته CUDA و هشت واحد بافت TMU است ، این نسخه از GP104 دارای 1920 هسته CUDA و 120 TMU از 2560 پردازنده جریان فعال است. و 160 واحد بافت از نظر جسمی موجود است.

پردازنده گرافیکی که GeForce GTX 1070 بر روی آن بنا شده شامل هشت کنترل کننده 32 بیتی حافظه 256 بیتی حافظه نهایی است - دقیقاً مانند نمونه GTX 1080 قدیمی تر. زیر سیستم حافظه برای تأمین پهنای باند کافی قطع نشده است. هشت ROP و 256 KB حافظه پنهان L2 به هر یک از کنترل کننده های حافظه متصل شده اند ، بنابراین تراشه GP104 در این اصلاحات همچنین شامل 64 ROP و 2048 KB حافظه پنهان L2 است. مرحله.

به لطف بهینه سازی های معماری و یک فناوری فرآیند جدید ، GPU GP104 به کارآمدترین پردازنده گرافیکی تاکنون تبدیل شده است. مهندسان انویدیا در هنگام استفاده از فناوری پردازش جدید توانستند سرعت کلاک را بیش از آنچه انتظار داشتند افزایش دهند ، که برای این کار مجبور بودند سخت کار کنند ، همه گلوگاه های راه حل های قبلی را با دقت بررسی و بهینه سازی کنند ، که به آنها اجازه نمی دهد با فرکانس بالاتر کار کنند. بر این اساس ، GeForce GTX 1070 نیز با فرکانس بسیار بالا کار می کند ، بیش از 40 درصد بیشتر از مقدار مرجع GeForce GTX 970.

از آنجایی که مدل GeForce GTX 1070 ، در اصل ، فقط GTX 1080 با حافظه GDDR5 با بهره وری کمتر است ، کاملاً از تمام فن آوری هایی که در بخش قبلی توضیح دادیم پشتیبانی می کند. برای جزئیات بیشتر در مورد معماری Pascal و همچنین فن آوری های پشتیبانی شده از جمله بهبود خروجی و پردازش ویدئو ، پشتیبانی از Async Compute ، فناوری همزمان چند پروجکشن ، تغییر در رندر چند تراشه SLI و نوع همگام سازی جدید سریع Sync ، باید بررسی کنید با قسمت GTX 1080.

عملکرد بالا حافظه GDDR5 و استفاده کارآمد از آن

ما در مورد تغییرات زیر سیستم حافظه GPU GP104 ، که مدل های GeForce GTX 1080 و GTX 1070 بر اساس آن ساخته شده اند ، در بالا نوشتیم - کنترل کننده های حافظه موجود در این GPU از هر دو نوع جدید حافظه ویدئویی GDDR5X پشتیبانی می کنند ، که به طور مفصل در بررسی GTX 1080 شرح داده شده است ، همچنین و حافظه قدیمی خوب GDDR5 که ما چندین سال است می شناسیم.

برای اینکه در GTX 1070 جوانتر در مقایسه با GTX 1080 قدیمی بیش از حد در پهنای باند حافظه از دست نرود ، همه هشت کنترل کننده 32 بیتی حافظه ویدئویی مشترک 256 بیتی مشترک در آن فعال بودند. علاوه بر این ، کارت گرافیک مجهز به بالاترین سرعت حافظه GDDR5 موجود در بازار بود - با فرکانس عملیاتی موثر 8 گیگاهرتز. همه اینها پهنای باند حافظه 256 گیگابایت بر ثانیه را ارائه می دهند ، در مقابل 320 گیگابایت بر ثانیه برای راه حل قدیمی - توانایی های محاسباتی تقریباً به همان مقدار کاهش یافته بود ، بنابراین تعادل مشاهده شد.

بخاطر داشته باشید که گرچه پهنای باند نظری برای عملکرد GPU مهم است ، اما باید به کارایی آن نیز توجه کنید. در حین رندر ، تنگناهای مختلف مختلف می توانند عملکرد کلی را محدود کرده و از استفاده از پهنای باند حافظه موجود جلوگیری کنند. برای به حداقل رساندن این گلوگاه ها ، GPU ها از فشرده سازی ویژه بدون فقدان برای بهبود کارایی عملکرد خواندن و نوشتن استفاده می کنند.

در معماری Pascal ، نسل چهارم فشرده سازی دلتا اطلاعات بافر معرفی شد که به GPU امکان می دهد با استفاده از کارآیی بیشتری از قابلیت های موجود در حافظه ویدئویی را داشته باشد. زیر سیستم حافظه در GeForce GTX 1070 و GTX 1080 از تکنیک های بهبود یافته قدیمی و چندین جدید فشرده سازی بدون فقدان اطلاعات استفاده می کند که برای کاهش نیاز به پهنای باند حافظه طراحی شده اند. این میزان داده نوشته شده در حافظه را کاهش می دهد ، بهره وری حافظه پنهان L2 را بهبود می بخشد و میزان داده منتقل شده بین نقاط مختلف GPU مانند TMU و framebuffer را کاهش می دهد.

GPU Boost 3.0 و ویژگی های اورکلاک

بیشتر شرکای انویدیا قبلاً راه حل های اورکلاک شده کارخانه را بر اساس GeForce GTX 1080 و GTX 1070 اعلام کرده اند. و بسیاری از تولیدکنندگان کارت های ویدیویی ابزارهای ویژه اورکلاک را ایجاد می کنند که به شما امکان می دهد از قابلیت های جدید فناوری GPU Boost 3.0 استفاده کنید. یک نمونه از این برنامه های کاربردی EVGA Precision XOC است ، که شامل اسکنر اتوماتیک برای تعیین منحنی ولتاژ به فرکانس است - در این حالت ، برای هر مقدار ولتاژ ، با اجرای یک تست پایداری ، یک فرکانس پایدار پیدا می شود که GPU افزایش عملکرد را فراهم می کند. با این حال ، این منحنی همچنین می تواند به صورت دستی تغییر کند.

ما فناوری GPU Boost را از کارت گرافیک های قبلی انویدیا به خوبی می شناسیم. آنها در GPU های خود از این ویژگی سخت افزاری استفاده می کنند که برای افزایش سرعت ساعت کاری GPU در حالت هایی طراحی شده است که هنوز به محدودیت های مصرف برق و اتلاف گرما نرسیده است. در پردازنده های گرافیکی پاسکال ، این الگوریتم چندین تغییر را تجربه کرده است ، اصلی ترین آنها تنظیم دقیق تر فرکانس های توربو ، بسته به ولتاژ بود.

اگر قبلاً اختلاف بین فرکانس پایه و فرکانس توربو برطرف شده بود ، در GPU Boost 3.0 امکان تنظیم جبران فرکانس های توربو برای هر ولتاژ به طور جداگانه وجود دارد. فرکانس توربو اکنون می تواند برای هر یک از مقادیر ولتاژ منفرد تنظیم شود ، که به شما امکان می دهد تمام توانایی های اورکلاکینگ را از GPU کاملاً خارج کنید. ما در مورد این ویژگی به طور مفصل در بررسی GeForce GTX 1080 خود نوشتیم ، و شما می توانید از برنامه های EVGA Precision XOC و MSI Afterburner برای این کار استفاده کنید.

از آنجا که برخی جزئیات در تکنیک اورکلاکینگ با انتشار کارت های ویدیو با پشتیبانی از GPU Boost 3.0 تغییر کرده است ، انویدیا مجبور شد توضیحات بیشتری را در دستورالعمل های اورکلاک کردن محصولات جدید ارائه دهد. روش های مختلف اورکلاک با ویژگی های متغیر مختلف وجود دارد که بر نتیجه نهایی تأثیر می گذارد. برای هر سیستم خاص ، یک روش خاص ممکن است بهتر مناسب باشد ، اما اساس همیشه تقریباً یکسان است.

بسیاری از اورکلاکرها از معیار Unigine Heaven 4.0 برای بررسی پایداری سیستم استفاده می کنند ، که GPU را کاملاً بار می آورد ، دارای تنظیمات انعطاف پذیر است و می تواند در حالت پنجره ای همراه با پنجره ابزار اورکلاکینگ و نظارت در نزدیکی اجرا شود ، مانند EVGA Precision یا MSI Afterburner. با این حال ، چنین بررسی فقط برای برآورد اولیه کافی است و برای تأیید ثابت ثبات اورکلاک ، باید در چندین برنامه بازی بررسی شود ، زیرا بازی های مختلف بارهای مختلفی را بر روی بلوک های مختلف GPU بار می گیرند: ریاضی ، بافت ، هندسی. معیار Heaven 4.0 برای کار اورکلاکینگ نیز مناسب است زیرا دارای یک حالت عملکرد حلقه ای است ، در آن تغییر تنظیمات اورکلاکینگ راحت است و معیاری برای ارزیابی سرعت افزایش وجود دارد.

انویدیا هنگام اورکلاک کارت های گرافیک جدید GeForce GTX 1080 و GTX 1070 ، توصیه می کند که پنجره های Heaven 4.0 و EVGA Precision XOC را با هم اجرا کنید. ابتدا توصیه می شود بلافاصله سرعت فن را افزایش دهید. و برای اورکلاک جدی ، می توانید بلافاصله مقدار سرعت را روی 100٪ تنظیم کنید ، که باعث می شود کارت ویدیو بسیار بلند کار کند ، اما GPU و سایر اجزای کارت ویدیو را تا حد ممکن خنک کنید ، درجه حرارت را به پایین ترین سطح ممکن کاهش دهید ، از ممانعت از سوزاندن (کاهش فرکانس ها به دلیل افزایش دمای GPU بیش از یک مقدار خاص) )

بعد ، باید Power Target را نیز به حداکثر تنظیم کنید. این تنظیم با افزایش مصرف برق و GPU Temp Target ، GPU را تا حد ممکن تأمین می کند. برای برخی اهداف ، مقدار دوم را می توان از تغییر Power Target جدا کرد و سپس این تنظیمات را می توان به صورت جداگانه تنظیم کرد - برای مثال ، برای گرم شدن کمتر تراشه ویدئو.

گام بعدی افزایش GPU Clock Offset است - این بدان معنی است که فرکانس توربو در حین کار چقدر بالاتر خواهد بود. این مقدار فرکانس را برای تمام ولتاژها افزایش می دهد و عملکرد بهتری دارد. طبق معمول ، هنگام اورکلاک ، قبل از اینکه متوجه قطع شدن ، خطای درایور یا برنامه ، یا حتی مصنوعات تصویری شوید ، باید ثبات را هنگام افزایش فرکانس GPU در مراحل کوچک بررسی کنید - از 10 مگاهرتز به 50 مگاهرتز در هر مرحله. با رسیدن به این حد ، باید مقدار فرکانس را یک پله پایین بیاورید و دوباره پایداری و عملکرد را در هنگام اورکلاک بررسی کنید.

علاوه بر فرکانس GPU ، می توانید فرکانس حافظه ویدئویی (Memory Clock Offset) را نیز افزایش دهید ، این امر خصوصاً در مورد GeForce GTX 1070 مجهز به حافظه GDDR5 که معمولاً به خوبی بسته می شود بسیار مهم است. در مورد فرکانس حافظه ، فرآیند دقیقاً همان کاری را که با یافتن یک فرکانس GPU پایدار انجام می شود ، تکرار می کند ، تنها تفاوت در این است که مراحل را می توان بزرگتر کرد - 50-100 مگاهرتز را به یک باره به فرکانس پایه اضافه کنید.

علاوه بر مراحلی که در بالا توضیح داده شد ، می توانید حد ولتاژ (ولتاژ اضافی) را نیز افزایش دهید ، زیرا فرکانس بالاتر GPU اغلب در ولتاژ بالاتر ، هنگامی که قطعات بی ثبات GPU قدرت اضافی دریافت می کنند ، حاصل می شود. درست است ، عیب احتمالی افزایش این مقدار ، احتمال آسیب رساندن به تراشه ویدیویی و خرابی شتابدار آن است ، بنابراین باید با احتیاط شدید از افزایش ولتاژ استفاده کنید.

علاقه مندان به اورکلاکینگ از تکنیک های کمی متفاوت استفاده می کنند و پارامترها را به ترتیب دیگری تغییر می دهند. به عنوان مثال ، برخی از اورکلاکرها آزمایشات خود را در مورد یافتن یک GPU و فرکانس حافظه پایدار به اشتراک می گذارند تا با یکدیگر تداخل نداشته باشند ، و سپس اورکلاک ترکیبی تراشه های ویدئویی و حافظه را آزمایش می کنند ، اما این جزئیات ناچیز رویکرد فردی است.

با توجه به نظرات در انجمن ها و نظرات در مورد مقالات ، برخی از کاربران الگوریتم جدید GPU Boost 3.0 را دوست ندارند ، هنگامی که فرکانس GPU برای اولین بار بسیار بالا می رود ، اغلب بالاتر از فرکانس توربو ، اما پس از آن ، تحت تأثیر افزایش درجه حرارت GPU یا افزایش مصرف برق بالاتر از مجموعه حد ، می تواند به مقادیر بسیار پایین تر کاهش یابد. این فقط مشخصات الگوریتم به روز شده است ، شما باید به رفتار جدید فرکانس GPU متغیر پویا عادت کنید ، اما هیچ پیامد منفی ندارد.

GeForce GTX 1070 پس از GTX 1080 دومین سری از پردازنده های گرافیکی Pascal انویدیا است. فن آوری جدید 16 نانومتری فرآیند FinFET و بهینه سازی های معماری به کارت گرافیک ارائه شده امکان دستیابی به سرعت کلاک بالا را می دهد ، که همچنین به کمک نسل جدید فناوری GPU Boost نیز کمک می کند. حتی اگر تعداد واحدهای عملکردی به صورت پردازشگرهای جریان و واحدهای بافتی کاهش یافته باشد ، تعداد آنها برای GTX 1070 کافی است تا به سودآورترین و با صرفه جویی در مصرف انرژی تبدیل شود.

نصب حافظه GDDR5 در جدیدترین جفت مدل کارت گرافیک انویدیا منتشر شده روی تراشه GP104 ، برخلاف نوع جدید GDDR5X که GTX 1080 متفاوت است ، مانع دستیابی به شاخص های عملکرد بالا نمی شود. اولاً ، انویدیا تصمیم گرفت که حافظه حافظه مدل GeForce GTX 1070 را قطع نکند ، و دوم اینکه ، آنها سریعترین حافظه GDDR5 را با فرکانس موثر 8 گیگاهرتز نصب کردند ، که این فقط کمی کمتر از 10 گیگاهرتز برای GDDR5X استفاده شده در مدل قدیمی است. با در نظر گرفتن الگوریتم های فشرده سازی دلتا بهبود یافته ، پهنای باند حافظه موثر GPU بالاتر از مدل مشابه نسل قبلی GeForce GTX 970 است.

GeForce GTX 1070 خوب است زیرا عملکرد و پشتیبانی بسیار خوبی از ویژگی ها و الگوریتم های جدید با قیمت قابل توجهی پایین تر نسبت به مدل قدیمی که کمی قبل اعلام شده بود را ارائه می دهد. اگر تعداد کمی از علاقه مندان بتوانند خرید GTX 1080 را با قیمت 55000 خریداری کنند ، در این صورت گروه بسیار بیشتری از خریداران بالقوه قادر به پرداخت 35000 فقط برای یک چهارم راه حل کم بهره و دقیقاً با همان توانایی هستند. همین ترکیب قیمت نسبتاً پایین و کارایی بالا بود که باعث شد GeForce GTX 1070 بهترین معامله در زمان عرضه باشد.

شتاب دهنده گرافیکی GeForce GTX 1060

پارامترمقدار
نام رمز تراشهGP106
فن آوری تولید16 نانومتر FinFET
تعداد ترانزیستور4.4 میلیارد
منطقه اصلی200 میلی متر مربع
معمارییکپارچه ، با آرایه ای از پردازنده های رایج برای پردازش جریانی انواع مختلفی از داده ها: راس ، پیکسل و غیره
پشتیبانی سخت افزاری DirectXDirectX 12 ، با پشتیبانی از Feature Level 12_1
اتوبوس حافظه192 بیتی: شش کنترل کننده حافظه 32 بیتی مستقل که از حافظه GDDR5 پشتیبانی می کنند
فرکانس GPU1506 (1708) مگاهرتز
واحدهای محاسباتی10 پردازنده چند جریان ، از جمله 1280 ALU اسکالر برای محاسبات نقطه شناور در چارچوب استاندارد IEEE 754-2008.
بلوک های بافت80 واحد آدرس دهی و فیلتر کردن بافت با پشتیبانی از م componentsلفه های FP16 و FP32 در بافت ها و پشتیبانی از فیلتر سه بعدی و ناهمسانگرد برای همه قالب های بافت
Raster Operation Blocks (ROP)6 ROP عریض (48 پیکسل) با پشتیبانی از حالت های مختلف ضد الگوریتم ، از جمله موارد قابل برنامه ریزی با فرمت Fp16 یا FP32 framebuffer. این بلوک ها از آرایه ای از ALU های قابل تنظیم تشکیل شده اند و وظیفه تولید و مقایسه عمق ، چند نمونه برداری و ترکیب را دارند.
نظارت بر پشتیبانیپشتیبانی یکپارچه از حداکثر چهار نمایشگر متصل از طریق رابط های Dual Link DVI ، HDMI 2.0b و DisplayPort 1.2 (1.3 / 1.4 Ready)

مشخصات کارت گرافیک مرجع GeForce GTX 1060
پارامترمقدار
فرکانس هسته1506 (1708) مگاهرتز
تعداد پردازنده های جهانی1280
تعداد واحدهای بافت80
تعداد بلوک های ترکیب48
فرکانس حافظه موثر8000 (4 × 2000) مگاهرتز
نوع حافظهGDDR5
اتوبوس حافظه192 بیتی
اندازه حافظه6 گیگابایت
پهنای باند حافظه192 گیگابایت در ثانیه
عملکرد محاسباتی (FP32)حدود 4 ترافلاپس
حداکثر نظری میزان پر شدن72 گیگاپیکسل در ثانیه
نرخ نمونه برداری نظری121 گیگاتکسل در ثانیه
لاستیکPCI Express 3.0
اتصالاتیک Dual Link DVI ، یک HDMI و سه DisplayPort
مصرف برق معمولی120 وات
غذای اضافییک کانکتور 6 پین
تعداد شکاف های اشغال شده در شاسی سیستم2
قیمت پیشنهادی249 دلار (299 دلار) در ایالات متحده و 18990 دلار در روسیه

کارت گرافیک GeForce GTX 1060 نیز نامی مشابه همان راه حل از سری قبلی GeForce دریافت کرد که با نام سلف مستقیم آن ، GeForce GTX 960 ، فقط با رقم اول اصلاح شده نسل متفاوت است. این ترفند در خط فعلی این شرکت یک قدم کمتر از راه حل GeForce GTX 1070 که قبلاً منتشر شده بود ، است که میانگین سرعت سری جدید است.

قیمت های پیشنهادی کارت گرافیک جدید انویدیا به ترتیب 249 و 299 دلار برای نسخه های معمولی شرکای این شرکت و نسخه ویژه نسخه Founder Edition است. در مقایسه با دو مدل قدیمی ، این قیمت بسیار مطلوبی است ، زیرا مدل جدید GTX 1060 گرچه از مادربردهای سطح بالا پایین تر است ، اما به همان نسبت ارزان تر نیست. در زمان انتشار ، محصول جدید قطعاً به بهترین راه حل عملکرد در کلاس خود و یکی از سودمندترین پیشنهادات در این بازه قیمت تبدیل شد.

این مدل از کارت گرافیک خانواده پاسکال انویدیا برای خنثی کردن تصمیم تازه شرکت رقیب AMD که کمی زودتر Radeon RX 480 را به بازار عرضه کرد ، بیرون آمد. ... GeForce GTX 1060 گران تر است (249-299 دلار در مقابل 199-229 دلار) ، اما به وضوح سریعتر از رقبا است.

پردازنده گرافیکی GP106 دارای یک باس حافظه 192 بیتی است ، بنابراین میزان حافظه نصب شده روی کارت گرافیک با چنین باس می تواند 3 یا 6 گیگابایت باشد. کمترین مقدار در شرایط مدرن کافی نیست و بسیاری از پروژه های بازی ، حتی با وضوح Full HD ، با کمبود حافظه ویدئویی روبرو خواهند شد ، که به طور جدی بر صاف بودن ارائه تأثیر می گذارد. برای به حداکثر رساندن عملکرد راه حل جدید در تنظیمات بالا ، مدل GeForce GTX 1060 به 6 گیگابایت حافظه ویدئویی مجهز شده است که برای اجرای هر برنامه سه بعدی در هر تنظیم با کیفیت کافی است. علاوه بر این ، امروزه هیچ تفاوتی بین 6 و 8 گیگابایت وجود ندارد و چنین راه حلی باعث صرفه جویی در هزینه خواهد شد.

مقدار معمول مصرف برق برای محصول جدید 120 وات است که 20٪ کمتر از مقدار GTX 1070 است و برابر با مصرف برق نسل قبلی GeForce GTX 960 است که عملکرد و قابلیت های بسیار کمتری دارد. برد مرجع مجموعه متداول اتصالات اتصال دستگاههای خروجی تصویر را دارد: یکی Dual-Link DVI ، دیگری HDMI و سه DisplayPort. علاوه بر این ، پشتیبانی از نسخه های جدید HDMI و DisplayPort ظاهر شد ، که ما در مورد بررسی مدل GTX 1080 در مورد آن نوشتیم.

طول صفحه مرجع GeForce GTX 1060 9.8 اینچ (25 سانتی متر) است و از تفاوت نسخه های قدیمی ، جداگانه خاطر نشان می کنیم که GeForce GTX 1060 از پیکربندی رندر چند GPU SLI پشتیبانی نمی کند و اتصال خاصی برای این کار ندارد. از آنجایی که برد نسبت به مدلهای قدیمی مصرف کمتری دارد ، یک منبع برق 6 پین PCI-E برای منبع تغذیه اضافی بر روی برد نصب شد.

کارت های ویدیویی GeForce GTX 1060 از روز اعلام در بازار به صورت محصولات شرکای این شرکت ظاهر شده اند: ایسوس ، EVGA ، Gainward ، گیگابایت ، Innovision 3D ، MSI ، Palit ، Zotac. نسخه ویژه GeForce GTX 1060 Founder Edition که توسط خود انویدیا تولید می شود نیز در مقادیر محدود عرضه می شود که به قیمت 299 دلار به طور انحصاری در وب سایت انویدیا فروخته می شود و به صورت رسمی در روسیه ارائه نمی شود. نسخه Founder Edition با مواد و اجزای باکیفیت بالا ، از جمله یک پوشش آلومینیومی ساخته شده است و از یک سیستم خنک کننده کارآمد ، مدارهای قدرت با مقاومت کم و تنظیم کننده های ولتاژ ویژه استفاده می کند.

تغییرات معماری

کارت گرافیک GeForce GTX 1060 مبتنی بر یک GPU کاملاً جدید GP106 است ، که از لحاظ عملکردی با اولین متولد معماری پاسکال به شکل تراشه GP104 که مدلهای GeForce GTX 1080 و GTX 1070 در بالا بر اساس آن ساخته شده اند ، هیچ تفاوتی ندارد. این معماری براساس راه حل های توسعه یافته در سال ماکسول ، اما تفاوت های عملکردی نیز دارد که قبلاً به طور مفصل درباره آنها نوشتیم.

تراشه ویدئویی GP106 از لحاظ ساختاری مشابه تراشه سطح بالای پاسکال و راه حل های مشابه معماری ماکسول است و می توانید اطلاعات دقیق مربوط به دستگاه GPU های مدرن را در بررسی راه حل های قبلی انویدیا بیابید. مانند پردازنده های گرافیکی قبلی ، تراشه های معماری جدید از تنظیمات متفاوتی از Graphics Processing Cluster (GPC) ، Streaming Multiprocessors (SM) و کنترل کننده های حافظه برخوردارند:

GP106 GPU شامل دو خوشه GPC ، متشکل از 10 پردازنده چند جریان (SM) ، یعنی دقیقاً نیمی از GP104 است. همانند GPU قدیمی ، هر یک از پردازنده های چندگانه شامل 128 هسته محاسباتی ، 8 واحد بافت TMU ، 256 کیلوبایت حافظه ثبات ، 96 کیلوبایت حافظه مشترک و 48 کیلوبایت حافظه پنهان L1 است. در نتیجه ، GeForce GTX 1060 در مجموع دارای 1280 هسته پردازشی و 80 واحد بافت است - نصف اندازه GTX 1080.

اما زیر سیستم حافظه GeForce GTX 1060 در مقایسه با راه حل برتر به دو نیم نشده است ، این سیستم شامل شش کنترل کننده 32 بیتی حافظه 192 بیتی است. با فرکانس موثر حافظه ویدئویی GDDR5 برای GeForce GTX 1060 معادل 8 گیگاهرتز ، پهنای باند به 192 گیگابایت در ثانیه می رسد که برای راه حل در این بخش قیمت کاملاً مناسب است ، به ویژه با توجه به کارایی بالای استفاده از آن در Pascal. هر کنترل کننده حافظه دارای هشت ROP و 256KB کش L2 به هر کنترل کننده حافظه متصل است ، بنابراین در کل نسخه کامل GP106 GPU شامل 48 ROP و 1536KB L2 حافظه پنهان است.

برای کاهش نیاز به پهنای باند حافظه و استفاده کارآمدتر از ساختار موجود Pascal ، فشرده سازی بدون تراشه بدون تراشه بیشتر بهبود یافته است ، که قادر به فشرده سازی داده ها در بافرها ، افزایش بازده و عملکرد است. به طور خاص ، روش های جدید فشرده سازی دلتا به تراشه های خانواده جدید با نسبت 4: 1 و 8: 1 اضافه شده است که 20٪ اضافی را برای بازده پهنای باند حافظه در مقایسه با راه حل های قبلی خانواده ماکسول فراهم می کند.

فرکانس پایه پردازنده گرافیکی جدید برابر با 1506 مگاهرتز است - اصولاً نباید فرکانس زیر این علامت کاهش یابد. Boost Clock معمولی با سرعت 1708 مگاهرتز بسیار بالاتر است که میانگین ساعتی واقعی است که GPU GeForce GTX 1060 در طیف گسترده ای از بازی ها و برنامه های سه بعدی اجرا می کند. فرکانس واقعی Boost به بازی و محیط آزمایش بستگی دارد.

مانند سایر اعضای خانواده پاسکال ، GeForce GTX 1060 نه تنها با سرعت کلاک بالا کارایی بالایی دارد ، بلکه عملکرد مناسبی برای اورکلاک نیز دارد. اولین آزمایش ها امکان دستیابی به فرکانس های نظم 2 گیگاهرتز را نشان می دهد. تعجب آور نیست که شرکای این شرکت ، در کنار سایر موارد ، نسخه کارت گرافیکی GTX 1060 را با اورکلاک کارخانه آماده می کنند.

بنابراین ، تغییر اصلی در معماری جدید ، فرآیند فن آوری 16 نانومتری FinFET بود که با استفاده از آن در تولید GP106 امکان افزایش قابل توجهی پیچیدگی تراشه در حالی که منطقه نسبتاً کم 200 میلی متر مربع حفظ شده بود ، وجود دارد ، بنابراین این تراشه از ساختار پاسکال نسبت به تراشه مکسول دارای موقعیت مشابه دارای تعداد بیشتری از واحدهای اجرای است. با استفاده از فناوری فرآیند 28 نانومتر تولید شده است.

اگر GM206 (GTX 960) با مساحت 227 mm² دارای 3 میلیارد ترانزیستور و 1024 ALU ، 64 TMU ، 32 ROP و یک گذرگاه 128 بیتی باشد ، پردازنده گرافیکی جدید در حال حاضر 4.4 میلیارد ترانزیستور ، 1280 ALU در 200 mm in را در خود جای داده است. 80 TMU و 48 ROP با گذرگاه 192 بیتی. علاوه بر این ، تقریباً با یک و نیم برابر فرکانس بالاتر: 1506 (1708) در مقابل 1126 (1178) مگاهرتز. و این با همان مصرف برق 120 وات! در نتیجه ، GP10 GP106 به همراه GP104 به یکی از پر مصرف ترین GPU ها تبدیل شده است.

فن آوری های جدید انویدیا

یکی از جالب ترین فناوری های این شرکت که توسط GeForce GTX 1060 و سایر راه حل های خانواده پاسکال پشتیبانی می شود ، فناوری است چند پروجکشن همزمان Nvidia... ما قبلاً در مورد این فناوری در بررسی GeForce GTX 1080 خود نوشتیم و به شما امکان می دهد از چندین تکنیک جدید برای بهینه سازی ارائه استفاده کنید. به طور خاص ، برای ایجاد همزمان یک تصویر VR برای دو چشم همزمان ، افزایش قابل توجهی در کارایی استفاده از GPU در واقعیت مجازی.

برای پشتیبانی از SMP ، تمام پردازنده های گرافیکی Pascal دارای یک موتور اختصاصی هستند که در موتور PolyMorph در انتهای خط لوله هندسه ، قبل از واحد ROP واقع شده است. با کمک آن ، GPU می تواند به طور همزمان یک هندسی ابتدایی را از یک نقطه روی چندین پیش بینی قرار دهد ، در حالی که این پیش بینی ها می توانند استریو باشند (یعنی به طور همزمان حداکثر 16 یا 32 پیش بینی پشتیبانی می شوند). این قابلیت به GPU های پاسکال این امکان را می دهد تا سطوح منحنی را برای ارائه VR دقیق تولید کنند و همچنین به درستی روی سیستم های چند مانیتور نمایش داده شوند.

مهم است که فناوری همزمان چند پروجکشن در حال حاضر در موتورهای محبوب بازی (Unreal Engine و Unity) و بازی ها ادغام شده است و تا به امروز ، پشتیبانی از این فناوری برای بیش از 30 بازی در حال توسعه ، از جمله پروژه های معروف مانند Unreal Tournament اعلام شده است. ، Poolnation VR ، Everest VR ، Obduction ، Adr1ft و داده های خام. جالب اینجاست که اگرچه Unreal Tournament یک بازی VR نیست ، اما برای دستیابی به تصاویر بهتر و بهبود عملکرد از SMP استفاده می کند.

یکی دیگر از فناوری های مورد انتظار ، یک ابزار قدرتمند اسکرین شات در بازی ها است. انویدیا آنسل... این ابزار به شما امکان می دهد از بازی ها ، با ویژگی های غیرقابل دسترسی قبلی ، تصاویر صفحه ای غیر معمول و بسیار با کیفیت ایجاد کنید ، آنها را در وضوح بسیار بالا ذخیره کنید و با جلوه های مختلف تکمیل کنید و کارهای خود را به اشتراک بگذارید. Ansel به شما امکان می دهد به معنای واقعی کلمه یک عکس از صفحه را به همان شکلی که هنرمند می خواهد بسازید ، به شما امکان می دهد دوربینی را با هر پارامتر در هر نقطه از صحنه نصب کنید ، فیلترهای ارسال قدرتمندی بر روی تصویر اعمال کنید یا حتی یک عکس 360 درجه را برای مشاهده در کلاه ایمنی واقعیت بگیرید.

انویدیا ادغام رابط کاربری Ansel در بازی ها را استاندارد کرده و این کار به آسانی افزودن چند خط کد به کد است. دیگر نیازی به انتظار برای نمایش این ویژگی در بازی ها نیست ، شما می توانید توانایی های Ansel را همین الان در Mirror’s Edge: Catalyst ارزیابی کنید و کمی بعد در Witcher 3: Wild Hunt در دسترس قرار خواهد گرفت. علاوه بر این ، بسیاری از پروژه های بازی با قابلیت Ansel در حال توسعه هستند ، از جمله بازی هایی مانند Fortnite ، Paragon و Unreal Tournament ، Obduction ، The Witness ، Lawbreakers ، Tom Clancy's The Division ، No Man's Sky و دیگران.

همچنین کارت گرافیک جدید GeForce GTX 1060 از جعبه ابزار پشتیبانی می کند انویدیا VRWorksبرای کمک به توسعه دهندگان در ایجاد تجربه های چشمگیر VR. این بسته شامل بسیاری از ابزارها و ابزارها برای توسعه دهندگان است ، از جمله VRWorks Audio ، که به شما امکان می دهد محاسبات بسیار دقیق بازتاب امواج صوتی را از اشیا in موجود در صحنه با استفاده از اشعه یابی روی GPU انجام دهید. این بسته همچنین شامل ادغام در جلوه های فیزیک VR و PhysX برای ارائه رفتار صحیح جسمی در صحنه است.

یکی از درخشان ترین بازی های مجازی برای استفاده از VRWorks VR Funhouse است ، یک بازی واقعیت مجازی از خود انویدیا ، که به صورت رایگان در Valve Steam در دسترس است. این بازی بر اساس موتور Unreal Engine 4 (Epic Games) ساخته شده است و در کارت گرافیک های GeForce GTX 1080 ، 1070 و 1060 همراه با هدست های HTC Vive VR اجرا می شود. علاوه بر این ، کد منبع این بازی به صورت عمومی در دسترس خواهد بود ، که به سایر توسعه دهندگان اجازه می دهد تا از ایده ها و کدهای آماده موجود در سواری VR خود استفاده کنند. قول ما را بپذیرید ، این یکی از چشمگیرترین نسخه های نمایشی قابلیت های واقعیت مجازی است.

از جمله به لطف فناوری های SMP و VRWorks ، استفاده از GPU GeForce GTX 1060 در برنامه های VR عملکرد کافی برای واقعیت مجازی سطح ابتدایی را فراهم می کند و GPU مورد نظر حداقل سطح سخت افزار مورد نیاز را دارد ، از جمله برای SteamVR ، تبدیل به یکی از موفق ترین خریدها برای استفاده در سیستم های دارای پشتیبانی رسمی VR.

از آنجا که مدل GeForce GTX 1060 مبتنی بر تراشه GP106 است ، به هیچ وجه در مقایسه با پردازنده گرافیکی GP104 که مبنای اصلاحات قدیمی قرار گرفت ، از توانایی کمتری برخوردار نیست ، این کاملاً از تمام فناوری هایی که در بالا توضیح دادیم پشتیبانی می کند.

کارت گرافیک GeForce GTX 1060 سومین مدل از سری جدید پردازنده های گرافیکی Pascal انویدیا است. بهینه سازی فرآیند فن آوری و معماری جدید 16 نانومتری FinFET به همه کارت های ویدیویی جدید این امکان را می دهد تا در مقایسه با تراشه های ویدئویی نسل قبلی ، سرعت کلاک بالایی را بدست آورند و بلوک های عملکردی بیشتری را به صورت پردازنده های جریان ، واحدهای بافت و سایر موارد در GPU قرار دهند. به همین دلیل GTX 1060 به سودآورترین و کم مصرف ترین راه حل در کلاس خود و به طور کلی تبدیل شده است.

از اهمیت ویژه ای برخوردار است که GeForce GTX 1060 نسبت به راه حل های قدیمی مبتنی بر GP104 عملکرد و پشتیبانی نسبتاً کمی از ویژگی ها و الگوریتم های جدید با قیمت قابل توجهی پایین تر ارائه می دهد. تراشه گرافیکی مدل GP106 مدل جدید بهترین عملکرد و راندمان انرژی را در کلاس ارائه می دهد. GeForce GTX 1060 به طور خاص طراحی شده و کاملاً مناسب برای تمام بازی های مدرن در تنظیمات گرافیکی بالا و حداکثر در رزولوشن 1920x1080 و حتی با ضد صفحه برداری تمام صفحه است که با روش های مختلف (FXAA ، MFAA یا MSAA) فعال شده است.

و برای کسانی که به دنبال عملکرد بهتر با نمایشگرهای با وضوح فوق العاده بالا هستند ، انویدیا کارت های گرافیکی درجه یک GeForce GTX 1070 و GTX 1080 را دارد که از نظر عملکرد و بازدهی انرژی نیز بسیار خوب هستند. و با این وجود ترکیبی از قیمت پایین و عملکرد کافی ، GeForce GTX 1060 را در مقابل راه حل های قدیمی تر کاملاً متمایز می کند. در مقایسه با Radeon RX 480 رقیب ، راه حل انویدیا با پیچیدگی کمتر و ردپای GPU و بهره وری قابل توجهی از انرژی ، کمی سریعتر است. درست است که کمی گران تر به فروش می رسد ، بنابراین هر کارت ویدیو جایگاه خاص خود را دارد.

برای دیدن زیبایی تصویر HDR10 که Xbox One S ، PlayStation 4 و PlayStation 4 Pro می توانند تولید کنند ، شما به یک تلویزیون پشتیبانی می کنید که از این قالب پشتیبانی کند. اما همه چیز راحت تر می شود - می توانید از صفحه عکس بگیرید و تفاوت را احساس کنید.

Uncharted 4 و Horizon: Zero Dawn هر دو با HDR روشن و خاموش در یک نمایش ویژه سونی در نمایشگاه بازی توکیو نشان داده شدند. تنها چیزی که باقی مانده بود عکس گرفتن است - کاری که خبرنگاران نسخه ژاپنی Game Watch را انجام دادند.

در مورد Horizon: Zero Dawn ، تفاوت آشکار است: عکس اول HDR را نشان می دهد ، عکس دوم آن را نشان می دهد. با Uncharted 4 ، همه چیز کمی پیچیده تر است: در هر دو عکس ، می توانید یک خط مورب را ببینید که در تصویر جریان دارد. بخشی از تصویر در سمت چپ خط HDR خاموش ، در سمت راست - روشن را نشان می دهد.

همین ارائه همچنین نسخه های PlayStatio 4 Pro Final Fantasy XV ، inFAMOUS First Light و Resident Evil 7: Biohazard را نشان داد. گفتن چیزی مشخص در مورد Biohazard و First Light دشوار است ، اما به نظر می رسد FFXV نسبت به یک پلی استیشن 4 معمولی مناسب تر به نظر می رسد. به نظر می رسد طرفداران نه تنها برای بازی ، بلکه برای کنسول جدید نیز باید چنگ بزنند.

اخیراً همه در مورد HDR صحبت می کنند و اگر به تنظیمات ویدئویی در بازی های رایانه ای توجه کنید ، احتمالاً این سوال برایتان پیش می آید: چه چیز خاصی در این مورد وجود دارد؟ سالها از زمان تأسیس آن می گذرد! خوب ، من باید چیزی به شما بگویم. کادرهای انتخاب "HDR" را که بعد از Half-Life 2 در بازی ها دیده اید به یاد دارید؟ معلوم است که 100٪ HDR نیست.

گزینه "HDR" در برنامه دوربین تلفن همراه؟ و این نیز کاملاً یکسان نیست ، اگرچه همانند کادرهای جعلی HDR در تنظیمات بازی ، هدف از افزایش تصویر همان است.

سردرگم؟ ناراحت نباش وقتی صحبت از تصورات غلط در مورد HDR می شود ، این فقط آغاز است. بنابراین دقیقاً HDR چیست و چگونه می تواند بازی های رایانه ای را تغییر دهد؟ پاسخ به سوال اول دشوار نخواهد بود. با این حال ، کشف مورد دوم مدتی طول می کشد. برای درک HDR و اینکه کدام مانیتورها و کارت های گرافیک از آن پشتیبانی می کنند ، ادامه مطلب را بخوانید.

HDR چیست؟

HDR (به معنای واقعی کلمه از انگلیسی ترجمه شده است - "محدوده دینامیکی بالا") نام چتر فناوری هایی است که طیف رنگی و کنتراست نمایشگرهای ویدئو را بسیار فراتر از قابلیت های جدیدترین سخت افزار گسترش می دهند. با وجود شنیده ها ، وضوح تصویر مهمترین ملفه در مورد کیفیت تصویر نیست. خارج از محدودیت های مقیاس رابط فعلی ویندوز 110 DPI ، تعداد پیکسل ها بسیار کمتر از دستکاری پیکسل ها است.

روشنایی ، کنتراست و اشباع رنگ پس از دستیابی به وضوح مورد نیاز ، در درجه اول کیفیت تصویر قرار می گیرند. و HDR در مورد بهبود این معیارها است. این هنوز به روزرسانی دیگری نیست. HDR برای مشاهده تغییرات در تصویر به خصوصیات فیزیکی خاص رایانه احتیاج دارد ، شما نیازی به چشم آموزش دیده ندارید.

HDR برای مطابقت با استاندارد جدید Ultra HD Premium حداقل به صفحه نمایش LCD حداقل 1000 cd / m2 یا نیت نیاز دارد. با کیفیت بالا ، که حداکثر حدود 300-400 نیت روشنایی دارند و نزدیک نیستند. لپ تاپ های با کیفیت چندان بهتر نیستند زیرا فقط 100 نیت یا درخشان ترین هستند. حتی تلفن های همراه با فناوری های صفحه نمایش علمی تخیلی که به شما امکان می دهد در زیر نور شدید خورشید ببینید ، فقط حدود 800 نیت دارند. وقتی نوبت به روشنایی می رسد ، صفحات سازگار با HDR هیچ فرصتی برای پیشینیان خود نمی گذارند.

رنگ ها نیز به لطف ویژگی های HDR که برای هر کانال رنگی به 10 یا 12 بیت نیاز دارند ، تغییر شکل می دهند که در سیستم عامل موجود است و با استفاده از مجموعه ای از ابزارهای فعال کنترل می شود. بیشتر نمایشگرها فقط با استفاده از یک زیر سیستم فضای رنگی به نام sRGB که فقط یک سوم طیف بصری HDR را پوشش می دهد ، 6 یا 8 بیت در هر کانال رنگ ارائه می دهند. در واقع ، ما رنگ ها را بسیار فقیرتر از آنچه واقعاً هستند می بینیم. با این حال ، حتی وقتی سخت افزار توانایی بیشتری دارد ، ویژگی های نرم افزار استفاده از حالت های رنگی پیشرفته را ناخوشایند می کند.


چپ - طیف HDR ، راست - طیف sRGB

امروزه ، مانیتورهای رایانه های شخصی که از طیف گسترده ای از رنگ یا WGC پشتیبانی می کنند ، معمولاً در مناطق خاصی مانند ویرایش تصویر یا برنامه های پزشکی استفاده می شوند. بازی ها و سایر نرم افزارها به سادگی متوجه رنگهای اضافی نمی شوند و اغلب وقتی فضای رنگی فشرده شده ای که از آنها استفاده می شود در نمایشگرهایی با طیف رنگی گسترده ، ضعیف تنظیم می شوند ، مگر اینکه سخت افزار به مراحل دیگری برای شبیه سازی فضای رنگی فشرده شده نیاز داشته باشد. استانداردهای HDR با درج فراداده در جریان ویدیو از سردرگمی جلوگیری می کند. این به شما کمک می کند فضای رنگی خود را به درستی مدیریت کنید ، از درست به نظر رسیدن برنامه ها و استفاده بهینه از تجربه نمایش پیشرفته استفاده کنید.

برای مدیریت داده های اضافی HDR ، HDMI 2.0a نیز مورد نیاز است ، یک نسخه دیرهنگام به استاندارد HDMI 1.4 با پهنای باند در همه جا.

مشکلات موجود در فناوری HDR

HDR نوید بسیاری می دهد ، اما مسیر آن هنوز مشخص نیست. بزرگترین مشکلات موانع فنی نیستند ، بلکه استانداردهای رقابتی هستند که تا حدی ناسازگار هستند.

در حال حاضر 2 استاندارد اصلی HDR وجود دارد. اولین مورد ، فناوری انحصاری Dolby Vision با عمق رنگ 12 بیتی و فراداده پویا است. رقیب آن استاندارد باز HDR-10 است که از رنگ 10 بیتی پشتیبانی می کند و فقط فراداده استاتیک را در ابتدای جریان ویدئو ارائه می دهد.

Dolby Vision ، که به هزینه های صدور مجوز و سخت افزار اضافی نیاز دارد ، نوآوری گران تری است که دارای محدودیت تصویب است. بسیاری از سازندگان صفحه و ارائه دهندگان محتوا پشتیبانی از HDR-10 را انتخاب کرده اند ، از جمله مایکروسافت برای Xbox One S و Sony برای PS4 ، که نشان دهنده جهتی است که صنعت بازی به سمت آن متمایل است. این امر HDR-10 را به گزینه ای مناسب برای دوست داران کنسول تبدیل می کند.

طرفداران Dolby Vision عمق رنگ ، استانداردهای سخت افزاری بالاتر و توانایی فریم به فریم برای تنظیم پویا رنگ و روشنایی ، همراه با سازگاری HDR-10 را بیان می کنند. اما بازار به سمت استاندارد ارزان قیمت و منطقی HDR-10 در حال حرکت است.

از آنجا که HDR-10 نمی تواند با Dolby Vision سازگار باشد ، Dolby از بسیاری جهات برنده می شود ، اما این استاندارد انحصاری و گران قیمت HDR احتمالاً در سال های آینده لغزش می کند. با این حال ، اگر شما عاشق یک فیلم یا فیلم سینمایی هستید و محصولی را بر اساس کیفیت و محتوا خریداری می کنید که کاملاً در جدیدترین محصولات دالبی وجود دارد ، ممکن است قیمت آنچنان مهم نباشد و بدون هیچ مشکلی از تصویر کامل تری لذت ببرید. با این وجود گیمرها اولویت های دیگری دارند.

امروز HDR در کجا استفاده می شود؟

سازندگان رایانه برای ورود به مسابقه HDR عجله دارند ، اما لازم نیست منتظر بمانید تا آنها آن را امتحان کنند. سخت افزار HDR در حال حاضر در بازار تلویزیون های پیشرفته در دسترس مصرف کنندگان است. همچنین بهترین روش برای دیدن HDR در عمل است ، زیرا در حال حاضر یک کتابخانه کوچک ، اما به طور مداوم به روز شده از دموها ، فیلم ها و نمایش های HDR وجود دارد که گزینه های مختلف را در کنار هم مقایسه می کند ، که به وضوح تفاوت تصویر را نشان می دهد. همه تلویزیون هایی که ما توصیه می کنیم دارای قابلیت HDR هستند ، در صورتی که اندازه و کیفیت تصویر برای شما مهمتر از قابلیت پاسخگویی است ، آنها را به گزینه مناسب جایگزینی مانیتور تبدیل می کند.

تلویزیون های سری KS8000 و KS9800 سامسونگ مانند نمایشگرهای رایانه خوب می توانند از عهده انجام وظایف مختلف برآیند و با در دسترس قرارگرفتن در رایانه های شخصی ، آنها را به عنوان یکی از اولین کسانی که به محتوای HDR تسلط دارند ، انجام دهند. فقط بخاطر بسپارید که هزینه زیادی دارد و استفاده از تلویزیون برای بازی نکات منفی نیز دارد.

کارتهای گرافیکی سازگار با HDR

تنها مکانی که رایانه ها از قبل آماده HDR هستند بازار کارت گرافیک است. و در حالی که مانیتورها از همتایان تلویزیون خود عقب هستند ، GPU های میان رده و رده بالا تقریباً یک سال است که به لطف رقابت سالم انویدیا و AMD رسیده اند.

انویدیا از زمان کارت های سری 900 در مورد HDR صحبت می کند و اکنون همه کارت های مبتنی بر پاسکال را تأیید می کند و آنها را برای HDR آماده می کند. AMD با 390X و Polaris ، اولین کارت های سازگار با HDR ، کمی عقب است. اگر چندی پیش کارت گرافیک خریداری کرده باشید ، احتمال اینکه حداقل بخشی از سیستم از قبل آماده تغییر باشد وجود دارد.

چه زمانی HDR در بازی های رایانه ای ظاهر می شود؟

سخت ترین سوال این است - همه اینها برای گیمرها به چه معناست؟ در حالی که برخی از محصولات جدید با پشتیبانی HDR منتشر می شوند ، بازی های قدیمی بدون برخی از اصلاحات از قابلیت های رنگ و کنتراست غنی تر پشتیبانی نمی کنند. این بازی های قدیمی می توانند در سیستم های مجهز به HDR به خوبی بازی کنند ، اما بدون افزودن کدهای تازه هیچ پیشرفتی نخواهید دید.

خوشبختانه استفاده از فناوری پیشرفته نیازی به بازنویسی کامل نرم افزار ندارد. بدون تلاش قابل توجه که می تواند نقشه های رنگی SDR را در محدوده HDR گسترش دهد ، می توان از یک فرآیند نمایش نسبتاً ساده استفاده کرد.

این بدان معناست که در آینده ، بازی های محبوب با افزودن پشتیبانی HDR اصلاح می شوند یا روی آنها ریمیکس می شوند و dandies به کلاسیک هایی که سازندگان به آن نگاه نمی کنند ، باز می گردند. برخلاف HDR شبیه سازی شده یا متوسط \u200b\u200bکه در نسخه های اولیه بازی ها یا عکس ها مورد استفاده قرار می گرفت ، سخت افزار HDR در حال حاضر در صنعت سرگرمی محبوبیت پیدا کرده است. با این حال ، شما هنوز هم باید برای رسیدن به ایده آل تلاش کنید.

مشکل واقعی که گیمرهای رایانه های شخصی با علاقه به HDR امروز با آن روبرو هستند این است که این پلتفرم از چنین فناوری هایی برخوردار نیست. انویدیا در حال توسعه پچ برای Rise of Tomb Raider است. علاوه بر این ، بازی هایی که از HDR روی کنسول ها پشتیبانی می کنند ممکن است منتظر نسخه های مناسب برای رایانه شخصی باشند (مثلاً Forza ، Battlefield ، Gears of War و سایر موارد). اما نمی توانیم به طور قطعی در این مورد بدانیم.


چپ - حالت HDR ، راست - استاندارد

تا زمانی که چنین وصله ها و بازی هایی در دسترس نباشد ، کاربران Blu-ray و کنسول اولین کسی هستند که از تصاویر بصری پیشرفته قدردانی می کند. بنابراین می توانید آرام باشید. مدتی طول می کشد تا HDR به کامپیوتر برسد ، بنابراین در حال حاضر ، فقط از فروشگاه خود در Steam لذت ببرید و منتظر بمانید.

هیچ مقاله مرتبطی ندارید

دامنه دینامیکی از 4K مهمتر است.

به نشانک ها

دیدن HDR بر روی صفحه نمایش SDR غیرممکن است ، بنابراین ، در چنین مقایسه هایی ، تصویر سمت چپ معمولاً به عمد تخریب می شود ، به طوری که اصل آن واضح است

4K سرانجام به صورت استاندارد به توده مردم ضربه زده است. وقتی این مجوز واقعاً مصرف کننده شد ، می توانیم با خیال راحت سال 2017 را آن نقطه عطف تاریخ بدانیم. قیمت پانل ها حتی برای مورب های بزرگ به زیر 500 دلار کاهش یافت و خود محتوا ، البته با تداخل مناسب ، نیازهای لازم را برآورده کرد.

این کنسول ها در اینجا پشتیبانی بی نظیری را ارائه می دهند. ورود PS4 Pro و Xbox One X به طور قابل توجهی سرعت صفحه نمایش 4K را تسریع کرده است. به تدریج (اما بدون چند رزرو) ، کتابخانه گسترده فیلم های هالیوود به 4K ترجمه می شود. در حال حاضر ، تقریباً تمام نمایش های اصلی Netflix را می توان با کیفیت مناسب Ultra HD مشاهده کرد.

تفاوت بین 4K و Full HD

اما آیا واقعاً وضوح 4K در تلویزیون لازم است؟ بر روی مانیتور ، که معمولاً چند ده سانتی متر از چشم فاصله دارد ، تصویر با کیفیت Full HD شروع به "خرد شدن" در پیکسل های 27 اینچی می کند. به همین دلیل ، Retina / 5K و حتی 1440p محبوبیت بیشتری پیدا می کنند.

در بین بینندگان ، سازگاری با سرعت کمتری انجام می شود ، زیرا از سه متر حداقل کمی تفاوت فقط از 43 اینچ قابل مشاهده است و در حالت ایده آل ، برای توجیه خرید تلویزیون 4K ، شما باید یک مورب بیش از 49 اینچ بگیرید. بدیهی است که چنین لوکس برای اکثر آپارتمانهای روسیه حتی اگر پول هم داشته باشد ضعیف است - گاهی اوقات جایی برای قرار دادن یک تلویزیون عظیم وجود ندارد.

نمای اغراق آمیز HDR

نویسنده مقاله قبل از خرید تلویزیون جدید با همین افکار خود را عذاب داده است. با این 4K یک FHD خوب بگیرید و خدا رحمتش کند؟ این ایده فقط در نگاه اول منطقی است ، زیرا HDR نیز به رزولوشن صفحه های مناسب متصل است. و این فناوری که ظاهراً چندان ترویج نشده است ، واقعاً مانند یک جهش واقعی در کیفیت تصویر احساس می شود ، حتی اگر به اندازه دلخواه ما برای این استانداردها محتوا نباشد.

هدف از این ماده این است که به راحتی و ساده به شما بگوید HDR چیست و چگونه از آن استفاده کنید. بیایید نگاهی دقیق تر به مراحل خرید و نصب تلویزیون 4K و HDR بر روی مواد DTF بیاندازیم.

HDR چیست و چرا مورد نیاز است

یک تفاوت آشکار

برای شروع ، اصطلاح HDR خود مانند شوخی یک بازاریاب ناشیانه به نظر می رسد. درست خارج از جعبه باعث ایجاد سردرگمی غیرضروری می شود. HDR موجود در تلویزیون ها هیچ ارتباطی با فناوری با نام مشابه در تلفن های هوشمند یا دوربین ها ندارد. اگر در مورد عکس صحبت کنیم ، HDR ترکیبی از چندین تصویر با نوردهی متفاوت است ، جایی که هدف دستیابی به یکنواخت ترین نسخه در سایه و نور است.

در مورد ویدئو اینطور نیست - در اینجا ما در مورد مقدار کل اطلاعات صحبت می کنیم. قبل از ظهور HDR ، استاندارد تصاویر ، از جمله Blu-ray ، 8 بیتی بود. این طیف رنگی مناسبی است ، اما پنل های مدرن ، به ویژه OLED ، قادرند سایه ها ، شیب ها و رنگ های بسیار بیشتری را از منابع 8 بیتی نمایش دهند.

یک استاندارد 10 بیتی جدید برای حل این مشکل طراحی شده است ، که به شما امکان می دهد اطلاعات بیشتری را در مورد روشنایی ، اشباع ، عمق و رنگ صحنه نمایش داده شده انتقال دهید. یک پروتکل جدید HDMI 2.0 برای آن ساخته شده است.

اما عجله نکنید که همه سیم ها را به همراه تلویزیون عوض کنید! کابلهای قدیمی هر چقدر بازاریاب شما بد باشند سازگار با HDMI 2.0a هستند. نکته اصلی این است که باید روی آنها "High Speed \u200b\u200bwith Ethernet" علامت گذاری شود. ما فقط به پهنای باند اهمیت می دهیم - اتصالات خود تغییر نکرده اند.

در زمان نوشتن این مقاله ، HDR در تلویزیون دقیقاً با 10 بیت تیز می شود ، اگرچه استاندارد فیلمبرداری دیجیتال 14 بیت RAW است (حتی برای فیلم حتی بالاتر) ، بنابراین حتی پانل های مدرن نیز از نمایش کامل اطلاعات کارگردانان و ویراستاران بسیاری دور هستند. تصاویر.

خوب ، اما در عمل چه کاری انجام می دهد؟

مثال HDR در مقابل SDR براساس Uncharted 4

خورشید در صحنه هایی که به طور قابل توجهی روشن تر می شود ، می درخشد ، این درک وجود دارد که در یک قاب می تواند چندین منبع نور با روشنایی و اشباع متفاوت وجود داشته باشد. مشكل پيكسلاسيون نيمه لحن ها در صحنه هاي تاريك از بين مي رود و شيب ها و مخلوط هاي رنگي پيچيده حجم مي گيرند. آسمان دیگر بیش از حد در معرض دید قرار نمی گیرد و با زمین در افق ادغام نمی شود. به طور خلاصه ، شما تصویر را بیشتر با چشم خود می بینید تا چشمی محدود دوربین.

در حال حاضر ، بیشترین بهره از فناوری ، بازی های ویدیویی است که در آن ، در نهایت ، انواع روشنایی در زمان واقعی کم و بیش به درستی نمایش داده می شود. در سینما ، چیز زیادی به کیفیت پردازش منبع برای HDR بستگی دارد و کارهای آشکار زیادی وجود دارد ، اما اکنون تصاویر استانداردی برای قالب مانند Guardians of the Galaxy 2 یا John Wick 2 وجود دارد.

تولیدکنندگان تلویزیون دشمن شما هستند

تاکنون HDR مانند هر فناوری پیشرفته غرب وحشی است. برچسب "HDR Ready" در همه تلویزیون های جدید نشان داده می شود ، چه آنها قادر به نمایش 10 بیتی به اندازه کافی باشند یا نه. تفاوت زیادی بین تلویزیون واقعی HDR و پنلی وجود دارد که محتوای HDR را به راحتی نمایش می دهد ، نمونه برداری آن به 8 بیتی و فقط با زورگویی رنگ و کنتراست انجام می شود.

گاهی اوقات فهمیدن تولیدکنندگان دشوار است. نگاهی بیندازید که آیا پنل به صورت 10 بیتی تبلیغ می شود یا خیر و مطابق با استاندارد باز HDR10 است. یک نشانه مطمئن از یک پانل HDR واقعی پشتیبانی از Wide Color Gamut است. بدون آن ، HDR معنای عملی را از دست می دهد.

بخش قابل توجهی از تلویزیون های LCD از پانل های فعال 8 بیتی استفاده می کنند که با استفاده از الگوریتم های خاص رنگ ها را "فکر می کنند". تصویر HDR در چنین پنل هایی کمی از OLED بدتر است اما هزینه آنها نیز به مراتب کمتر است.

بازگشت جنگهای "بیت"

در هر مرحله از تکامل تصویر ، لزوماً یک جنگ استاندارد به وجود می آید. اما اگر در مورد نبرد Blu-Ray و HD-DVD همه چیز برای دومین بار به شکست منجر شود ، از جمله برای مشتریانی که سخت افزار خریداری کرده اند ، نبرد HDR10 در برابر Dolby Vision HDR به احتمال زیاد با تساوی بدون خونریزی به پایان می رسد.

استاندارد HDR10 رنگ های کمتری را تولید می کند و فقط از 10 بیت پشتیبانی می کند ، اما کاملاً باز است. دالبی رنگ ها را بهتر حفظ می کند و تا 12 بیت گسترش می یابد ، اما پیگیری و پیاده سازی آن دشوارتر است. در هر صورت ، مسئله پشتیبانی از یک فناوری خاص با یک وصله نرم افزاری ساده حل می شود و همین بازی ها عملاً با HDR10 کار می کنند ، زیرا این او بود که هم توسط سونی و هم از طرف مایکروسافت برای کنسول های آنها انتخاب شد.

خود تلویزیون ها اغلب به شما اجازه می دهند همزمان از چندین استاندارد استفاده کنید ، بنابراین اکنون نباید خود را با این مسئله اذیت کنید.

به چه چیزی نگاه کنیم؟

اگر ما در مورد یک صفحه نمایش صحبت می کنیم ، البته بهتر است OLED و نمونه های مشابه آن را تهیه کنیم. شما از سیاه پوستان عمیق و پشتیبانی کامل از همه زیبایی های HDR برخوردار هستید. اگر کیف پول به شما اجازه نمی دهد حدود 80 هزار را در یک تلویزیون سطح بالا بیاندازید ، ناامید نشوید. مدل های LCD از سال 2017 بالاخره بر زخم های کودکان غلبه کرده اند و شما بلافاصله متوجه تفاوت HDR و SDR خواهید شد ، حتی اگر در درجه های سیاه و روشنایی از دست دهید. نویسنده این مقاله دارای یک صفحه LCD با پشتیبانی از HDR است و من می توانم به شما اطمینان دهم ، تفاوت در محتوا در رنگ های استاندارد از همان ثانیه های اولیه قابل مشاهده است.

اگر ما در مورد منبع صحبت می کنیم ، پس همه کنسول های بازی مدرن از این طریق HDR تولید می کنند (به جز Switch و Xbox One "چاق"). PS4 فقط HDR (بدون 4K) ارائه می دهد و Xbox One S / X به شما امکان می دهد هم دیسک های UHD را پخش کنید و هم 4K HDR بومی را مستقیماً در تلویزیون پخش کنید. از بین سرویس های آنلاین ، Netflix و Amazon قبلاً از این استاندارد پشتیبانی می کنند و Netflix هم شامل یک کتابخانه برای HDR10 و هم محتوای Dolby Vision است.

چه چیزی تماشا کنیم؟

تمام محتوای اصلی Netflix از سال 2016 به علاوه همه فیلم های 4K که استودیوها از طریق دیسک و دیجیتال منتشر می کنند. مجموعه ای از فیلم های کریستوفر نولان خیلی زود به فروش می رسد که مراحل دیجیتالی شدن آن توسط خود کارگردان کنترل می شد. همانند شوالیه تاریکی در Blu-Ray ، مطمئناً این استاندارد برای استادان UHD و HDR برای سالهای آینده تعیین خواهد شد.

چه چیزی بازی کنیم؟

تعداد قابل توجهی از بازی ها حتی در کنسول های "پایه" از HDR پشتیبانی می کنند. بازی هایی مانند Horizon Zero Dawn ، Uncharted 4 ، و Gran Turismo Sport به خصوص بسیار جالب هستند (با عرض پوزش برای جناس).

مورد دوم از ابتدا برای HDR ایجاد شده است ، بنابراین بر تمام مزایای طیف گسترده ای از روشنایی و رنگ تأکید دارد. به خصوص برای GT Sport ، Polyphony Digital دوربین های HDR را برای گرفتن یک عکس واقعی و سپس کالیبره کردن آن برای یک بازی توسعه داده است. و تعداد رنگ های نمایش داده شده توسط بازی هنوز هم از توانایی های گران ترین پنل ها نیز فراتر رفته است. آنچه معیار "رشد" نامیده می شود.

با این حال ، همه بازی ها برای HDR به همان اندازه سازگار نیستند ، بنابراین مرورها را در اینترنت بخوانید و بررسیهای Digital Foundry را تماشا کنید. با این حال ، هیچ نگرانی وجود ندارد ، زیرا توسعه دهندگان در درک هرچه بیشتر امکانات بهتر و بهتر ، و در نتیجه ، کیفیت محتوای کنسول فقط رشد می کنند.

در حال حاضر اوضاع در کامپیوتر خیلی روان نیست. بازی های زیادی با HDR وجود ندارد و خروجی تصویر خود با مشکلات ارائه رنگ در سطح سیستم (درایورهای کج ، چرخش های ویندوز و غیره) همراه است. تجربه نویسنده با بسته HDR / Windows 10 متناقض بود. علاوه بر این ، پخش کننده های محبوب تاکنون با HDR کار خوبی ندارند ، بنابراین باید منتظر بمانید. همانطور که سرعت سازگاری سه بعدی در رایانه شخصی نشان می دهد ، انتظار می رود در حدود شش ماه اجرای عاقلانه HDR در رایانه ها انجام شود. و کتابخانه عقب خواهد افتاد.

آیا همه چیز خیلی خوب است و چه معایبی دارد؟

معمولاً جدول کالیبراسیون در بازی ها ساده تر به نظر می رسند.

در مرحله فعلی معایب HDR نیز به اندازه کافی وجود دارد ، اما من چند مورد مهم را جدا می کنم.

  • تجهیزات شما به احتمال زیاد برای HDMI 2.0a و HDCP 2.2 آماده نیستند ، بنابراین مطمئناً با تلویزیون باید گیرنده را تغییر دهید. من با این (PS VR نسخه اول) و Vadim نیز با این مواجه شدم (گیرنده با HDMI 1.4).
  • اگر به نظر شما می رسد که HDR تصویر را خراب می کند یا رنگ ها را از بین می برد ، پس صفحه باید کالیبره شود. برخی از بازی ها ابزارهای کالیبراسیون مناسبی را ارائه می دهند (CoD WWII ، GT Sport) ، اما در بیشتر موارد ، تاکنون ، باید در این مسئله به غریزه خود اعتماد کنید. توصیه من: بازی را در بعضی شروع کنید بغرنجبا رنگها و یک صحنه روشن یا بالعکس ، یک سطح شب را در هنگام غروب انتخاب کنید. به شما این امکان را می دهد که به سرعت تلویزیون جالب خود را راه اندازی کنید و شما را از ناامیدی و ناامیدی اولیه نجات دهد.

زمان آن رسیده است

10 بیتی محدودیت ندارد ، اما پس از دو هفته با تلویزیون HDR ، بدون اشتیاق قبلی به بازی ها یا فیلم های عادی برمی گردید. این بسیار خوشایندتر است که امسال HDR دیگر از تعداد عجیب و غریب و کیسه های پول متوقف شده و سرانجام عمومی شد. این فناوری بهتر و قابل درک تر خواهد شد ، اما اگر شما منتظر بودید "همان لحظه" تلویزیون خود را تغییر دهید - در اینجا زمان مناسب است ، تا زمان سرانجام دیدن دنیای مجازی در همه رنگ ها.

یک پیغام بنویسید