Bohaté barvy, extrémní kontrast a vynikající detaily. Ti, kdo nahlédnou do televizní sekce obchodu se spotřební elektronikou, budou oslněni neporovnatelnou nádherou obrazu. Dokonce i modely střední třídy dnes poskytují mnohem lepší kvalitu obrazu než špičková zařízení HDTV vydaná před sedmi lety.

Při pohledu na nový plochý televizor má člověk často dojem, že za vynikající kvalitu obrazu odpovídá pouze rozlišení UHD nebo 4K. Má čtyřikrát více pixelů než předchozí technologie Full HD, což by mělo nakonec vést k ostřejšímu obrazu. Ve skutečnosti má rozlišení UHD menší dopad na kvalitu obrazu, než se předpokládá. To, co výrobci připisují velkému počtu pixelů, závisí na dalších parametrech: vysoký kontrast, přirozené barvy a hladké obrysy jsou často výsledkem technologií, jako je HDR, se zvýšenou barevnou hloubkou (10 bitů).

Grafické rozlišení ve srovnání
Obraz Ultra HD (UHD) obsahuje 4krát více pixelů než aktuální rozlišení Full HD (1080p)

Vysoké rozlišení: standard 4K

Termín 4K pochází z filmového průmyslu a je oficiálním standardem pro nahrávání a přehrávání ve filmových kamerách, projektorech a obrazovkách. Současně je rozlišení 4K 4096 × 2160 pixelů a funguje jako přímý nástupce předchozího standardu 2K (2048 × 1080 pixelů). 4K zahrnuje nejen rozlišení, ale také definuje kompresní poměr, bitovou rychlost a barevnou hloubku filmového materiálu.

Přestože je mnoho televizorů inzerováno jako podporující rozlišení 4K, jen málo z nich skutečně poskytuje rozlišení 4096 x 2160 v poměru stran 19:10. Pokud jde o spotřebitelská zařízení 4K, obvykle se jedná o televizory s rozlišením UHD, které je 3840 × 2160 pixelů. UHD je považováno za oficiální standard pro displeje a televizory a je také „nástupcem“ 1080p nebo Full HD (1920 x 1080 pixelů). Vzhledem k tomu, že rozdíl mezi 4K a UHD je při posuzování televizní obrazovky zanedbatelný, výrobci a média je často zaměňují.



Rozlišení UHD si uvědomuje své výhody na zařízeních s velkými úhlopříčkami nebo ve velmi malé vzdálenosti od televizní obrazovky.

Jak již bylo zmíněno, samotné rozlišení UHD je pouze částečně indikátorem kvality obrazu. Při dobrém vidění lze rozdíl mezi UHD a Full HD vnímat pouze na krátkou vzdálenost od televizní obrazovky. U 50palcového televizoru je tato vzdálenost asi 1,5 metru - příliš krátká pro většinu obývacích pokojů. Pohodlná pozorovací vzdálenost je obvykle 3-4 metry. Ve větší vzdálenosti by k dosažení efektu 4K bylo zapotřebí projektoru a plátna.

Efekt UHD však závisí na mnoha parametrech. Zraková ostrost a kvalita videa jsou klíčové faktory. 4K Blu-Ray nahrávky mají větší UHD efekt než relativně silně komprimovaná 4K streamovaná videa Netflixu. Při interpolaci materiálů s rozlišením 1080p také moderní UHD televizory do značné míry upravují jejich kvalitu: pravidelné Blu-Ray video na nich tedy často vypadá lépe než na Full HD zařízeních. Každý, kdo chce na své televizi UHD vidět vylepšený obraz i přes velkou vzdálenost od obrazovky, nemusí „zapínat představivost“. Za skutečné „potěšení“ v UHD TV není zodpovědné rozlišení, ale technologie HDR.

Více detailů díky zvýšenému kontrastu

Jednoduše řečeno, technologie vysokého dynamického rozsahu neboli HDR (High Dynamic Range) zvyšuje kontrast několikrát. Díky tomu budou obrázky vypadat realističtěji a podrobněji. Noční scény ve Full HD často vypadají jako černé obrazy a díky UHD + HDR je možné vidět i spoustu detailů. HDR tedy není jen okouzlující a zlepšuje zážitek z filmů a televizních pořadů, ale je také velmi úspěšně používán ve videohrách.


Oficiální logo
Logo Ultra HD Premium označuje zařízení a média obsahu, která podporují rozlišení UHD a technologii HDR10.

HDR však neznamená pouze samotné HDR: existují různé standardy (HDR10, Dolby Vision, Advanced HDR nebo HLG) s vlastními výhodami a nevýhodami. Všechna zařízení s logem Premium UHD, stejně jako herní konzole PS4 Neo a Xbox One S, podporují HDR10. HDR10 je primárně proti standardu Dolby Vision HDR. Dolby Vision na rozdíl od HDR10 vyžaduje vlastní hardwarový čip, jehož náklady spolu s licenčními poplatky představují důležitou nákladovou položku.

Současně má Dolby Vision barevnou hloubku 12 bitů a poskytuje tak nejlepší HDR efekt, stejně jako výrazně překonává HDR10 s barevnou hloubkou 10 bitů. Obecně lze říci, že HDR10 je standardem pro běžného spotřebitele, zatímco Dolby Vision je drahou lahůdkou pro bohaté nadšence domácího kina.

Při přehrávání nahrávek Dolby Vision na levných televizorech pouze s HDR10 není žádný problém, protože Dolby Vision nabízí také základní funkce HDR10. Vypadá to však, jako by se film 4K Blu-ray zobrazoval na televizi pouze s rozlišením Full HD.

Nyní je obtížné předpovědět, zda obě metody budou existovat paralelně, nebo přežije pouze jedna. Společnost Samsung však nedávno představila nástupnický standard HDR10 +, který by mohl v budoucnu představovat pro Dolby Vision velké výzvy. V HDR10 + se metadata popisující barvu a kontrast obrazu negenerují staticky, ale dynamicky pro každou jednotlivou scénu nebo snímek, jako v Dolby Vision.

Tento efekt téměř popírá výhodu kvality Dolby Vision. Kromě toho standard také optimalizuje dynamický rozsah konvenčního HDTV (bez U, „ultra“). Vybraná zařízení s logem Premium UHD 2015--2016 obdrží podporu HDR10 + prostřednictvím aktualizace firmwaru, včetně požadovaného standardu HDMI 2.0b. Jak dobrý bude HDR10 + nakonec, bude jasné brzy, když streamovací služba Amazon Video začne přehrávat videa pomocí HDR10 +.


Porovnání HDR a SDR
HDR dramaticky zvyšuje rozsah kontrastu. Na levé fotografii je rámeček s HDR (1), je mnohem výraznější a podrobnější než bledý snímek SDR ve srovnání s ním (2)

Je také nutné si povšimnout technologie HLG (Hybrid Log Gamma) - jakési HDR, vyvinuté za účasti britské společnosti BBC. Pozoruhodným problémem HDR zatím je, že metadata potřebná k jeho spuštění vyžadují místo na disku a dobrou šířku pásma. To se stává problémem v televizním vysílání s omezenými frekvencemi. Trik HLG: TV streamované video obsahuje všechny informace pro přehrávání HDR i SDR (Standard Dynamic Range). To je výhoda nejen pro televizní společnosti, ale také pro vysílající vysílací společnosti, jako je. Jelikož HLG je součástí standardu HDMI-2.0b, budou v budoucnu muset všechny televizory, které podporují HDR10 +, také HLG „zvládnout“.

4K Blu-Ray: multimediální soubory a přehrávače

Prémiovou třídou pro návštěvníky kina je v dnešní době UHD nebo 4K Blu-Ray. Tyto multimediální standardy jsou všudypřítomné již asi rok a v současné době je na platformě Amazon uvedena zhruba stovka souborů. Místo modrého plastového disku jsou edice 4K Blu-ray označeny tmavým obdélníkem s logem „4K Ultra HD“.

Cena nových produktů je asi 1 500 rublů. Mnoho 4K Blu-ray filmů je za malý poplatek k dispozici také v běžné Blu-ray kvalitě. Bohužel v rozlišení 4K jsou aktuálně k dispozici pouze filmy; seriály chybí. S disky označenými „Mastered in 4K“ je třeba postupovat opatrně, protože nabízejí Full HD obsah.

Mnoho významných výrobců nabízí přehrávače filmů Blu-ray 4K s HDR10 - od 18 000 RUB (Samsung UBD-K8500)

Verze HDR přehrávačů 4K Blu-ray v současnosti využívá výhradně technologii HDR10. Ačkoli Warner, Lionsgate a Universal ohlásili uvedení filmů Dolby Vision na CES 2017 v lednu, Power Rangers jsou od konce června jediným HDR filmem v tomto formátu. „Nerozhodný“ start je také způsoben skutečností, že v současné době neexistují prakticky žádné přehrávače Blu-ray s podporou Dolby Vision. Pouze Oppo přislíbilo podporu tohoto standardu pro svého prémiového hráče UDP-203 (viz vlevo) prostřednictvím aktualizace firmwaru, zatímco LG slíbilo aktualizaci LG UP970 pro přehrávání Dolby Vision. Kdokoli vsadí na tuto technologii, bude si muset počkat o něco déle.

K přehrávání disků 4K HDR10 jsou potřeba nové přehrávače Blu-ray, protože taková média vyžadují nový hardware a především podporu ochrany proti kopírování AACS 2.0. Výběr je stále malý, ale každý hlavní výrobce nabízí ve své řadě zařízení podobný model. Ceny vybavení se pohybují od 10 000 do 50 000 rublů. Všechna zařízení jsou zpětně kompatibilní s běžnými disky Blu-ray a lze je připojit k hlavním portálům pro streamování videa (např. Netflix, Amazon, YouTube).


49palcový Sony KD-49XD8005 dokáže přehrávat UHD a HDR10. V současné době je k dispozici za cenu kolem 65 000 rublů.

4K Blu-Ray na PC: složité předpoklady

Ti, kteří chtějí sledovat 4K Blu-ray obsah na svém počítači, čelí vážným problémům. CyberLink nedávno představil novou 4K verzi PowerDVD 17; pro přehrávání na PC však musí všechna zařízení, od mechaniky po displej, podporovat standard ochrany proti kopírování AACS 2.0. Zde je seznam základních věcí: Windows 10 64-bit, desktopový procesor Intel Kaby Lake a základní deska s ochranou dat Intel Software Guard Extension (SGX).


PowerDVD 17 hraje UHD Blu-Ray na PC. K tomu musí všechny součásti počítače podporovat nový standard ochrany proti kopírování AACS 2.0.

Potřebujete také grafický procesor schopný přehrávat média 4K a podporovat HDCP 2.2. Integrovaná grafika Intel to již dělá, ale nVidia a AMD teprve začínají přizpůsobovat své grafické karty a ovladače. Displej také vyžaduje podporu HDCP 2.2: například přes HDMI 2.0. Jednotky Blu-ray schopné přehrávat BDXL a podporující AACS 2.0 jsou v současné době k dispozici pouze v Japonsku. V Evropě by se však měly objevit v létě. Docela značné náklady - a to pouze proto, aby se zabránilo pirátství.


Vyžaduje certifikované disky pro přehrávání, jako je například Pioneer BDR-S11J-BK

Displeje s podporou HDR10 jsou stále na prodej vzácné: například společnost LG v blízké budoucnosti představí v Evropě 32palcový model (přibližně 70 000 rublů) a společnost Dell oznámila vydání modelu UP2718Q (přibližně 130 000 rublů), který bude podporovat HDR , pro Severní Ameriku. Pokud mluvíme o běžných modelech 4K, pak je zde výběr poměrně velký a ceny začínají od 23 000 rublů (Samsung LU28E590DS).

Video z Netflix a Amazon: 4K filmy až k vám domů

Platformy pro streamování videa Amazon Video a Netflix mají velké množství filmů a televizních pořadů v rozlišení 4K a částečně HDR. Netflix také používá Dolby Vision vedle HDR10. Přehrávání 4K a HDR vyžaduje nejdražší předplatné a šířku pásma nejméně 25 Mbps; „Čisté“ streamování 4K videa je možné již při 15 Mbps.


Netflix nabízí některé filmy v HDR10 nebo dokonce Dolby Vision, ale pouze v případě, že televizor tyto standardy podporuje.

Pro sledování v Dolby Vision je nezbytnou podmínkou vhodná UHD TV, kterou v současné době nabízí pouze LG za poměrně vysokou cenu. Za hráče lze také považovat (asi 5 000 rublů), (asi 20 000 rublů) nebo (asi 25 000 rublů). Amazon také u některých multimediálních obsahů podporuje HDR10 a Dolby Vision. Systémové požadavky jsou podobné jako Netflix, veškerý obsah však získáte zakoupením standardního balíčku služeb Amazon Prime.


Fire TV Box přehrává 4K video rychlostí 30 snímků za sekundu. Podpora HDR bude k dispozici pouze u budoucích modelů.

Každý, kdo chce používat zařízení Amazon Fire TV Box jako přehrávač, by měl věnovat pozornost: moderní Fire TV (asi 3000 rublů) podporuje streamování 4K videa rychlostí až 30 snímků za sekundu, ale nepodporuje HDR.

Obsah Amazonu však musí být možné přehrát na příslušném zařízení. Vzhledem k tomu, že Amazon brzy zahájí přehrávání HDR10 +, má smysl jej používat, pokud bude aktualizován.

Jaká je situace s příjmem 4K HDR v Rusku?

Největší online kino MEGOGO již umožňuje ruským uživatelům sledovat dabovaná videa ve formátu 4K HDR. Majitelé chytrých televizorů UHD si mohou aplikaci nainstalovat (pokud již není ve výchozím nastavení nainstalována, například televizory LG), zakoupit si placené předplatné a užít si mistrovská díla filmů ve vysokém rozlišení s rozšířeným rozsahem jasu. V době psaní tohoto článku se služba skládala z 28 domácích i zahraničních filmů ve formátu 4K HDR.


Insight 4K nabízí hlavně televizní vysílání v reálném čase a jednu ze čtyř stanic UHD přijímaných prostřednictvím satelitu Astra

U rozhlasových stanic a soukromých televizních center je formát 4K nebo UHD otázkou vzdálené budoucnosti - dokonce ani hlavní provozovatelé vysílání nebudou v Ultra HD vysílat tak brzy. V současné době kromě specializovaných kanálů existují pouze čtyři programy vysílané provozovatelem Tricolor TV: sportovní a zábavní kanál Russian Extreme Ultra, filmový kanál KINO UHD, kanál reality show INSIGHT UHD a módní kanál Fashion One 4K.

Všechny jsou přijímány v placeném balíčku Ultra HD. Pro příjem obsahu 4K je nutný satelitní přijímač CI +, který podporuje dekódování vysílání Ultra HD 4K, stejně jako kompresi HEVC (H.265), standardy HDMI 2.0 a HDCP 2.2, které jsou již integrovány do mnoha moderních chytrých televizorů.


U balíčků ve formátu UHD od Sky potřebujete přijímač Sky + Pro, ale poskytovatel televize zatím nepodporuje technologii HDR.

4K TV: UHD + HDR10 za dostupnou cenu

Vzhledem k tomu, že výhody UHD se většinou nacházejí na velkých obrazovkách, ideální projektor pro přehrávání by byl dodávaný projektor, ale ceny jsou až do nebe. Acer V9800, který ukázal nejlepší výsledky v naší laboratoři, stojí 427 000 rublů. UHD v televizi na druhou stranu není tak drahé: dobré modely UHD s úhlopříčkou až 55 palců a podporou HDR10 stojí od 50 000 rublů. U televizorů podporujících Dolby Vision je situace jiná: jedná se o velmi drahé OLED modely od LG. Nejlevnější model - - stojí 115 000 rublů.


Projektor 4K stojí téměř jmění. „Levný“ Acer V9800 (přibližně 427 000 rublů) poskytuje vynikající kvalitu obrazu.

Nejlepší UHD HDR televizory

V níže uvedených tabulkách jsou uvedeny nejlepší televizory UHD do 55 ", 55" a vyšších a modely s technologií HDR10 až do výše 100 000 RUB a 100 000 RUB. V kategorii „Nejlepší volba“ doporučujeme podívat se na - nejlepší volbu s HDR10. Všechny ostatní modely stojí přibližně 80 000 rublů nebo výrazně více. Dolby Vision je podporován pouze v nových modelech OLED od LG: například.

Nejlepší 5 4K televizory až do 55 palců


1.

Kvalita obrazu (50%)

: 98


Vybavení (25%)

: 100


Ergonomie (15%)

: 94.8


Kvalita zvuku (5%)

: 100


Energetická účinnost (5%)

: 58.9


Celkové hodnocení: 96.2

Hodnota za peníze: 45

2.

Kvalita obrazu (50%)

: 98.2


Vybavení (25%)

: 93.7


Ergonomie (15%)

: 100


Kvalita zvuku (5%)

: 94


Energetická účinnost (5%)

: 65.4


Celkové hodnocení: 95,5

Hodnota za peníze: 53

3.

Kvalita obrazu (50%)

: 96.3


Vybavení (25%)

: 97.1


Ergonomie (15%)

: 100


Kvalita zvuku (5%)

: 92.9


Energetická účinnost (5%)

: 60.1


Celkové hodnocení: 95,1

Hodnota za peníze: 46

4.

Kvalita obrazu (50%)

: 100


Vybavení (25%)

: 92.2


Ergonomie (15%)

: 97.4


Kvalita zvuku (5%)

: 97.2


Energetická účinnost (5%)

: 51.1


Celkové hodnocení: 95,1

Hodnota za peníze: 51

5.

Kvalita obrazu (50%)

: 97.6


Vybavení (25%)

: 93.7


Ergonomie (15%)

: 100


Kvalita zvuku (5%)

: 78.3


Energetická účinnost (5%)

: 72.9


Celkové hodnocení: 94,8

Hodnota za peníze: 62

Nejlepší 5 4K televizory od 56 palců


ParametrHodnota
Kódové označení čipuGP104
Produkční technologie16 nm FinFET
Počet tranzistorů7,2 miliardy
Základní oblast314 mm²
Architektura
Podpora hardwaru DirectX
Paměťová sběrnice
1607 (1733) MHz
Výpočetní jednotky20 streamovacích multiprocesorů, včetně 2560 skalárních ALU pro výpočty s plovoucí desetinnou čárkou v rámci standardu IEEE 754-2008;
Texturovací bloky160 jednotek adresování a filtrování textur s podporou komponent FP16 a FP32 v texturách a podporou trilineárního a anizotropního filtrování pro všechny formáty textur
Monitorujte podporu
Specifikace referenční grafické karty GeForce GTX 1080
ParametrHodnota
Frekvence jádra1607 (1733) MHz
2560
Počet jednotek textury160
Počet míchacích bloků64
Efektivní frekvence paměti10 000 (4 × 2 500) MHz
Typ pamětiGDDR5X
Paměťová sběrnice256 bitů
Velikost paměti8 GB
320 GB / s
asi 9 teraflopů
103 gigapixelů / s
257 gigatexelů / s
PneumatikaPCI Express 3.0
Konektory
spotřeba energieaž 180 W.
Další jídloJeden 8kolíkový konektor
2
Doporučená cena599-699 $ (USA), 54990 rublů (Rusko)

Nový model grafické karty GeForce GTX 1080 dostal logické jméno pro první řešení nové řady GeForce - od svého přímého předchůdce se liší pouze změnou číslice generace. Novinka nejen nahrazuje špičková řešení v současné linii společnosti, ale na nějakou dobu se stala vlajkovou lodí nové řady, dokud nebyl Titan X vydán na GPU s ještě větším výkonem. Pod ní v hierarchii je již ohlášený model GeForce GTX 1070, založený na ořezané verzi čipu GP104, o kterém budeme uvažovat později.

Nové GPU Nvidia mají MSRP 599 $ a 699 $ pro běžnou edici a Founders Edition (viz níže), což je docela dobrá dohoda vzhledem k tomu, že GTX 1080 překonává nejen GTX 980 Ti, ale také Titan X. Dnes je nový produkt bez jakýchkoli otázek nejlepším výkonovým řešením na trhu s jednočipovými grafickými kartami a zároveň stojí méně než nejproduktivnější grafické karty předchozí generace. GeForce GTX 1080 zatím nemá v podstatě žádného konkurenta od AMD, takže Nvidia dokázala stanovit cenu, která jim vyhovuje.

Daná grafická karta je založena na čipu GP104 s 256bitovou paměťovou sběrnicí, ale nový typ paměti GDDR5X pracuje na velmi vysoké efektivní frekvenci 10 GHz, což poskytuje vysokou špičkovou šířku pásma 320 GB / s - což je téměř na úrovni GTX 980 Ti s 384 -bitový autobus. Množství paměti nainstalované na grafické kartě s takovou sběrnicí by se mohlo rovnat 4 nebo 8 GB, ale bylo by hloupé nastavit menší objem tak výkonného řešení v moderních podmínkách, takže GTX 1080 celkem logicky dostalo 8 GB paměti a toto množství je dostatečné pro spuštění jakéhokoli 3D aplikace s jakýmkoli nastavením kvality na několik příštích let.

PCB GeForce GTX 1080 se ze zřejmých důvodů slušně liší od předchozích PCB společnosti. Typická hodnota spotřeby energie pro nový produkt je 180 W, což je o něco více než u GTX 980, ale znatelně nižší než u méně výkonných Titan X a GTX 980 Ti. Referenční deska má obvyklou sadu konektorů pro připojení výstupních obrazových zařízení: jeden Dual-Link DVI, jeden HDMI a tři DisplayPort.

Referenční design edice Founders Edition

I s oznámením GeForce GTX 1080 na začátku května byla oznámena speciální edice grafické karty s názvem Founders Edition, která má vyšší cenu ve srovnání s obvyklými grafickými kartami partnerů společnosti. Ve skutečnosti je toto vydání referenčním designem pro kartu a chladicí systém a vyrábí ho samotná Nvidia. S takovými možnostmi pro grafické karty můžete souviset odlišně, ale referenční design vyvinutý inženýry společnosti a design vyrobený pomocí vysoce kvalitních komponent má své fanoušky.

Ale zda za grafickou kartu od samotné Nvidie dají o několik tisíc rublů více, je otázka, na kterou může odpovědět pouze praxe. V každém případě se nejprve začnou referenční grafické karty od Nvidia prodávat za zvýšenou cenu a není z čeho vybírat - to se děje s každým oznámením, ale referenční GeForce GTX 1080 se liší tím, že se plánuje prodávat v této podobě po celou dobu život, až po řešení příští generace.

Nvidia věří, že toto vydání má své zásluhy i na těch nejlepších dílech partnerů. Například design duálního slotu chladiče usnadňuje sestavení na základě této výkonné grafické karty jak herních počítačů s relativně malým tvarem, tak i vícečipových video systémů (i když společnost nedoporučuje provoz v režimu tří a čtyř čipů). Vydání GeForce GTX 1080 Founders Edition má některé výhody účinného parního chladiče a ventilátoru, který vyfukuje horký vzduch z pouzdra - toto je první takové řešení Nvidia, které spotřebuje méně než 250 W.

Ve srovnání s předchozími návrhy referenčních produktů společnosti byl napájecí obvod upgradován ze čtyřfázového na pětfázový. Nvidia také hovoří o vylepšených součástech, na nichž je nový produkt založen, a také o sníženém elektrickém šumu, což umožňuje lepší stabilitu napětí a potenciál přetaktování. Výsledkem všech vylepšení je referenční deska o 6% energeticky účinnější než GeForce GTX 980.

A aby se odlišil od „běžných“ modelů GeForce GTX 1080 a externě, byl pro Founders Edition vyvinut neobvyklý „nasekaný“ design pouzdra. Což však pravděpodobně také vedlo ke komplikacím tvaru odpařovací komory a radiátoru (viz foto), což mohlo sloužit jako jeden z důvodů příplatku 100 $ za takové speciální vydání. Opakujeme, že na začátku prodeje kupující nebudou mít moc na výběr, ale v budoucnu si budou moci vybrat jak řešení s vlastním designem od jednoho z partnerů společnosti, tak i samotnou Nvidia.

Nová generace grafické architektury Pascal

GeForce GTX 1080 je první řešení společnosti založené na čipu GP104, který je součástí nové generace grafické architektury Pascal společnosti Nvidia. Ačkoli nová architektura je založena na řešeních zpracovaných v Maxwellu, má také důležité funkční rozdíly, o kterých si napíšeme později. Hlavní změnou z globálního hlediska byl nový technologický proces, podle kterého byl vyroben nový grafický procesor.

Použití 16nm procesní technologie FinFET při výrobě grafických procesorů GP104 v továrnách tchajwanské společnosti TSMC umožnilo výrazně zvýšit složitost čipu při zachování relativně nízké plochy a nákladů. Porovnejte počet tranzistorů a plochu čipů GP104 a GM204 - jsou blízké oblasti (čip novinky je fyzicky dokonce o něco menší), ale čip architektury Pascal má znatelně větší počet tranzistorů, a tedy i výkonné jednotky, včetně těch, které poskytují nové funkce.

Z architektonického hlediska je první hra Pascal velmi podobná podobným řešením Maxwellovy architektury, i když existují určité rozdíly. Stejně jako Maxwell budou mít procesory Pascal různé konfigurace klastrů grafického zpracování (GPC), streamovacích multiprocesorů (SM) a řadičů paměti. SM multiprocesor je vysoce paralelní multiprocesor, který plánuje a spouští warpy (warpy, skupiny 32 instrukčních vláken) na jádrech CUDA a dalších popravních jednotkách v multiprocesoru. Podrobné informace o designu všech těchto bloků najdete v našich recenzích předchozích řešení od Nvidia.

Každý z multiprocesorů SM je spárován s PolyMorph Engine, který zpracovává vzorkování textur, mozaikování, transformaci, nastavení atributů vrcholů a korekci perspektivy. Na rozdíl od předchozích řešení od společnosti obsahuje PolyMorph Engine v čipu GP104 také novou jednotku Simultánní multi-projekce, o které budeme diskutovat níže. Kombinace multiprocesoru SM s jedním Polymorph Engine se tradičně nazývá TPC - Texture Processor Cluster pro Nvidia.

Celkově obsahuje čip GP104 v GeForce GTX 1080 čtyři GPC clustery a 20 SM multiprocesory, stejně jako osm řadičů paměti v kombinaci se 64 jednotkami ROP. Každý GPC má vyhrazený rasterizační modul a obsahuje pět SM multiprocesorů. Každý multiprocesor se zase skládá ze 128 jader CUDA, 256 kB souboru registru, 96 kB sdílené paměti, 48 kB mezipaměti L1 a osmi texturovacích jednotek TMU. Celkově tedy GP104 obsahuje 2560 CUDA jader a 160 TMU.

Také grafický procesor, na kterém je GeForce GTX 1080 založen, obsahuje osm 32bitových řadičů paměti (na rozdíl od dříve použitých 64bitů), což nám dává celkem 256bitovou paměťovou sběrnici. Osm ROP a 256 KB mezipaměti L2 je vázáno na každý řadič paměti. To znamená, že čip GP104 obsahuje celkem 64 ROP a 2048 kB mezipaměti L2.

Díky architektonickým optimalizacím a nové procesní technologii se první herní Pascal stal energeticky nejúčinnějším GPU vůbec. Navíc k tomu přispívá jednak jeden z nejpokročilejších technologických procesů 16 nm FinFET, jednak optimalizace architektury v Pascalu ve srovnání s Maxwellem. Nvidia dokázala při přechodu na novou procesní technologii zvýšit taktovací frekvenci ještě více, než očekávali. GP104 běží na vyšší frekvenci, než by fungoval hypotetický GM204, vyrobený pomocí 16nm procesní technologie. K tomu museli inženýři Nvidia pečlivě zkontrolovat a optimalizovat všechna úzká místa předchozích řešení, která neumožňovala přetaktování nad určitou hranici. Výsledkem je, že nová GeForce GTX 1080 běží o více než 40% rychleji než GeForce GTX 980. Ale to není všechno, co se změní hodiny GPU.

Technologie GPU Boost 3.0

Jak dobře víme z předchozích grafických karet Nvidia, používají ve svých GPU hardwarovou technologii GPU Boost, navrženou ke zvýšení rychlosti taktu GPU v režimech, kdy ještě nedosáhla limitů pro spotřebu energie a odvod tepla. V průběhu let prošel tento algoritmus mnoha změnami a třetí generace této technologie se používá ve video čipu architektury Pascal - GPU Boost 3.0, jehož hlavní inovací je jemnější nastavení turbo frekvencí v závislosti na napětí.

Pokud si vzpomenete na princip fungování předchozích verzí technologie, pak byl opraven rozdíl mezi základní frekvencí (zaručená minimální hodnota frekvence, pod kterou GPU neklesne, alespoň ve hrách) a turbo frekvencí. To znamená, že turbo frekvence byla vždy o určitý počet megahertzů vyšší než základní frekvence. GPU Boost 3.0 zavádí možnost nastavit turbofrekvenční posunutí pro každé napětí zvlášť. Nejjednodušší způsob, jak to pochopit, je z obrázku:

Vlevo je GPU Boost druhé verze, vpravo - třetí, která se objevila v Pascalu. Pevný rozdíl mezi základní a turbofrekvencí neumožňoval plně odhalit schopnosti GPU, v některých případech mohly předchozí generace GPU pracovat rychleji při nastaveném napětí, ale pevný přebytek turbofrekvence to nedovolil. V GPU Boost 3.0 se taková příležitost objevila a turbo frekvenci lze nastavit pro každou z jednotlivých hodnot napětí, čímž zcela vymačká veškerou šťávu z GPU.

K ovládání přetaktování a nastavení křivky turbo frekvence jsou zapotřebí užitečné nástroje. Samotná Nvidia to nedělá, ale pomáhá svým partnerům vytvářet takové nástroje pro usnadnění přetaktování (samozřejmě v rozumných mezích). Například nová funkce GPU Boost 3.0 již byla odhalena v programu EVGA Precision XOC, který zahrnuje vyhrazený skener pro přetaktování, který automaticky detekuje a nastavuje nelineární rozdíl mezi základní frekvencí a turbofrekvencí pro různá napětí spuštěním palubního testu výkonu a stability. Výsledkem je, že uživatel má křivku turbo frekvence, která ideálně odpovídá schopnostem konkrétního čipu. Který lze navíc libovolně upravovat ručně.

Jak vidíte na screenshotu obslužného programu, kromě informací o GPU a systému existují také nastavení pro přetaktování: Power Target (určuje typickou spotřebu energie během přetaktování, jako procento standardu), GPU Temp Target (maximální povolená teplota jádra), Offset hodin GPU (překročení základní frekvence pro všechny hodnoty napětí), Offset paměti (překročení frekvence grafické paměti nad výchozí hodnotu), Přepětí (další možnost ke zvýšení napětí).

Precision XOC Utility obsahuje tři režimy přetaktování: Basic Basic, Linear Linear a Manual Manual. V hlavním režimu můžete nastavit jednu nadfrekvenční hodnotu (pevnou turbo frekvenci) nad základní, jako tomu bylo u předchozích GPU. Lineární režim umožňuje nastavit frekvenci na rampu z minimálních na maximální hodnoty napětí pro GPU. V ručním režimu můžete nastavit jedinečné hodnoty frekvence GPU pro každý napěťový bod v grafu.

Nástroj také obsahuje speciální skener pro automatické přetaktování. Můžete buď nastavit vlastní frekvenční úrovně, nebo nechat Precision XOC skenovat GPU při všech napětích a najít nejstabilnější frekvence pro každý bod na křivce napětí a frekvence zcela automaticky. Během procesu skenování Precision XOC postupně přidává frekvenci GPU a kontroluje její výkon na stabilitu nebo artefakty, čímž vytváří ideální křivku frekvence a napětí, která bude pro každý čip jedinečná.

Tento skener lze upravit tak, aby vyhovoval vašim vlastním požadavkům, nastavením časového intervalu pro testování každé hodnoty napětí, minimální a maximální frekvence, která má být testována, a jejího kroku. Je zřejmé, že k dosažení stabilních výsledků by bylo lepší stanovit malý krok a slušnou dobu testování. Během testování může být pozorován nestabilní provoz ovladače videa a systému, ale pokud skener nezmrzne, obnoví provoz a bude i nadále hledat optimální frekvence.

Nový typ grafické paměti GDDR5X a vylepšená komprese

Výkon GPU se tedy výrazně zvýšil a paměťová sběrnice zůstává pouze 256bitová - omezí šířka pásma paměti celkový výkon a co s tím lze dělat? Zdá se, že slibná paměť HBM druhé generace je stále příliš drahá na výrobu, takže bylo nutné hledat jiné možnosti. Už od zavedení paměti GDDR5 v roce 2009 inženýři Nvidia zkoumají možnosti využití nových typů pamětí. Výsledkem je vývoj implementace nového paměťového standardu GDDR5X - nejkomplexnějšího a nejpokročilejšího standardu v současnosti, s přenosovou rychlostí 10 Gbps.

Nvidia poskytuje zajímavý příklad toho, jak je to rychlé. Mezi přenášenými bity prochází pouze 100 pikosekund - během této doby se paprsek světla pohybuje ve vzdálenosti pouze jednoho palce (asi 2,5 cm). A při použití paměti GDDR5X musí obvody pro přenos a příjem dat zvolit hodnotu přenášeného bitu za méně než polovinu této doby, než se odešle další - to je jen proto, abyste pochopili, kam přišly moderní technologie.

K dosažení této rychlosti bylo nutné vyvinout novou architekturu datového I / O systému, což vyžadovalo několik let společného vývoje s výrobci paměťových čipů. Kromě zvýšené rychlosti přenosu dat se zvýšila také energetická účinnost - paměťové čipy GDDR5X používají nižší napětí 1,35 V a jsou vyráběny pomocí nových technologií, které poskytují stejnou spotřebu energie o 43% vyšší frekvenci.

Inženýři společnosti museli přepracovat linky přenosu dat mezi jádrem GPU a paměťovými čipy, věnovat větší pozornost prevenci ztráty a degradace signálu až z paměti na GPU a zpět. Například výše uvedená ilustrace ukazuje zachycený signál jako velké symetrické „oko“, což naznačuje dobrou optimalizaci celého obvodu a relativní snadnost zachycení dat ze signálu. Výše popsané změny navíc vedly nejen k možnosti použití GDDR5X na 10 GHz, ale měly by také pomoci získat velkou šířku pásma paměti u budoucích produktů využívajících známější paměť GDDR5.

Z používání nové paměti jsme získali více než 40% zisku šířky pásma paměti. Ale nestačí to? Aby se dále zlepšila účinnost šířky pásma paměti, Nvidia pokračovala ve zlepšování pokročilé komprese dat zavedené v předchozích architekturách. Paměťový subsystém v GeForce GTX 1080 využívá vylepšené a několik nových bezztrátových technik komprese dat určených ke snížení požadavků na šířku pásma paměti - čtvrtá generace komprese v čipu.

Kompresní algoritmy pro data v paměti přinášejí několik výhod najednou. Komprese snižuje množství dat zapsaných do paměti, totéž platí pro data přenášená z videopaměti do mezipaměti L2, což zvyšuje účinnost mezipaměti L2, protože komprimovaná dlaždice (blok několika pixelů framebufferu) má menší velikost než nezkomprimovaná. Rovněž snižuje množství dat odesílaných mezi různými body, jako je jednotka textury jednotky TMU a framebuffer.

Potrubí komprese dat v GPU používá několik algoritmů, které se určují v závislosti na „stlačitelnosti“ dat - je pro ně vybrán nejlepší dostupný algoritmus. Jedním z nejdůležitějších je algoritmus komprese delta barev. Tato metoda komprese kóduje data jako rozdíl mezi po sobě následujícími hodnotami namísto samotných dat. GPU vypočítá rozdíl v hodnotách barev mezi pixely v bloku (dlaždici) a uloží blok jako určitou průměrnou barvu pro celý blok plus data o rozdílu v hodnotách pro každý pixel. U grafických dat je tato metoda obvykle velmi vhodná, protože barva v malých dlaždicích pro všechny pixely se často příliš neliší.

GPU GP104 v GeForce GTX 1080 podporuje více kompresních algoritmů než předchozí čipy Maxwell. Algoritmus komprese 2: 1 se tak stal efektivnějším a navíc se objevily dva nové algoritmy: režim komprese 4: 1, vhodný pro případy, kdy je rozdíl v barevné hodnotě blokových pixelů velmi malý, a režim 8: 1, který kombinuje konstantní Kompresní poměr 4: 1 2 × 2 pixelových bloků s 2x delta kompresí mezi bloky. Pokud komprese není vůbec možná, nepoužije se.

Ve skutečnosti se to však stává velmi zřídka. To lze vidět na příkladech screenshotů ze hry Project CARS, které přinesla Nvidia pro ilustraci zvýšeného kompresního poměru v Pascalu. Na ilustracích jsou dlaždice framebufferu, které byl GPU schopen komprimovat, malovány fialově a ty neztrátové zůstaly s původní barvou (nahoře - Maxwell, dole - Pascal).

Jak vidíte, nové kompresní algoritmy v GP104 ve skutečnosti fungují mnohem lépe než v Maxwellu. Přestože stará architektura dokázala komprimovat většinu dlaždic na scéně, spousta trávy a stromů kolem okrajů, stejně jako částí strojů, nepodléhají starším kompresním algoritmům. Ale se zavedením nových technik v Pascalu zůstalo velmi málo oblastí obrazu nekomprimovaných - je zřejmá zlepšená účinnost.

V důsledku vylepšení komprese dat je GeForce GTX 1080 schopen výrazně snížit množství dat odeslaných na snímek. Pokud jde o čísla, vylepšená komprese ušetří dalších 20% efektivní šířky pásma paměti. Kromě více než 40% vyšší šířky pásma paměti v GeForce GTX 1080 oproti GTX 980 z používání paměti GDDR5X, to vše dohromady přináší přibližně 70% zvýšení efektivní šířky pásma paměti ve srovnání s modelem předchozí generace.

Asynchronní výpočetní podpora

Většina moderních her používá kromě grafických i složité výpočty. Například výpočty při výpočtu chování fyzických těl lze provádět ne před nebo po grafických výpočtech, ale současně s nimi, protože spolu nesouvisejí a v jednom rámci na sobě nezávisí. Dalším příkladem je následné zpracování již vykreslených rámců a zpracování zvukových dat, které lze také provádět paralelně s vykreslením.

Dalším ukázkovým příkladem použití této funkce je technika Asynchronous Time Warp používaná v systémech VR ke změně vykresleného snímku v souladu s pohybem hlavy hráče těsně před výstupem, čímž se přeruší další vykreslování. Takové asynchronní načítání výkonu GPU umožňuje zvýšit efektivitu používání jeho prováděcích jednotek.

Tyto úlohy vytvářejí dva nové případy použití GPU. První z nich zahrnuje překrývající se zátěže, protože mnoho typů úkolů plně nevyužívá možnosti GPU a některé zdroje jsou nečinné. V takových případech můžete jednoduše spustit na jednom GPU dva různé úkoly, které oddělují jeho prováděcí jednotky pro efektivnější využití - například efekty PhysX, které se provádějí ve spojení s 3D vykreslováním snímků.

Aby se zlepšil výkon tohoto scénáře, bylo do architektury Pascal zavedeno dynamické vyrovnávání zatížení. V předchozí architektuře Maxwell byly překrývající se pracovní zátěže implementovány ve formě statického přidělení zdrojů GPU grafice a výpočtu. Tento přístup je efektivní za předpokladu, že rovnováha mezi těmito dvěma pracovními zátěžemi zhruba odpovídá rozdělení zdrojů a úkoly jsou dokončeny současně. Pokud negrafické výpočty trvají déle než grafické a oba čekají na dokončení společné práce, bude část GPU po zbývající dobu nečinná, což způsobí pokles celkového výkonu a zruší všechny výhody. Hardwarové dynamické vyrovnávání zátěže umožňuje použít uvolněné prostředky GPU, jakmile budou k dispozici - zde je ilustrace pro pochopení.

Existují také úkoly, které jsou rozhodující pro čas spuštění, a toto je druhý scénář pro asynchronní výpočty. Například provedení asynchronního algoritmu časové deformace ve VR musí být dokončeno před skenováním (skenováním), jinak bude rámec zahozen. V takovém případě musí GPU podporovat velmi rychlé přerušení úkolu a přepnout na jiný, aby odstranil méně kritický úkol z provádění na GPU a uvolnil své zdroje pro kritické úkoly - tomu se říká preemption.

Jeden příkaz vykreslení z herního enginu může obsahovat stovky volání losování, každé volání losování zase obsahuje stovky zpracovaných trojúhelníků, z nichž každý obsahuje stovky pixelů, které se mají vypočítat a nakreslit. Tradiční přístup GPU používá pouze přerušení úloh na vysoké úrovni a grafický kanál musí čekat na dokončení všech těchto prací před přepnutím úlohy, což má za následek velmi vysoké latence.

Aby to napravila, architektura Pascal byla první, která zavedla možnost přerušit úkol na úrovni pixelů - Preemption Pixel Level. Výkonové jednotky GPU Pascal mohou průběžně sledovat průběh úloh vykreslování a když je požadováno přerušení, mohou zastavit provádění a uložit kontext pro pozdější dokončení rychlým přepnutím na jinou úlohu.

Přerušení a přepínání na úrovni vlákna pro výpočetní operace funguje podobně jako přerušení na úrovni pixelu pro grafické výpočty. Výpočetní úlohy se skládají z několika mřížek, z nichž každá obsahuje mnoho vláken. Když je přijat požadavek na přerušení, podprocesy běžící na víceprocesoru ukončí provádění. Ostatní bloky ukládají svůj vlastní stav, aby pokračovaly od stejného bodu později, a GPU se přepne na jinou úlohu. Celý proces přepínání úloh trvá méně než 100 mikrosekund po dokončení běžících vláken.

U herních úloh dává kombinace přerušení na úrovni pixelu pro grafiku a přerušení na úrovni vlákna pro výpočetní úlohy Pascal GPU schopnost rychle přepínat mezi úkoly s minimální ztrátou času. A pro výpočetní úlohy v CUDA je také možné přerušení s minimální zrnitostí - na úrovni instrukcí. V tomto režimu všechna vlákna okamžitě zastaví provádění a okamžitě přepnou na jinou úlohu. Tento přístup vyžaduje ukládání více informací o stavu všech registrů každého vlákna, ale v některých případech negrafických výpočtů je to zcela oprávněné.

Do architektury Pascal bylo přidáno použití rychlého přerušení a přepínání úkolů v grafických a výpočetních úlohách, takže grafické a negrafické úkoly lze přerušovat na úrovni jednotlivých instrukcí, spíše než celých vláken, jak tomu bylo v Maxwellu a Keplerovi. Tyto technologie mohou zlepšit asynchronní provádění různých úloh GPU a zlepšit odezvu při provádění více úkolů současně. Na akci Nvidia ukázala ukázku asynchronního výpočtu pomocí příkladu výpočtu fyzických efektů. Pokud bez asynchronního výpočtu byl výkon na úrovni 77-79 FPS, pak se zahrnutím těchto funkcí zvýšila snímková frekvence na 93-94 FPS.

Jako příklad jsme již uvedli jednu z možností využití této funkcionality ve hrách ve formě asynchronního zkreslení času ve VR. Obrázek ukazuje, jak tato technologie funguje s preempcí a rychlým přerušením. V prvním případě se proces asynchronního zkreslení času pokouší provést co nejpozději, ale před zahájením aktualizace obrazu na displeji. Práce algoritmu však musí být dána pro provedení v GPU o několik milisekund dříve, protože bez rychlého přerušení neexistuje způsob, jak přesně provést práci ve správný čas, a GPU je nějakou dobu nečinný.

V případě přesných přerušení na úrovni pixelu a proudu (na obrázku vpravo) to umožňuje větší přesnost při určování okamžiku přerušení a asynchronní časové zkreslení lze spustit mnohem později s důvěrou v dokončení práce před aktualizací informací na displeji. A grafický procesor, který byl v prvním případě po určitou dobu nečinný, lze načíst nějakou další grafickou prací.

Technologie simultánní multi-projekce

Nový GPU GP104 přidává podporu pro novou technologii SMP (Simultánní multi-projekce), která umožňuje GPU efektivněji vykreslovat data na moderních zobrazovacích systémech. SMP umožňuje video čipu současně vysílat data v několika projekcích, což vyžadovalo zavedení nové hardwarové jednotky v GPU do motoru PolyMorph na konci potrubí geometrie před jednotkou rasterizace. Tento blok je zodpovědný za práci s více projekcemi pro jeden tok geometrie.

Víceprojekční modul zpracovává geometrická data současně pro 16 předkonfigurovaných projekcí, které kombinují projekční bod (kameru), tyto projekce lze nezávisle otáčet nebo naklánět. Protože se každý primitiv geometrie může objevit současně ve více projekcích, poskytuje tuto funkci modul SMP, který umožňuje aplikaci instruovat GPU, aby replikovala geometrii až 32krát (16 projekcí ve dvou projekčních centrech) bez dalšího zpracování.

Celý proces zpracování je hardwarově akcelerován a protože multiprojekce funguje po geometrickém jádru, není nutné několikrát opakovat všechny fáze zpracování geometrie. Uložené prostředky jsou důležité, když je rychlost vykreslování omezena výkonem zpracování geometrie, jako je teselace, kde se pro každou projekci provádí několikrát stejná práce s geometrií. V souladu s tím může na svém vrcholu multi-projekce snížit potřebu zpracování geometrie až 32krát.

Ale proč je to všechno nutné? Existuje několik dobrých příkladů, kde může být užitečná technologie s více projekcemi. Například systém více monitorů se třemi displeji instalovanými v úhlu k sobě dostatečně blízko uživatele (prostorová konfigurace). V typické situaci je scéna vykreslena v jedné projekci, což vede k geometrickému zkreslení a nesprávnému vykreslení geometrie. Správná cesta je tři různé projekce pro každý z monitorů podle úhlu, pod kterým jsou umístěny.

Pomocí grafické karty na čipu s architekturou Pascal to lze provést v jednom průchodu geometrie se specifikací tří různých projekcí, každá pro svůj vlastní monitor. Uživatel tak bude moci měnit úhel, pod kterým jsou monitory umístěny navzájem nejen fyzicky, ale také virtuálně - otáčením výstupků pro boční monitory, aby získal správnou perspektivu ve 3D scéně se znatelně širším pozorovacím úhlem (FOV). Existuje však omezení - pro takovou podporu musí být aplikace schopna nakreslit scénu se širokým FOV a použít speciální volání SMP API k jejímu nastavení. To znamená, že to nemůžete udělat v každé hře, potřebujete speciální podporu.

Dny jedné projekce na jeden plochý monitor jsou každopádně pryč, nyní existuje mnoho konfigurací více monitorů a zakřivených displejů, které mohou tuto technologii také využívat. Nemluvě o systémech virtuální reality, které používají speciální čočky mezi obrazovkami a očima uživatele, což vyžaduje nové techniky pro promítání 3D obrazů do 2D obrazů. Mnoho z těchto technologií a technik je stále ve vývoji, hlavní věc je, že starší GPU nemohou efektivně využívat více než jednu rovinnou projekci. Vyžadují vícenásobné vykreslování, vícenásobné zpracování stejné geometrie atd.

Čipy architektury Maxwell měly omezenou podporu Multi-Resolution, aby pomohly zvýšit efektivitu, ale Pascalův SMP dokáže mnohem víc. Maxwell mohl otočit projekci o 90 stupňů pro mapování krychle nebo různá rozlišení pro projekci, ale to bylo užitečné pouze v omezeném počtu aplikací, jako je VXGI.

Další možnosti použití SMP jsou kreslení s různým rozlišením a jednoprůchodové stereofonní vykreslování. Například pro optimalizaci výkonu lze ve hrách použít vykreslování v různých rozlišeních (Multi-Res Shading). Při použití se ve středu rámečku použije vyšší rozlišení a na okraji se sníží, aby se dosáhlo vyšší rychlosti vykreslování.

Jednoprůchodové stereofonní vykreslování se používá ve VR a již bylo přidáno do VRWorks a využívá schopnost více projekcí ke snížení množství geometrické práce potřebné pro VR vykreslení. Při použití této funkce grafický procesor GeForce GTX 1080 zpracovává geometrii scény pouze jednou, přičemž generuje dvě projekce pro každé oko najednou, což snižuje poloviční geometrické zatížení GPU a také snižuje ztráty z ovladače a OS.

Ještě pokročilejší technikou pro zvýšení efektivity vykreslování VR je Lens Matched Shading, kde více projekcí simuluje geometrické zkreslení vyžadované pro vykreslování VR. Tato metoda používá víceprojekci k vykreslení 3D scény na povrch, který se při vykreslení pro výstup na náhlavní soupravu VR zhruba podobá korigovanému objektivu, což zabrání vykreslení mnoha dalších pixelů na periferii, které budou vyřazeny. Nejjednodušší způsob, jak pochopit podstatu metody, je ilustrace - před každým okem jsou použity čtyři mírně rozložené projekce (v Pascalu můžete použít 16 projekcí pro každé oko - pro přesnější imitaci zakřivené čočky) namísto jednoho:

Tento přístup může hodně ušetřit na výkonu. Typický obraz pro Oculus Rift je tedy 1,1 megapixelu na oko. Ale kvůli rozdílu v projekcích se k vykreslení používá původní 2,1 megapixelový obraz - o 86% více, než je nutné! Použití multi-projekce implementované v architektuře Pascal umožňuje snížit rozlišení vykresleného obrazu na 1,4 megapixelů, čímž se dosáhne jedenapůlnásobné úspory rychlosti zpracování pixelů a také se ušetří šířka pásma paměti.

A spolu s dvojnásobnou úsporou rychlosti zpracování geometrie díky jednoprůchodovému stereofonnímu vykreslování je grafický procesor grafické karty GeForce GTX 1080 schopen zajistit výrazné zvýšení výkonu vykreslování VR, což je velmi náročné na rychlost zpracování geometrie a ještě více na zpracování pixelů.

Vylepšení bloků výstupu a zpracování video dat

Kromě výkonu a nových funkcí souvisejících s 3D vykreslováním je také třeba na dobré úrovni udržovat obrazový výstup a možnosti dekódování a kódování videa. A první GPU architektury Pascal nezklamal - podporuje všechny moderní standardy v tomto smyslu, včetně hardwarového dekódování formátu HEVC požadovaného pro sledování 4K videí na PC. Budoucí majitelé grafických karet GeForce GTX 1080 si také brzy budou moci užít streamování 4K videa od Netflixu a dalších poskytovatelů na svých systémech.

Pokud jde o výstup na displej, GeForce GTX 1080 má podporu HDMI 2.0b s HDCP 2.2 a také DisplayPort. Dosud byl DP 1.2 certifikován, ale GPU je připraven na certifikaci pro novější verze standardu: DP 1.3 Ready a DP 1.4 Ready. Ta druhá umožňuje zobrazit obrázky na obrazovkách 4K při 120 Hz a na 5K a 8K displejích při 60 Hz pomocí dvojice kabelů DisplayPort 1.3. Pokud bylo u GTX 980 maximální podporované rozlišení 5120 × 3200 při 60 Hz, pak u nového GTX 1080 vzrostlo na 7680 × 4320 při stejných 60 Hz. Referenční GeForce GTX 1080 má tři výstupy DisplayPort, jeden HDMI 2.0b a jeden digitální Dual-Link DVI.

Nový model grafické karty Nvidia také obdržel vylepšenou jednotku pro dekódování a kódování video dat. Například čip GP104 splňuje vysoké standardy PlayReady 3.0 (SL3000) pro streamování videa a zajišťuje, aby se vysoce kvalitní obsah od renomovaných poskytovatelů, jako je Netflix, přehrával s nejvyšší kvalitou a energetickou účinností. Podrobnosti o podpoře různých video formátů během kódování a dekódování jsou uvedeny v tabulce, nový produkt se jasně liší od předchozích řešení k lepšímu:

Ještě zajímavější novinkou však může být podpora takzvaných displejů s vysokým dynamickým rozsahem (HDR), které se na trhu brzy rozšíří. Televizory jsou v prodeji v roce 2016 (přičemž čtyři miliony televizorů HDR se plánují prodat za pouhý rok) a monitory příští rok. HDR je největší průlom v zobrazovací technologii za poslední roky a přináší dvojnásobné barevné tóny (75% viditelného spektra oproti 33% pro RGB), jasnější displeje (1000 nitů) s vyšším kontrastem (10 000: 1) a bohaté barvy.

Vznik schopnosti reprodukovat obsah s větším rozdílem jasu a bohatšími a sytějšími barvami přiblíží obraz na obrazovce realitě, černá se prohloubí a jasné světlo oslní, jako ve skutečném světě. V důsledku toho uživatelé uvidí více podrobností ve světlých a tmavých oblastech obrazu ve srovnání se standardními monitory a televizory.

Pro podporu HDR displejů má GeForce GTX 1080 vše, co potřebujete - schopnost výstupu 12bitových barev, podpora standardů BT.2020 a SMPTE 2084 a obrazový výstup v souladu se standardem HDMI 2.0b 10/12 bitů pro HDR v 4K- rozlišení, které Maxwell měl. Kromě toho Pascal přidává podporu pro dekódování formátu HEVC v rozlišení 4K při 60 Hz a 10 nebo 12bitové barvě, které se používá pro HDR video, stejně jako kódování stejného formátu se stejnými parametry, ale pouze v 10bitové pro nahrávání nebo streamování videa HDR. Novinka je také připravena na standardizaci DisplayPort 1.4 pro přenos dat HDR přes tento konektor.

Mimochodem, v budoucnu může být zapotřebí kódování videa HDR, aby se taková data přenesla z domácího počítače do herní konzole SHIELD, která dokáže přehrávat 10bitové HEVC. To znamená, že uživatel bude moci streamovat hru z počítače ve formátu HDR. Stop, kde mohu získat hry s takovou podporou? Nvidia neustále pracuje s vývojáři her na implementaci této podpory a poskytuje jim vše, co potřebují (podpora ovladačů, ukázky kódu atd.) Pro správné vykreslení HDR obrázků, kompatibilních se stávajícími displeji.

V době vydání grafické karty podporuje GeForce GTX 1080 hry jako Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle a Shadow Warrior 2. Očekává se však, že tento seznam bude přidán v blízké budoucnosti. ...

Změny ve vykreslování více čipů SLI

Došlo také k několika změnám týkajícím se proprietární technologie vykreslování SLI s více GPU, ačkoli to nikdo neočekával. SLI používají milovníci počítačových her ke zvýšení výkonu buď na extrémní hodnoty instalací nejvýkonnějších jednočipových grafických karet do tandemu, nebo k dosažení velmi vysokých snímkových frekvencí, což nás omezuje na několik řešení střední třídy, která někdy stojí méně než jeden špičkový produkt ( rozhodnutí je kontroverzní, ale dělají to). U 4K monitorů hráči nemají téměř jinou možnost než nainstalovat pár grafických karet, protože ani špičkové modely často za takových podmínek nemohou poskytnout pohodlnou hru při maximálním nastavení.

Jednou z důležitých součástí Nvidia SLI jsou mosty, které spojují grafické karty do společného video subsystému a slouží k organizaci digitálního kanálu pro přenos dat mezi nimi. Grafické karty GeForce byly tradičně vybaveny duálními SLI konektory, které sloužily k připojení mezi dvěma nebo čtyřmi grafickými kartami v konfiguracích 3-Way a 4-Way SLI. Každá z grafických karet musela být ke každé připojena, protože všechny GPU odesílaly snímky, které vykreslily, na hlavní GPU, takže na každé z karet byla zapotřebí dvě rozhraní.

Počínaje grafickou kartou GeForce GTX 1080 jsou u všech grafických karet založených na Nvidia Pascal dvě SLI spojeny dohromady, aby se zvýšil výkon přenosu dat mezi grafickými kartami, a tento nový dvoukanálový režim SLI zvyšuje výkon a pohodlí při zobrazování vizuálních informací na displejích s velmi vysokým rozlišením. nebo systémy s více monitory.

Pro tento režim byly také potřeba nové mosty, zvané SLI HB. Kombinují dvojici grafických karet GeForce GTX 1080 přes dva kanály SLI najednou, ačkoli nové grafické karty jsou také kompatibilní se starými mosty. Pro rozlišení 1920 × 1080 a 2560 × 1440 pixelů při obnovovací frekvenci 60 Hz můžete použít standardní můstky, ale v náročnějších režimech (4K, 5K a systémy pro více monitorů), pouze nové můstky poskytnou lepší výsledky, pokud jde o plynulost změn rámce, i když staré budou fungovat. ale trochu horší.

Také při použití mostů SLI HB běží datové rozhraní GeForce GTX 1080 na 650 MHz, ve srovnání s 400 MHz u konvenčních mostů SLI na starších GPU. U některých starých pevných mostů je navíc k dispozici vyšší frekvence přenosu dat s video čipy architektury Pascal. Se zvýšením rychlosti přenosu dat mezi GPU přes zdvojnásobené rozhraní SLI se zvýšenou provozní frekvencí je ve srovnání s předchozími řešeními zajištěno plynulejší zobrazení snímků na obrazovku:

Je třeba také poznamenat, že podpora pro vykreslování více GPU v DirectX 12 se poněkud liší od toho, co bylo obvyklé dříve. V nejnovější verzi grafického rozhraní API provedla společnost Microsoft mnoho změn souvisejících s provozem těchto video systémů. Pro vývojáře softwaru má DX12 dvě možnosti použití více GPU: režimy Multi Display Adapter (MDA) a Linked Display Adapter (LDA).

Režim LDA má navíc dvě formy: Implicitní LDA (který Nvidia používá pro SLI) a Explicitní LDA (když vývojář hry převezme úkoly správy vícečipového vykreslování. Režimy MDA a Explicitní LDA byly právě implementovány v DirectX 12, aby poskytovaly herní vývojáři mají větší svobodu a flexibilitu při používání vícečipových video systémů. Rozdíl mezi režimy je jasně viditelný v následující tabulce:

V režimu LDA může být paměť každého GPU propojena s pamětí jiného a zobrazena jako velký celkový objem, přirozeně, se všemi omezeními výkonu při načítání dat z „cizí“ paměti. V režimu MDA pracuje paměť každého GPU samostatně a různé GPU nemohou přímo přistupovat k datům z paměti jiného GPU. Režim LDA je navržen pro systémy s více čipy s podobným výkonem, zatímco režim MDA má méně omezení a diskrétní a integrované GPU nebo diskrétní řešení s čipy od různých výrobců mohou spolupracovat. Tento režim ale také vyžaduje více pozornosti a práce vývojářů při programování spolupráce, aby mohly GPU vzájemně komunikovat.

Ve výchozím nastavení systém SLI založený na kartách GeForce GTX 1080 podporuje pouze dva GPU a konfigurace tří a čtyř čipů se oficiálně nedoporučuje používat, protože je obtížnější zajistit zvýšení výkonu v moderních hrách po přidání třetího a čtvrtého GPU. Například mnoho her naráží na schopnosti centrálního procesoru systému při provozu vícečipových video systémů a nové hry stále častěji používají dočasné (dočasné) techniky, které využívají data z předchozích snímků, ve kterých je efektivní provoz několika GPU jednoduše nemožný.

Provoz systémů v jiných (ne SLI) vícečipových systémech však zůstává možný, jako jsou režimy MDA nebo LDA Explicit v DirectX 12 nebo dvoučipový systém SLI s vyhrazeným třetím GPU pro fyzikální efekty PhysX. Ale co záznamy v benchmarcích, opravdu je Nvidia vůbec odmítá? Ne, samozřejmě, ale protože takové systémy jsou ve světě poptávány téměř několika uživateli, byl pro takové ultra nadšence vynalezen speciální klíč nadšenců, který lze stáhnout z webu Nvidia a odblokovat tuto funkci. Chcete-li to provést, musíte nejprve získat jedinečné ID GPU spuštěním speciální aplikace, poté požádat o klíč nadšence na webu a po jeho stažení nainstalovat klíč do systému, čímž odemknete konfigurace 3-Way a 4-Way SLI.

Technologie rychlé synchronizace

Při zobrazování informací na displeji došlo v synchronizačních technologiích k některým změnám. Při pohledu do budoucna není v G-Sync nic nového, ani není podporována technologie Adaptive Sync. Ale Nvidia se rozhodla zlepšit plynulost výstupu a synchronizaci pro hry, které vykazují velmi vysoký výkon, když je obnovovací frekvence výrazně vyšší než obnovovací frekvence monitoru. To je zvláště důležité pro hry, které vyžadují minimální latenci a odezvu, a kde se odehrávají bitvy a soutěže pro více hráčů.

Fast Sync je nová alternativa vertikální synchronizace, která nemá vizuální artefakty trhání obrazu v obraze a není vázána na pevnou obnovovací frekvenci, což zvyšuje latenci. Jaký je problém s vertikální synchronizací ve hrách jako Counter-Strike: Global Offensive? Tato hra běží na výkonných moderních GPU rychlostí několika set snímků za sekundu a hráč má na výběr: povolit vertikální synchronizaci nebo ne.

V hrách pro více hráčů uživatelé nejčastěji sledují minimální latenci a deaktivují VSync, čímž v obrazu získávají jasně viditelné slzy, které jsou extrémně nepříjemné i při vysokých snímkových frekvencích. Pokud povolíte vertikální synchronizaci, hráč zaznamená výrazné zvýšení zpoždění mezi svými akcemi a obrazem na obrazovce, když grafický kanál zpomalí na obnovovací frekvenci monitoru.

Takto funguje tradiční dopravník. Nvidia se ale rozhodla oddělit proces vykreslování a zobrazení pomocí technologie Fast Sync. To umožňuje části GPU, která vykresluje snímky při plné rychlosti, pokračovat v práci co nejefektivněji a ukládat je do speciální dočasné vyrovnávací paměti posledního vykreslení.

Tato metoda umožňuje změnit metodu zobrazení a využít to nejlepší z režimů VSync On a VSync Off, s nízkou latencí, ale bez obrazových artefaktů. S funkcí Fast Sync není k dispozici řízení toku snímků, herní engine běží v režimu nesynchronizace a není mu řečeno, aby počkal, až se nakreslí další, takže zpoždění jsou téměř stejně malá jako v režimu VSync Off. Ale protože Fast Sync nezávisle vybere vyrovnávací paměť pro zobrazení a zobrazí celý snímek, nedochází ani k žádným zlomům obrazu.

Rychlá synchronizace používá tři různé vyrovnávací paměti, z nichž první dvě fungují podobně jako dvojité ukládání do vyrovnávací paměti v klasickém kanálu. Primární vyrovnávací paměť (Front Buffer - FB) je vyrovnávací paměť, ze které se zobrazují informace na displeji, plně vykreslený rámec. Back Buffer (BB) je vyrovnávací paměť, do které se během vykreslování přijímají informace.

Při použití vertikální synchronizace v prostředí s vysokou obnovovací frekvencí hra čeká, dokud není dosažen interval obnovy, aby bylo možné vyměnit primární vyrovnávací paměť za sekundární, aby se na obrazovce zobrazil celý snímek. To zpomaluje proces a přidání dalších vyrovnávacích pamětí, jako je tradiční trojité ukládání do vyrovnávací paměti, přidá pouze latenci.

Rychlá synchronizace přidává třetí Last Rendered Buffer (LRB), který slouží k uložení všech snímků právě vykreslených v zadní vyrovnávací paměti. Název vyrovnávací paměti mluví sám za sebe; obsahuje kopii posledního plně vykresleného rámečku. A když přijde čas na aktualizaci primární vyrovnávací paměti, tato vyrovnávací paměť LRB se zkopíruje do primární jako celek, a ne po částech, jako ze sekundární, když je vertikální synchronizace zakázána. Vzhledem k tomu, že kopírování informací z vyrovnávacích pamětí je neúčinné, jednoduše vymění místa (nebo přejmenují, jak to bude pohodlnější pochopit) a tento proces řídí nová logika pro změnu vyrovnávacích pamětí, která se objevila v GP104.

V praxi aktivace nové metody synchronizace Fast Sync stále poskytuje o něco vyšší zpoždění ve srovnání se zcela deaktivovanou vertikální synchronizací - v průměru o 8 ms více, ale zobrazuje celé snímky na monitoru bez nepříjemných artefaktů na obrazovce, které rozbíjejí obraz. Novou metodu lze povolit z grafického nastavení ovládacího panelu Nvidia v sekci ovládání vertikální synchronizace. Výchozí hodnota však zůstává ovládáním aplikace a jednoduše nemusíte povolit funkci Fast Sync ve všech 3D aplikacích, je lepší zvolit tuto metodu speciálně pro hry s vysokým FPS.

Technologie virtuální reality Nvidia VRWorks

V tomto článku jsme se více než jednou dotkli horkého tématu virtuální reality, ale šlo hlavně o zvýšení snímkové frekvence a zajištění nízké latence, což je pro VR velmi důležité. To vše je velmi důležité a skutečně existuje pokrok, ale VR hry zatím nevypadají tak působivě jako to nejlepší z „běžných“ moderních 3D her. K tomu nedochází jen proto, že se přední vývojáři her ještě konkrétně nezabývají aplikacemi VR, ale také kvůli větším nárokům VR na snímkovou frekvenci, která kvůli vysokým nárokům brání použití mnoha obvyklých technik v takových hrách.

Aby se snížil rozdíl v kvalitě mezi hrami VR a běžnými hrami, rozhodla se Nvidia vydat celý balíček technologií souvisejících s VRWorks, který zahrnoval velké množství API, knihoven, motorů a technologií, které mohou výrazně zlepšit jak kvalitu, tak výkon VR aplikace. Jak to souvisí s oznámením prvního herního řešení v Pascalu? Je to velmi jednoduché - byly do něj zavedeny některé technologie, které pomáhají zvyšovat produktivitu a zlepšovat kvalitu, a už jsme o nich psali.

A ačkoli se záležitost netýká pouze grafiky, nejprve si o ní něco povíme. Sada technologií VRWorks Graphics zahrnuje dříve zmíněné technologie, například Lens Matched Shading, které využívají funkci víceprojekcí, která se objevila v GeForce GTX 1080. Nový produkt vám umožňuje dosáhnout zvýšení výkonu 1,5-2krát ve srovnání s řešeními, která takovou podporu nemají. Zmínili jsme také další technologie, například MultiRes Shading, které jsou navrženy k vykreslení v různých rozlišeních ve středu rámečku a na jeho periferii.

Ale mnohem neočekávanější bylo oznámení technologie VRWorks Audio určené pro vysoce kvalitní zpracování zvukových dat ve 3D scénách, což je zvláště důležité v systémech virtuální reality. U konvenčních motorů se umístění zdrojů zvuku ve virtuálním prostředí počítá docela správně, pokud nepřítel střílí zprava, pak je zvuk z této strany audio systému slyšet hlasitěji a tento výpočet není příliš náročný na výpočetní výkon.

Ve skutečnosti však zvuky nepůsobí pouze na hráče, ale ve všech směrech a odrážejí se od různých materiálů stejně, jako se odrážejí světelné paprsky. A ve skutečnosti tyto odrazy slyšíme, i když ne tak jasně jako přímé zvukové vlny. Tyto nepřímé zvukové odrazy jsou obvykle simulovány speciálními reverbovými efekty, ale jedná se o velmi primitivní přístup k úkolu.

VRWorks Audio používá vykreslování zvukových vln podobným způsobem jako sledování paprsku při vykreslování, kde je cesta světelných paprsků sledována k několika odrazům od objektů ve virtuální scéně. VRWorks Audio také simuluje šíření zvukových vln v prostředí, kde jsou sledovány přímé a odražené vlny, v závislosti na úhlu dopadu a vlastnostech reflexních materiálů. Ve své práci používá VRWorks Audio vysoce výkonný engine pro sledování paprsků Nvidia OptiX, známý pro grafické úlohy. OptiX lze použít pro různé úkoly, jako je výpočet nepřímého osvětlení a příprava světelných map, a nyní pro sledování zvukových vln ve VRWorks Audio.

Nvidia zabudovala přesné výpočty zvukových vln do své ukázky VR Funhouse, která využívá několik tisíc paprsků a vypočítává až 12 odrazů od objektů. A abychom se na jasném příkladu naučili výhody této technologie, doporučujeme vám sledovat video o fungování této technologie v ruštině:

Je důležité, aby se přístup Nvidia lišil od tradičních zvukových modulů, včetně metody hardwarově akcelerované pomocí speciálního bloku v GPU od hlavního konkurenta. Všechny tyto metody poskytují pouze přesné umístění zdrojů zvuku, ale nepočítají odrazy zvukových vln od objektů ve 3D scéně, i když to mohou simulovat pomocí efektu reverb. A přesto může být použití technologie sledování paprsku mnohem realističtější, protože pouze tento přístup poskytne přesnou imitaci různých zvuků s přihlédnutím k velikosti, tvaru a materiálu objektů ve scéně. Je těžké říci, zda je taková přesnost výpočtů vyžadována pro typického hráče, ale můžeme říci s jistotou: ve VR může uživatelům dodávat stejný realismus, který v běžných hrách stále chybí.

Musíme vám jen říct o technologii VR SLI, která funguje v OpenGL i DirectX. Jeho princip je extrémně jednoduchý: dvouprocesorový videosystém v aplikaci VR bude fungovat tak, že každému oku bude přidělena samostatná GPU, na rozdíl od vykreslování AFR, což je u konfigurací SLI obvyklé. To významně zlepšuje celkový výkon tak důležitý pro systémy virtuální reality. Teoreticky lze použít více GPU, ale jejich počet by měl být sudý.

Tento přístup byl vyžadován, protože AFR není vhodný pro VR, protože s jeho pomocí první GPU vykreslí sudý snímek pro obě oči a druhý - lichý, který žádným způsobem nesnižuje latence, které jsou kritické pro systémy virtuální reality. Přestože snímková frekvence bude poměrně vysoká. Takže s VR SLI je práce na každém snímku rozdělena na dva GPU - jeden pracuje na části rámečku pro levé oko, druhý pro pravé a pak jsou tyto poloviny rámečku sloučeny do celku.

Toto rozdělení práce mezi dvojici GPU přináší téměř dvojnásobný nárůst výkonu, což umožňuje vyšší počet snímků za sekundu a nižší latenci než u jednotlivých systémů GPU. Používání VR SLI však vyžaduje speciální podporu aplikace, aby bylo možné použít tuto metodu škálování. Technologie VR SLI je však již zabudována do VR demo aplikací, jako jsou The Lab od Valve a Trials on Tatooine od ILMxLAB, a to je jen začátek - Nvidia slibuje bezprostřední vzhled dalších aplikací, stejně jako zavedení technologie do herních enginů Unreal Engine 4, Unity a MaxPlay.

Ansel Game Screenshot Platform

Jedním z nejzajímavějších softwarových oznámení bylo vydání technologie pro pořizování vysoce kvalitních snímků obrazovky v herních aplikacích, pojmenované po slavném fotografovi - Anselovi. Hry se už dávno staly nejen hrami, ale také místem, kde mohou nezbedné ruce použít různí kreativní lidé. Někdo mění skripty pro hry, někdo vydává vysoce kvalitní sady textur pro hry a někdo vytváří krásné snímky obrazovky.

Nvidia se rozhodla pomoci tomu druhému zavedením nové platformy pro vytváření (přesně vytváření, protože to není tak jednoduchý proces) vysoce kvalitních obrázků z her. Věří, že Ansel může pomoci vytvořit nový druh současného umění. Koneckonců, už existuje poměrně málo umělců, kteří tráví většinu svého života na PC vytvářením krásných screenshotů z her, a přesto k tomu nemají vhodný nástroj.

Ansel vám umožňuje nejen zachytit obrázek ve hře, ale také jej změnit tak, jak to tvůrce potřebuje. Díky této technologii můžete pohybovat kamerou po scéně, otáčet ji a naklánět v libovolném směru, abyste získali požadovanou kompozici rámečku. Například ve hrách, jako jsou střílečky z pohledu první osoby, můžete přesunout pouze hráče, nic jiného nelze změnit, takže všechny snímky obrazovky jsou docela jednotné. S bezplatnou kamerou v Ansel můžete jít daleko za herní kameru, zvolit úhel, který je potřebný pro úspěšný snímek, nebo dokonce zachytit úplný 360stupňový stereofonní obraz z požadovaného bodu a ve vysokém rozlišení pro pozdější prohlížení ve VR helmě.

Ansel funguje docela jednoduše - pomocí speciální knihovny od Nvidia je tato platforma vložena do herního kódu. K tomu musí jeho vývojář do svého projektu přidat jen malou část kódu, aby umožnil ovladači videa Nvidia zachytit data z vyrovnávacích pamětí a shaderů. Je tam velmi málo práce, implementace Ansela do hry trvá implementaci méně než jeden den. Zahrnutí této funkce do hry The Witness tedy trvalo asi 40 řádků kódu a ve hře The Witcher 3 - asi 150 řádků kódu.

Ansel se objeví s otevřeným vývojovým balíčkem - SDK. Hlavní věc je, že uživatel s ním získá standardní sadu nastavení, která mu umožní měnit polohu a úhel kamery, přidávat efekty atd. Platforma Ansel funguje takto: pozastaví hru, zapne volnou kameru a umožní vám změnit snímek na požadovaný pohled, nahrávat Výsledkem bude běžný snímek obrazovky, 360stupňový obrázek, stereofonní pár nebo jen panorama obrovského rozlišení.

Jedno upozornění: ne všechny hry získají podporu pro všechny funkce platformy Ansel pro screenshoty her. Někteří vývojáři her z nějakého důvodu nechtějí do svých her zahrnout zcela bezplatnou kameru - například kvůli možnosti využít tuto funkci podvodníky. Nebo chtějí ze stejného důvodu omezit změnu úhlu pohledu - aby nikdo nezískal nespravedlivou výhodu. No nebo tak, aby uživatelé neviděli ubohé skřítky na pozadí. To vše jsou zcela normální touhy tvůrců her.

Jednou z nejzajímavějších funkcí Ansela je vytváření screenshotů s obrovským rozlišením. Nezáleží na tom, že hra podporuje například rozlišení až 4K a monitor uživatele je Full HD. S pomocí platformy pro pořizování snímků obrazovky můžete zachytit mnohem kvalitnější obraz, omezený spíše objemem a výkonem jednotky. Platforma snadno pořídí snímky obrazovky až 4,5 gigapixelů, které jsou spojeny z 3600 kusů!

Je jasné, že na takových obrázcích můžete vidět všechny podrobnosti až po text v novinách ležící v dálce, pokud je tato úroveň podrobností v zásadě poskytována - Ansel může ovládat úroveň podrobností a nastavit maximální úroveň, aby získala nejlepší kvalitu obrazu. Můžete však také povolit převzorkování. To vše vám umožňuje vytvářet obrázky z her, které můžete bezpečně tisknout na velké bannery a být klidní ohledně jejich kvality.

Zajímavé je, že ke spojení velkých obrázků se používá speciální hardwarově akcelerovaný kód založený na CUDA. Koneckonců, žádná grafická karta nedokáže vykreslit vícegigapixelový obraz jako celek, ale dokáže to na kousky, které stačí později zkombinovat, s přihlédnutím k možnému rozdílu v osvětlení, barvě atd.

Po seřízení těchto panoramat se pro celý snímek použije speciální následné zpracování, které se také zrychlí na GPU. A pro pořizování snímků s vysokým dynamickým rozsahem můžete použít speciální formát obrazu - EXR, otevřený standard od společnosti Industrial Light and Magic, jehož barevné hodnoty v každém kanálu jsou zaznamenány v 16bitovém formátu s plovoucí desetinnou čárkou (FP16).

Tento formát umožňuje změnit jas a dynamický rozsah obrazu následným zpracováním a přenést jej na požadovaný pro každý konkrétní displej, stejně jako je tomu u formátů RAW z fotoaparátů. A pro následné použití filtrů pro následné zpracování v programech pro zpracování obrázků je tento formát velmi užitečný, protože obsahuje mnohem více dat než obvyklé formáty obrázků.

Samotná platforma Ansel ale obsahuje mnoho filtrů pro následné zpracování, což je obzvláště důležité, protože má přístup nejen ke konečnému obrazu, ale také ke všem vyrovnávacím pamětem, které hra používá k vykreslování, což lze použít pro velmi zajímavé efekty, jako je hloubka ostrosti. K tomu má Ansel vyhrazené API pro následné zpracování a jakýkoli z efektů lze zahrnout do hry s podporou této platformy.

Ansel post filtry zahrnují takové filtry jako: barevné křivky, barevný prostor, transformace, desaturace, jas / kontrast, zrnitost filmu, květ, odlesk objektivu, anamorfní odlesky, zkreslení, vřesoviště, rybí oko, barevná aberace, mapování tónů, nečistoty objektivu, světelné paprsky , viněta, korekce gama, konvoluce, doostření, detekce hran, rozmazání, sépie, denoise, FXAA a další.

Pokud jde o vzhled podpory Ansel ve hrách, budete si muset chvíli počkat, než ji vývojáři implementují a otestují. Ale Nvidia slibuje, že se taková podpora brzy objeví ve slavných hrách jako The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky, Unreal Tournament a dalších.

Nové optimalizace technologického procesu a architektury 16 nm FinFET umožnily grafické kartě GeForce GTX 1080 založené na GPU GP104 dosáhnout vysokého taktu 1,6 - 1,7 GHz i v referenční formě a nová generace zaručuje provoz na nejvyšších možných frekvencích ve hrách Technologie GPU Boost. Spolu se zvýšeným počtem prováděcích jednotek se díky těmto vylepšením stal nový produkt nejen nejvýkonnější jednočipovou grafickou kartou vůbec, ale také energeticky nejúčinnějším řešením na trhu.

GeForce GTX 1080 je první grafická karta, která obsahuje nový typ grafické paměti GDDR5X, novou generaci vysokorychlostních čipů, které dosahují velmi vysokých datových rychlostí. V případě úpravy GeForce GTX 1080 pracuje tento typ paměti na efektivní frekvenci 10 GHz. V kombinaci s vylepšenými algoritmy pro kompresi informací v framebufferu to vedlo k 1,7násobnému zvýšení efektivní šířky pásma paměti pro tento GPU ve srovnání s jeho přímým předchůdcem GeForce GTX 980.

Společnost Nvidia se moudře rozhodla neuvolnit radikálně novou architekturu založenou na zcela novém technickém procesu, aby se během vývoje a výroby nedostala ke zbytečným problémům. Místo toho vážně vylepšili již tak dobrou a vysoce efektivní architekturu Maxwell a přidali některé funkce. Výsledkem je, že s výrobou nových GPU je vše v pořádku, a v případě modelu GeForce GTX 1080 dosáhli inženýři velmi vysokého frekvenčního potenciálu - v přetaktovaných verzích od partnerů se očekává frekvence GPU až 2 GHz! Tato působivá frekvence se stala skutečností díky dokonalému technickému procesu a pečlivé práci inženýrů Nvidia při vývoji GPU Pascal.

Zatímco Pascal se stal přímým nástupcem případu Maxwell a tyto grafické architektury se od sebe zásadně neliší, Nvidia implementovala mnoho změn a vylepšení, včetně možností zobrazení, kódování videa a dekódování, vylepšených asynchronních provádění různých typů výpočtů na GPU, provedlo změny ve vykreslování více čipů a představilo novou metodu Fast Sync.

Není možné vyčlenit technologii multiprojekce Simultánní multi-projekce, která pomáhá zvyšovat výkon v systémech virtuální reality, dosáhnout správnějšího zobrazení scén na systémech s více monitory a zavést nové techniky pro optimalizaci výkonu. Největšího nárůstu rychlosti však dosáhnou aplikace VR, když podporují technologii více projekcí, která pomáhá při zpracování geometrických dat ušetřit prostředky GPU na polovinu a při výpočtech na pixel jeden a půlkrát.

Mezi čistě softwarovými změnami vyniká platforma pro vytváření screenshotů ve hrách zvaných Ansel - bude zajímavé vyzkoušet si to v praxi nejen pro mnoho hráčů, ale i pro ty, kteří se prostě zajímají o vysoce kvalitní 3D grafiku. Novinka vám umožní posunout umění vytváření a retušování snímků obrazovky na další úroveň. Nvidia jednoduše pokračuje ve vylepšování svých balíčků pro vývojáře her, jako jsou GameWorks a VRWorks, krok za krokem - takže v druhém případě se objevila zajímavá možnost vysoce kvalitního zpracování zvuku, s přihlédnutím k četným odrazům zvukových vln pomocí sledování hardwarových paprsků.

Obecně platí, že v podobě grafické karty Nvidia GeForce GTX 1080 vstoupil na trh skutečný lídr se všemi nezbytnými vlastnostmi: vysoký výkon a široká funkčnost, stejně jako podpora nových funkcí a algoritmů. První kupující této grafické karty budou moci okamžitě ocenit mnoho ze zmíněných výhod a další možnosti řešení budou odhaleny o něco později, až bude k dispozici široká podpora softwaru. Hlavní věc je, že GeForce GTX 1080 se ukázal být velmi rychlý a efektivní a některé problémové oblasti (stejné asynchronní výpočty), jak opravdu doufáme, byly opraveny inženýry Nvidia.

Grafický akcelerátor GeForce GTX 1070

ParametrHodnota
Kódové označení čipuGP104
Produkční technologie16 nm FinFET
Počet tranzistorů7,2 miliardy
Základní oblast314 mm²
ArchitekturaUnified, s řadou běžných procesorů pro streamované zpracování mnoha typů dat: vrcholy, pixely atd.
Podpora hardwaru DirectXDirectX 12, s podporou pro úroveň funkcí 12_1
Paměťová sběrnice256 bitů: Osm nezávislých 32bitových řadičů paměti podporujících paměť GDDR5 a GDDR5X
Frekvence GPU1506 (1683) MHz
Výpočetní jednotky15 aktivních (z 20 v čipu) streamovacích multiprocesorů, včetně 1920 (z 2560) skalárních ALU pro výpočty s plovoucí desetinnou čárkou v rámci standardu IEEE 754-2008;
Texturovací bloky120 aktivních (ze 160 v čipu) jednotek pro adresování a filtrování textur s podporou komponent FP16 a FP32 v texturách a podporou trilineárního a anizotropního filtrování pro všechny formáty textur
Rastrové provozní bloky (ROP)8 širokých ROP bloků (64 pixelů) s podporou různých režimů vyhlazování, včetně programovatelných ve formátu FP16 nebo FP32 framebuffer. Bloky se skládají z řady konfigurovatelných ALU a jsou zodpovědné za generování a porovnání hloubky, multisampling a blending.
Monitorujte podporuIntegrovaná podpora až čtyř monitorů připojených prostřednictvím rozhraní Dual Link DVI, HDMI 2.0ba DisplayPort 1.2 (připravena 1.3 / 1.4)

Specifikace referenční grafické karty GeForce GTX 1070
ParametrHodnota
Frekvence jádra1506 (1683) MHz
Počet univerzálních procesorů1920
Počet jednotek textury120
Počet míchacích bloků64
Efektivní frekvence paměti8000 (4 × 2000) MHz
Typ pamětiGDDR5
Paměťová sběrnice256 bitů
Velikost paměti8 GB
Šířka pásma paměti256 GB / s
Výpočetní výkon (FP32)asi 6,5 teraflops
Teoretická maximální rychlost plnění96 gigapixelů / s
Teoretická vzorkovací frekvence textury181 gigatexelů / s
PneumatikaPCI Express 3.0
KonektoryJeden Dual Link DVI, jeden HDMI a tři DisplayPort
spotřeba energieaž 150 W.
Další jídloJeden 8kolíkový konektor
Počet slotů obsazených v šasi systému2
Doporučená cena379–449 $ (USA), 34 990 $ (Rusko)

Grafická karta GeForce GTX 1070 také získala logický název, podobný stejnému řešení z předchozí řady GeForce. Od svého přímého předchůdce, GeForce GTX 970, se liší pouze upraveným generačním číslem. Novinka se v současné linii společnosti stává o krok níže než aktuální špičkové řešení GeForce GTX 1080, které se stalo dočasnou vlajkovou lodí nové řady až do vydání řešení s ještě větším výkonem na GPU.

Doporučené ceny pro novou špičkovou grafickou kartu Nvidia jsou 379 $ a 449 $ pro běžné verze partnerů Nvidia, respektive speciální edice Founders Edition. Ve srovnání s vrcholným modelem je to velmi dobrá cena vzhledem k tomu, že GTX 1070 je v nejhorším případě o 25% pozadu. A v době oznámení a vydání se GTX 1070 stává nejlepším výkonovým řešením ve své třídě. Stejně jako GeForce GTX 1080 nemá GTX 1070 žádného přímého konkurenta od AMD a lze jej srovnávat pouze s Radeon R9 390X a Fury.

Rozhodli se ponechat plnou 256bitovou paměťovou sběrnici pro grafický procesor GP104 v modifikaci GeForce GTX 1070, ačkoli nepoužívali nový typ paměti GDDR5X, ale velmi rychlou GDDR5, která pracuje na vysoké efektivní frekvenci 8 GHz. Množství paměti nainstalované na grafické kartě s takovou sběrnicí se může rovnat 4 nebo 8 GB a pro zajištění maximálního výkonu nového řešení v podmínkách vysokého nastavení a rozlišení vykreslení byl model GeForce GTX 1070 vybaven také 8 GB grafické paměti, stejně jako jeho starší sestra. Tento svazek je dostatečný pro spuštění libovolných 3D aplikací s nastavením maximální kvality po několik let.

Speciální edice GeForce GTX 1070 Founders Edition

Když byla na začátku května oznámena GeForce GTX 1080, byla ohlášena speciální edice grafické karty s názvem Founders Edition, která má vyšší cenu než obvyklé grafické karty partnerů společnosti. Totéž platí pro nový produkt. V tomto článku si opět povíme o speciální edici grafické karty GeForce GTX 1070 s názvem Founders Edition. Stejně jako v případě staršího modelu se Nvidia rozhodla vydat tuto verzi referenční grafické karty výrobce za vyšší cenu. Tvrdí, že mnoho hráčů a nadšenců kupujících špičkové grafické karty chce produkt s prémiovým vzhledem a dojmem.

Právě pro tyto uživatele proto bude na trh uvedena GeForce GTX 1070 Founders Edition, která je navržena a vyrobena inženýry Nvidia z prvotřídních materiálů a komponent, jako je hliníkový kryt GeForce GTX 1070 Founders Edition, stejně jako nízkoprofilová zadní deska, která pokrývá zadní část PCB docela oblíbený u nadšenců.

Jak můžete vidět z fotografií desky, edice GeForce GTX 1070 Founders Edition zdědila přesně stejný průmyslový design, jaký je vlastní referenční edici GeForce GTX 1080 Founders Edition. Oba modely používají radiální ventilátor, který fouká horký vzduch ven, což je velmi užitečné jak v malých případech, tak u vícečipových konfigurací SLI s omezeným fyzickým prostorem. Foukáním ohřátého vzduchu ven místo jeho cirkulace uvnitř podvozku může snížit tepelné namáhání, zlepšit výsledky přetaktování a prodloužit životnost komponent systému.

Pod krytem referenčního chladicího systému GeForce GTX 1070 je speciálně tvarovaný hliníkový chladič se třemi integrovanými měděnými tepelnými trubkami, které odvádějí teplo ze samotného GPU. Teplo rozptýlené tepelnými trubicemi je poté odváděno hliníkovým chladičem. Nízkoprofilová kovová deska na zadní straně desky je také navržena tak, aby poskytovala lepší tepelný výkon. Má také zatahovací část pro lepší pohyb vzduchu mezi více grafickými kartami v konfiguracích SLI.

Pokud jde o napájení desky, GeForce GTX 1070 Founders Edition má čtyřfázový napájecí systém optimalizovaný pro stabilní napájení. Nvidia říká, že GTX 1070 Founders Edition má vylepšenou energetickou účinnost, stabilitu a spolehlivost oproti GeForce GTX 970 pro lepší přetaktovací výkon. Ve vlastních testech společnosti GPU GeForce GTX 1070 snadno překonaly hodnotu 1,9 GHz, což je blízko k výsledkům staršího modelu GTX 1080.

Grafická karta Nvidia GeForce GTX 1070 bude k dispozici v maloobchodech od 10. června. Doporučené ceny pro GeForce GTX 1070 Founders Edition a partnerská řešení se liší, a to je největší otázka pro tuto speciální edici. Pokud partneři Nvidia prodají své grafické karty GeForce GTX 1070 od 379 $ (na americkém trhu), pak bude Founders Edition referenčního designu Nvidia stát 449 $. Existuje mnoho nadšenců, kteří jsou ochotni přeplatit, upřímně, pochybné výhody referenční verze? Čas ukáže, ale věříme, že referenční deska je zajímavější jako možnost dostupná k nákupu na samém začátku prodeje a později je bod jejího získání (a dokonce za vysokou cenu!) Již snížen na nulu.

Zbývá dodat, že deska s plošnými spoji referenční GeForce GTX 1070 je podobná jako u starší grafické karty a obě se liší od zařízení předchozích desek společnosti. Typická hodnota spotřeby energie pro nový produkt je 150 W, což je téměř o 20% méně než hodnota pro GTX 1080 a blíží se spotřebě energie předchozí generace GeForce GTX 970. Referenční deska Nvidia má známou sadu konektorů pro připojení výstupních obrazových zařízení: jeden DVI Dual-Link , jeden HDMI a tři DisplayPort. Navíc se objevila podpora pro nové verze HDMI a DisplayPort, o kterých jsme psali výše v recenzi modelu GTX 1080.

Architektonické změny

Grafická karta GeForce GTX 1070 je založena na čipu GP104, prvorozené grafické architektuře Pascal nové generace Nvidia. Tato architektura je založena na řešeních zpracovaných v Maxwellu, ale má také některé funkční rozdíly, o kterých jsme podrobně psali výše - v části věnované špičkové grafické kartě GeForce GTX 1080.

Hlavní změnou v nové architektuře byl technologický proces, kterým budou provedeny všechny nové GPU. Použití 16nm procesní technologie FinFET při výrobě GP104 umožnilo významně zvýšit složitost čipu při zachování relativně nízké plochy a nákladů a vůbec první čip architektury Pascal má znatelně větší počet prováděcích jednotek, včetně těch poskytujících nové funkce, ve srovnání s čipy Maxwell s podobným umístěním.

Grafický čip GP104 je ve své struktuře podobný podobným řešením architektury Maxwell a podrobné informace o zařízení moderních GPU najdete v našich recenzích předchozích řešení od Nvidia. Stejně jako předchozí GPU budou mít i nové architekturní čipy různé konfigurace grafických klastrů (GPC), streamovacích multiprocesorů (SM) a řadičů paměti a v GeForce GTX 1070 již došlo k některým změnám - část čipu byla uzamčena a neaktivní ( zvýrazněno šedě):

Ačkoli GP104 GPU obsahuje čtyři GPC clustery a 20 SM více procesorů, ve verzi pro GeForce GTX 1070 obdržela odizolovanou modifikaci s jedním GPC clusterem deaktivovaným hardwarem. Jelikož každý GPC má vyhrazený rastrovací modul a zahrnuje pět SM multiprocesorů a každý multiprocesor se skládá ze 128 CUDA jader a osmi texturovacích jednotek TMU, je v této verzi GP104 1920 CUDA jader a 120 TMU z 2560 stream procesorů aktivní. a 160 jednotek textury dostupných fyzicky.

Grafický procesor, na kterém je GeForce GTX 1070 založen, obsahuje osm 32bitových řadičů paměti, což dává finální 256bitovou paměťovou sběrnici - přesně jako v případě staršího modelu GTX 1080. Paměťový subsystém nebyl zkrácen, aby poskytoval dostatečně velkou šířku pásma paměť s podmínkou využití paměti GDDR5 v GeForce GTX 1070. Na každý z řadičů paměti je vázáno osm ROP a 256 KB L2 cache, proto čip GP104 obsahuje v této modifikaci také 64 ROP a 2048 KB L2 cache. úroveň.

Díky architektonickým optimalizacím a nové procesní technologii se GPU GP104 stalo dosud nejúčinnějším GPU. Inženýři Nvidia dokázali při přechodu na novou procesní technologii zvýšit taktovací frekvenci více, než očekávali, přičemž museli tvrdě pracovat, pečlivě kontrolovali a optimalizovali všechna úzká místa předchozích řešení, která jim neumožňovala pracovat na vyšší frekvenci. Proto GeForce GTX 1070 také běží na velmi vysoké frekvenci, o více než 40% vyšší než referenční hodnota pro GeForce GTX 970.

Protože model GeForce GTX 1070 je v podstatě jen o něco méně produktivní GTX 1080 s pamětí GDDR5, podporuje naprosto všechny technologie, které jsme popsali v předchozí části. Další podrobnosti o architektuře Pascal a také o technologiích, které podporuje, jako jsou vylepšené video výstupy a procesorové jednotky, podpora Async Compute, technologie Simultánní víceprojekce, změny ve vícečipovém vykreslování SLI a nový typ synchronizace Fast Sync, byste měli vyzkoušet s sekci GTX 1080.

Vysoce výkonná paměť GDDR5 a její efektivní využití

Výše jsme psali o změnách v paměťovém subsystému GP104 GPU, na nichž jsou založeny modely GeForce GTX 1080 a GTX 1070 - řadiče paměti obsažené v tomto GPU podporují jak nový typ grafické paměti GDDR5X, který je podrobně popsán v recenzi GTX 1080, tak i a stará dobrá paměť GDDR5, kterou známe již několik let.

Aby nedošlo k přílišné ztrátě šířky pásma paměti u mladší GTX 1070 ve srovnání se staršími GTX 1080, zůstalo v ní aktivních všech osm 32bitových řadičů paměti, které obdržely plné 256bitové společné rozhraní grafické paměti. Grafická karta byla navíc vybavena nejrychlejší pamětí GDDR5 dostupnou na trhu - s efektivní pracovní frekvencí 8 GHz. To vše poskytovalo šířku pásma paměti 256 GB / s, na rozdíl od 320 GB / s pro starší řešení - výpočetní možnosti byly sníženy přibližně o stejné množství, takže byla dodržena rovnováha.

Mějte na paměti, že zatímco špičková teoretická šířka pásma je důležitá pro výkon GPU, musíte také věnovat pozornost jeho účinnosti. Během vykreslování může mnoho různých úzkých míst omezit celkový výkon a zabránit využití veškeré dostupné šířky pásma paměti. Aby se minimalizovala tato úzká místa, používají GPU ke zlepšení výkonu čtení a zápisu speciální bezztrátovou kompresi.

V architektuře Pascal byla představena čtvrtá generace delta komprese informací o vyrovnávací paměti, která umožňuje GPU efektivněji využívat dostupné možnosti sběrnice video paměti. Paměťový subsystém v GeForce GTX 1070 a GTX 1080 využívá vylepšené staré a několik nových bezztrátových technik komprese dat určených ke snížení požadavků na šířku pásma paměti. To snižuje množství dat zapsaných do paměti, zlepšuje efektivitu mezipaměti L2 a snižuje množství dat přenášených mezi různými body GPU, jako je TMU a framebuffer.

Funkce GPU Boost 3.0 a přetaktování

Většina partnerů Nvidia již ohlásila továrně přetaktovaná řešení založená na GeForce GTX 1080 a GTX 1070. A mnoho výrobců grafických karet vytváří speciální nástroje pro přetaktování, které využívají nové funkce technologie GPU Boost 3.0. Jedním z příkladů těchto nástrojů je EVGA Precision XOC, který zahrnuje automatický skener pro stanovení křivky napětí na frekvenci - v tomto režimu se pro každou hodnotu napětí spuštěním testu stability zjistí stabilní frekvence, při které GPU poskytuje zvýšení výkonu. Tuto křivku však lze změnit i ručně.

Technologie GPU Boost dobře známe z předchozích grafických karet Nvidia. Ve svých grafických procesorech používají tuto hardwarovou funkci určenou ke zvýšení rychlosti taktu GPU v režimech, kdy ještě nedosáhla limitů spotřeby energie a rozptylu tepla. V GPU Pascal prošel tento algoritmus několika změnami, z nichž hlavní bylo jemnější nastavení turbo frekvencí v závislosti na napětí.

Pokud byl dříve rozdíl mezi základní frekvencí a turbofrekvencí opraven, pak v GPU Boost 3.0 bylo možné nastavit kompenzace turbofrekvencí pro každé napětí zvlášť. Frekvenci turbo lze nyní nastavit pro každou z jednotlivých hodnot napětí, což vám umožní plně vytlačit všechny možnosti přetaktování z GPU. O této funkci jsme psali podrobně v naší recenzi GeForce GTX 1080 a můžete k tomu použít nástroje EVGA Precision XOC a MSI Afterburner.

Vzhledem k tomu, že se u metody grafického přetaktování s vydáním grafických karet s podporou GPU Boost 3.0 změnily některé podrobnosti, Nvidia musela v pokynech k přetaktování nových produktů učinit další vysvětlení. Existují různé metody přetaktování s různými proměnnými charakteristikami, které ovlivňují konečný výsledek. Pro každý konkrétní systém může být vhodnější konkrétní metoda, ale základ je vždy přibližně stejný.

Mnoho z přetaktovačů používá měřítko Unigine Heaven 4.0 ke kontrole stability systému, který dokonale načte GPU s prací, má flexibilní nastavení a lze jej spustit v režimu okna spolu s oknem nástroje pro přetaktování a monitorování v blízkosti, jako je EVGA Precision nebo MSI Afterburner. Taková kontrola je však dostatečná pouze pro počáteční odhady a pro spolehlivé potvrzení stability přetaktování je třeba ji zkontrolovat v několika herních aplikacích, protože různé hry předpokládají různé zatížení na různých funkčních blocích GPU: matematické, texturní, geometrické. Benchmark Heaven 4.0 je také vhodný pro úkol přetaktování, protože má režim smyčkového provozu, ve kterém je vhodné měnit nastavení přetaktování a existuje měřítko pro hodnocení zvýšení rychlosti.

Při přetaktování nových grafických karet GeForce GTX 1080 a GTX 1070 Nvidia doporučuje provozovat Windows Heaven 4.0 a EVGA Precision XOC společně. Nejprve je vhodné okamžitě zvýšit rychlost ventilátoru. A pro vážné přetaktování můžete okamžitě nastavit hodnotu rychlosti na 100%, což způsobí, že grafická karta bude pracovat velmi hlasitě, ale co nejvíce ochlaďte GPU a další součásti grafické karty, snižte teplotu na nejnižší možnou úroveň a zabráňte škrcení (pokles frekvencí v důsledku zvýšení teploty GPU nad určitou hodnotu ).

Dále musíte nastavit Power Target také na maximum. Toto nastavení poskytne GPU co nejvíce energie zvýšením spotřeby energie a GPU Temp Target. Pro některé účely lze druhou hodnotu oddělit od změny Power Target a poté lze tato nastavení upravit individuálně - například k dosažení menšího zahřátí video čipu.

Dalším krokem je zvýšení hodnoty posunu hodin GPU - to znamená, o kolik vyšší bude frekvence turbo během provozu. Tato hodnota zvyšuje frekvenci pro všechna napětí a vede k lepšímu výkonu. Jako obvykle při přetaktování musíte zkontrolovat stabilitu zvýšením frekvence GPU v malých krocích - z 10 MHz na 50 MHz na krok, než si všimnete zablokování, chyby ovladače nebo aplikace nebo dokonce vizuálních artefaktů. Po dosažení tohoto limitu byste měli snížit hodnotu frekvence o jeden krok dolů a znovu zkontrolovat stabilitu a výkon během přetaktování.

Kromě frekvence GPU můžete také zvýšit frekvenci videopaměti (Memory Clock Offset), což je zvláště důležité v případě GeForce GTX 1070 vybaveného pamětí GDDR5, která obvykle dobře přetaktuje. V případě frekvence paměti proces přesně opakuje to, co se děje, když je nalezena stabilní frekvence GPU, jediný rozdíl je v tom, že kroky lze zvětšit - přidejte 50-100 MHz k základní frekvenci najednou.

Kromě výše popsaných kroků můžete také zvýšit mez napětí (přepětí), protože vyšší frekvence GPU se často dosahuje při zvýšeném napětí, když nestabilní části GPU dostávají další energii. Je pravda, že potenciální nevýhodou zvýšení této hodnoty je možnost poškození video čipu a jeho zrychlené selhání, takže je nutné zvýšení napětí používat s maximální opatrností.

Milovníci přetaktování používají mírně odlišné techniky a mění parametry v jiném pořadí. Někteří přetaktovače například sdílejí své experimenty s hledáním stabilního GPU a frekvence paměti, aby se navzájem nerušily, a poté testují kombinované přetaktování video čipu i paměťových čipů, ale to jsou nepodstatné podrobnosti individuálního přístupu.

Soudě podle názorů na fórech a komentářů k článkům se některým uživatelům nelíbil nový algoritmus GPU Boost 3.0, kdy frekvence GPU nejprve stoupne velmi vysoko, často vyšší než frekvence turbo, ale pak pod vlivem zvýšení teploty GPU nebo zvýšené spotřeby energie nad nastavenou limit, může klesnout na mnohem nižší hodnoty. Je to jen specifika aktualizovaného algoritmu, musíte si zvyknout na nové chování dynamicky proměnné frekvence GPU, ale nemá žádné negativní důsledky.

GeForce GTX 1070 je druhým po GTX 1080 v nové řadě GPU Pascal od společnosti Nvidia. Nová 16nm FinFET procesní technologie a optimalizace architektury umožnily prezentované grafické kartě dosáhnout vysokých taktovacích rychlostí, k čemuž napomáhá také nová generace technologie GPU Boost. I když byl snížen počet funkčních jednotek ve formě stream procesorů a texturových jednotek, jejich počet zůstává dostatečný pro to, aby se GTX 1070 stalo nejziskovějším a energeticky nejúčinnějším řešením.

Instalace paměti GDDR5 na nejmladší z dvojice vydaných modelů grafických karet Nvidia na čip GP104, na rozdíl od nového typu GDDR5X, kterým se GTX 1080 liší, mu nebrání v dosažení vysokých ukazatelů výkonu. Zaprvé se Nvidia rozhodla nepřerušit paměťovou sběrnici modelu GeForce GTX 1070 a zadruhé nainstalovali nejrychlejší paměť GDDR5 s efektivní frekvencí 8 GHz, která je u GDDR5X používaného ve starším modelu jen mírně pod 10 GHz. Vezmeme-li v úvahu vylepšené algoritmy komprese delta, efektivní šířka pásma paměti GPU se zvýšila než u obdobného modelu předchozí generace GeForce GTX 970.

GeForce GTX 1070 je dobrá, protože nabízí velmi vysoký výkon a podporu nových funkcí a algoritmů za výrazně nižší cenu ve srovnání se starším modelem ohlášeným o něco dříve. Pokud si několik nadšenců může dovolit nákup GTX 1080 za 55 000, pak mnohem větší okruh potenciálních kupců bude moci zaplatit 35 000 pouze za čtvrtinu méně produktivního řešení se stejnými schopnostmi. Právě tato kombinace relativně nízké ceny a vysokého výkonu učinila GeForce GTX 1070 v době jeho vydání pravděpodobně nejlepším řešením.

Grafický akcelerátor GeForce GTX 1060

ParametrHodnota
Kódové označení čipuGP106
Produkční technologie16 nm FinFET
Počet tranzistorů4,4 miliardy
Základní oblast200 mm²
ArchitekturaUnified, s řadou běžných procesorů pro streamované zpracování mnoha typů dat: vrcholy, pixely atd.
Podpora hardwaru DirectXDirectX 12, s podporou pro úroveň funkcí 12_1
Paměťová sběrnice192 bitů: Šest nezávislých 32bitových řadičů paměti podporujících paměť GDDR5
Frekvence GPU1506 (1708) MHz
Výpočetní jednotky10 streamovacích multiprocesorů, včetně 1280 skalárních ALU pro výpočty s plovoucí desetinnou čárkou v rámci standardu IEEE 754-2008;
Texturovací bloky80 jednotek pro adresování a filtrování textury s podporou komponent FP16 a FP32 v texturách a podporou trilineárního a anizotropního filtrování pro všechny formáty textur
Rastrové provozní bloky (ROP)6 širokých ROP bloků (48 pixelů) s podporou různých režimů vyhlazování, včetně programovatelných ve formátu FP16 nebo FP32 framebuffer. Bloky se skládají z řady konfigurovatelných ALU a jsou zodpovědné za generování a porovnání hloubky, multisampling a blending.
Monitorujte podporuIntegrovaná podpora až čtyř monitorů připojených prostřednictvím rozhraní Dual Link DVI, HDMI 2.0ba DisplayPort 1.2 (připravena 1.3 / 1.4)

Specifikace referenční grafické karty GeForce GTX 1060
ParametrHodnota
Frekvence jádra1506 (1708) MHz
Počet univerzálních procesorů1280
Počet jednotek textury80
Počet míchacích bloků48
Efektivní frekvence paměti8000 (4 × 2000) MHz
Typ pamětiGDDR5
Paměťová sběrnice192-bit
Velikost paměti6 GB
Šířka pásma paměti192 GB / s
Výpočetní výkon (FP32)asi 4 teraflopy
Teoretická maximální rychlost plnění72 gigapixelů / s
Teoretická vzorkovací frekvence textury121 gigatexelů / s
PneumatikaPCI Express 3.0
KonektoryJeden Dual Link DVI, jeden HDMI a tři DisplayPort
Typická spotřeba energie120 wattů
Další jídloJeden 6kolíkový konektor
Počet slotů obsazených v šasi systému2
Doporučená cena249 $ (299 $) v USA a 18 990 v Rusku

Grafická karta GeForce GTX 1060 také získala název podobný stejnému řešení z předchozí řady GeForce, který se liší od jména jejího přímého předchůdce, GeForce GTX 960, pouze upravenou první číslicí generace. Novinka se stala v současné linii společnosti o krok nižší než dříve vydané řešení GeForce GTX 1070, což je průměrná rychlost v nové sérii.

Doporučené ceny pro novou grafickou kartu Nvidia jsou 249 $ a 299 $ pro běžné verze partnerů společnosti a pro speciální edici Founder's Edition. Ve srovnání se dvěma staršími modely je to velmi příznivá cena, protože nový model GTX 1060, i když je horší než špičkové základní desky, zdaleka není tak levný. V době oznámení se nový produkt rozhodně stal nejlepším výkonovým řešením ve své třídě a jednou z nejvýhodnějších nabídek v této cenové kategorii.

Tento model grafické karty rodiny Pascalů společnosti Nvidia vyšel proti novému rozhodnutí konkurenční společnosti AMD, která uvedla Radeon RX 480 na trh o něco dříve. ... GeForce GTX 1060 je dražší (249–299 $ oproti 199–229 $), ale zjevně rychlejší než její konkurence.

Grafický procesor GP106 má 192bitovou paměťovou sběrnici, takže množství paměti nainstalované na grafické kartě s takovou sběrnicí může být 3 nebo 6 GB. Nižší hodnota v moderních podmínkách upřímně nestačí a mnoho herních projektů i ve Full HD rozlišení narazí na nedostatek video paměti, což vážně ovlivní plynulost vykreslování. Pro maximalizaci výkonu nového řešení při vysokých nastaveních byl model GeForce GTX 1060 vybaven 6 GB video paměti, což je dostatečné množství pro spuštění jakékoli 3D aplikace v jakémkoli nastavení kvality. Navíc dnes jednoduše neexistuje žádný rozdíl mezi 6 a 8 GB a takové řešení ušetří nějaké peníze.

Typická hodnota spotřeby energie pro nový produkt je 120 W, což je o 20% méně než hodnota pro GTX 1070 a rovná se spotřebě energie předchozí generace GeForce GTX 960, která má mnohem nižší výkon a možnosti. Referenční deska má obvyklou sadu konektorů pro připojení výstupních obrazových zařízení: jeden Dual-Link DVI, jeden HDMI a tři DisplayPort. Navíc se objevila podpora pro nové verze HDMI a DisplayPort, o kterých jsme psali v recenzi modelu GTX 1080.

Délka referenční desky GeForce GTX 1060 je 9,8 palce (25 cm) a z rozdílů od starších verzí zvlášť poznamenáváme, že GeForce GTX 1060 nepodporuje konfiguraci vykreslování SLI multi-GPU a nemá pro to speciální konektor. Vzhledem k tomu, že deska spotřebovává méně energie než starší modely, byl na desce nainstalován jeden 6kolíkový konektor externího napájení PCI-E pro další napájení.

Grafické karty GeForce GTX 1060 se na trhu objevily ode dne oznámení v podobě produktů partnerů společnosti: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. Speciální edice GeForce GTX 1060 Founder's Edition, produkovaná samotnou Nvidia, bude také vydána v omezeném počtu, která se bude prodávat za 299 $ výhradně na webu Nvidia a nebude oficiálně představena v Rusku. Zakladatelská edice je vyrobena z vysoce kvalitních materiálů a komponentů, včetně hliníkového pouzdra, a využívá účinný chladicí systém, výkonové obvody s nízkým odporem a speciálně navržené regulátory napětí.

Architektonické změny

Grafická karta GeForce GTX 1060 je založena na zcela novém modelu GPU GP106, který se funkčně nijak neliší od prvorozené architektury Pascal v podobě čipu GP104, na kterém jsou založeny výše popsané modely GeForce GTX 1080 a GTX 1070. Tato architektura je založena na řešeních vyvinutých již v Maxwell, ale má také některé funkční rozdíly, o kterých jsme psali podrobně dříve.

Grafický čip GP106 se svou strukturou podobá špičkovému čipu Pascal a podobným řešením architektury Maxwell a podrobná data o zařízení moderních GPU najdete v našich recenzích předchozích řešení od Nvidia. Stejně jako předchozí GPU mají i nové architekturní čipy různé konfigurace grafických klastrů (GPC), streamovacích multiprocesorů (SM) a řadičů paměti:

GPU GP106 obsahuje dva clustery GPC, které se skládají z 10 streamovacích multiprocesorů (SM), tedy přesně z poloviny GP104. Stejně jako ve starší GPU obsahuje každý z multiprocesorů 128 výpočetních jader, 8 jednotek textury TMU, 256 kB paměti registrů, 96 kB sdílené paměti a 48 kB mezipaměti L1. Výsledkem je, že GeForce GTX 1060 má celkem 1280 procesorových jader a 80 texturovacích jednotek - poloviční velikost oproti GTX 1080.

Paměťový subsystém GeForce GTX 1060 však nebyl snížen na polovinu ve srovnání se špičkovým řešením, obsahuje šest 32bitových řadičů paměti, což dává finální 192bitovou paměťovou sběrnici. S efektivní frekvencí grafické paměti GDDR5 pro GeForce GTX 1060 rovnou 8 GHz dosahuje šířka pásma 192 GB / s, což je docela dobré pro řešení v tomto cenovém segmentu, zejména vzhledem k vysoké efektivitě jejího použití v Pascalu. Každý řadič paměti má osm ROP a 256KB L2 mezipaměť vázanou na každý řadič paměti, takže celkem plná verze GP106 GP10 obsahuje 48 ROP a 1536KB L2 mezipaměť.

Aby se snížily požadavky na šířku pásma paměti a efektivněji se využívala dostupná architektura Pascal, byla dále vylepšena bezztrátová komprese uvnitř čipu, která je schopna komprimovat data do vyrovnávacích pamětí a zvyšovat tak efektivitu a výkon. Do čipů nové rodiny byly přidány zejména nové metody komprese delta v poměru 4: 1 a 8: 1, což poskytuje dalších 20% k účinnosti šířky pásma paměti ve srovnání s předchozími řešeními rodiny Maxwell.

Základní frekvence nového GPU se rovná 1506 MHz - frekvence by v zásadě neměla klesnout pod tuto značku. Typický Boost Clock je mnohem vyšší na 1708 MHz, což je průměr skutečných hodin, na kterých běží GPU GeForce GTX 1060 v široké škále her a 3D aplikací. Skutečná frekvence Boost závisí na hře a testovacím prostředí.

Stejně jako zbytek rodiny Pascal, GeForce GTX 1060 nejenže běží při vysokých taktech, poskytuje vysoký výkon, ale také má slušný prostor pro přetaktování. První experimenty naznačují možnost dosažení frekvencí řádově 2 GHz. Není divu, že partneři společnosti připravují mimo jiné továrně přetaktované verze grafické karty GTX 1060.

Hlavní změnou v nové architektuře byl tedy 16 nm FinFET technologický proces, jehož použití při výrobě GP106 umožnilo významně zvýšit složitost čipu při zachování relativně nízké plochy 200 mm², proto má tento čip architektury Pascal ve srovnání s čipem Maxwell podobného umístění podstatně větší počet prováděcích jednotek vyrobeno pomocí 28 nm procesní technologie.

Pokud GM206 (GTX 960) o ploše 227 mm² měl 3 miliardy tranzistorů a 1024 ALU, 64 TMU, 32 ROP a 128bitovou sběrnici, pak nový GPU pojal 4,4 miliardy tranzistorů, 1280 ALU na 200 mm², 80 TMU a 48 ROP se 192bitovou sběrnicí. Navíc na téměř jeden a půlkrát vyšší frekvenci: 1506 (1708) proti 1126 (1178) MHz. A to se stejnou spotřebou energie 120 W! Výsledkem je, že GP106 GPU se spolu s GP104 stal jedním z energeticky nejúčinnějších GPU.

Nové technologie Nvidia

Jednou z nejzajímavějších technologií společnosti, kterou podporuje GeForce GTX 1060 a další řešení rodiny Pascal, je technologie Simultánní multi-projekce Nvidia... O této technologii jsme již psali v naší recenzi GeForce GTX 1080 a umožňuje vám použít několik nových technik k optimalizaci vykreslení. Zejména simultánní promítání obrazu VR pro dvě oči najednou, což výrazně zvyšuje efektivitu používání GPU ve virtuální realitě.

Pro podporu SMP mají všechny GPU Pascal vyhrazený engine umístěný v PolyMorph Engine na konci potrubí geometrie, před jednotkou ROP. S jeho pomocí může GPU současně promítat geometrický primitiv na několik projekcí z jednoho bodu, zatímco tyto projekce mohou být stereofonní (tj. Až 16 nebo 32 projekcí je podporováno současně). Tato funkce umožňuje Pascal GPU přesně reprodukovat zakřivené povrchy pro vykreslování VR a také správné zobrazení na systémech s více monitory.

Důležité je, že technologie Simultánní multi-projekce je již integrována do populárních herních enginů (Unreal Engine a Unity) a her a doposud byla oznámena podpora této technologie pro více než 30 vyvíjených her, včetně takových známých projektů jako Unreal Tournament. , Poolnation VR, Everest VR, Obduction, Adr1ft a surová data. Zajímavé je, že i když Unreal Tournament není hra VR, využívá SMP k dosažení lepší vizuální stránky a zlepšení výkonu.

Další vysoce očekávanou technologií je výkonný nástroj pro vytváření snímků obrazovky ve hrách. Nvidia Ansel... Tento nástroj umožňuje vytvářet neobvyklé a velmi kvalitní snímky obrazovky z her s dříve nedostupnými funkcemi, ukládat je ve velmi vysokém rozlišení a doplňovat je různými efekty a sdílet svá díla. Ansel vám umožňuje doslova vytvořit snímek obrazovky tak, jak si to umělec přeje, umožňuje vám nainstalovat kameru s libovolnými parametry v jakémkoli bodě scény, aplikovat na snímek výkonné postfiltry nebo dokonce pořídit 360stupňový snímek pro prohlížení v helmě virtuální reality.

Nvidia standardizovala integraci uživatelského rozhraní Ansel do her a je to stejně snadné jako přidání několika řádků kódu do kódu. Není třeba čekat, až se tato funkce objeví ve hrách, Anseliny schopnosti můžete vyhodnotit právě teď v Mirror's Edge: Catalyst a o něco později bude k dispozici ve hře Witcher 3: Wild Hunt. Kromě toho je ve vývoji mnoho herních projektů s podporou Ansel, včetně her jako Fortnite, Paragon and Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky a další.

Sada nástrojů podporuje také nový grafický procesor GeForce GTX 1060 Nvidia VRWorkspomáhat vývojářům vytvářet působivé zážitky z VR. Tento balíček obsahuje mnoho nástrojů a nástrojů pro vývojáře, včetně VRWorks Audio, který umožňuje provádět velmi přesné výpočty odrazů zvukových vln od objektů ve scéně pomocí sledování paprsku na GPU. Balíček zahrnuje také integraci do fyzikálních efektů VR a PhysX, které zajišťují fyzicky správné chování objektů ve scéně.

Jednou z nejjasnějších VR her, které mohou využít výhod VRWorks, je VR Funhouse, hra pro virtuální realitu od samotné Nvidia, dostupná zdarma na Valve Steam. Tato hra je založena na Unreal Engine 4 (Epic Games) a běží na grafických kartách GeForce GTX 1080, 1070 a 1060 ve spojení s náhlavními soupravami HTC Vive VR. Kromě toho bude zdrojový kód této hry veřejně dostupný, což umožní dalším vývojářům využívat připravené nápady a kód již při svých jízdách VR. Vezměte si slovo, toto je jedno z nejpůsobivějších ukázek schopností virtuální reality.

Díky použití technologií SMP a VRWorks poskytuje použití GPU GeForce GTX 1060 v aplikacích VR dostatečný výkon pro základní virtuální realitu a dotyčný GPU splňuje minimální požadovanou úroveň hardwaru, včetně SteamVR, která se stává jednou z nejúspěšnějších akvizic pro použití v systémech s oficiální podporou VR.

Vzhledem k tomu, že model GeForce GTX 1060 je založen na čipu GP106, který není v žádném případě horší než grafický procesor GP104, který se stal základem starších úprav, podporuje naprosto všechny technologie, které jsme popsali výše.

Grafická karta GeForce GTX 1060 je třetím modelem v nové řadě GPU od společnosti Nvidia. Nové optimalizace technologického procesu a architektury 16 nm FinFET umožnily všem novým grafickým kartám dosáhnout vysoké taktovací frekvence a umístit více funkčních bloků do GPU ve formě streamových procesorů, texturových jednotek a dalších, ve srovnání s video čipy předchozí generace. Proto se GTX 1060 stalo nejziskovějším a energeticky nejúčinnějším řešením ve své třídě a obecně.

Je obzvláště důležité, aby GeForce GTX 1060 nabízí poměrně vysoký výkon a podporu nových funkcí a algoritmů za výrazně nižší cenu ve srovnání se staršími řešeními založenými na GP104. Grafický čip nového modelu GP106 poskytuje nejlepší výkon a energetickou účinnost ve své třídě. GeForce GTX 1060 je speciálně navržen a dokonale se hodí pro všechny moderní hry s vysokým a maximálním grafickým nastavením v rozlišení 1920x1080 a dokonce s vyhlazováním na celou obrazovku povoleným různými metodami (FXAA, MFAA nebo MSAA).

A pro ty, kteří chtějí získat ještě lepší výkon s displeji s velmi vysokým rozlišením, má Nvidia špičkové grafické karty GeForce GTX 1070 a GTX 1080, které mají také docela dobrý výkon a energetickou účinnost. Přesto kombinace nízké ceny a dostatečného výkonu odlišuje GeForce GTX 1060 docela příznivě na pozadí starších řešení. Ve srovnání s konkurenčním Radeonem RX 480 je řešení Nvidia o něco rychlejší, s menší složitostí a stopou GPU a výrazně lepší energetickou účinností. Je pravda, že se prodává o něco dražší, takže každá grafická karta má své vlastní místo.

Chcete-li vidět všechnu krásu obrazu HDR10, který mohou Xbox One S, PlayStation 4 a PlayStation 4 Pro vytvořit, potřebujete televizi, která tento formát podporuje. Ale pak je vše snazší - můžete vyfotit obrazovku a cítit rozdíl.

Uncharted 4 a Horizon: Zero Dawn se zapnutým i vypnutým HDR byly představeny na speciální prezentaci Sony na Tokijské herní show. Zbývalo jen pořídit fotografii - což udělali korespondenti japonského vydání Game Watch.

V případě Horizon: Zero Dawn je rozdíl zřejmý: první fotka ukazuje HDR zapnuto, druhá ukazuje to. S Uncharted 4 jsou věci trochu komplikovanější: na obou fotografiích je vidět šikmá čára procházející obrazem. Část obrázku nalevo od řádku zobrazuje HDR vypnuto, vpravo - zapnuto.

Stejná prezentace také ukázala verze PlayStatio 4 Pro Final Fantasy XV, inFAMOUS First Light a Resident Evil 7: Biohazard. Těžko říct o Biohazardu a First Light něco jednoznačného, \u200b\u200bale FFXV vypadal zjevně slušněji než na běžné PlayStation 4. Vypadá to, že fanoušci si budou muset rozdávat nejen hru, ale také novou konzolu.

Všichni v poslední době hovoří o HDR a pokud věnujete pozornost nastavení videa v počítačových hrách, pravděpodobně vás zajímá: co je na tom tak zvláštního? Od jejího vzniku uplynulo mnoho let! No, musím ti něco říct. Pamatujete si zaškrtávací políčka „HDR“, která jste viděli ve hrách po Half-Life 2? Ukázalo se, že to není 100% HDR.

Možnost „HDR“ v aplikaci fotoaparátu pro mobilní telefon? A to také není úplně stejné, i když, stejně jako u falešných polí HDR v nastavení hry, cíl vylepšení obrazu zůstává stejný.

Zmatený? Nebuď rozrušený. Pokud jde o mylné představy o HDR, je to jen začátek. Co přesně je HDR a jak může změnit hraní na PC? Odpověď na první otázku nebude obtížná. Druhá však bude nějakou dobu trvat. Čtěte dále, abyste pochopili HDR a které monitory a grafické karty jej podporují.

Co je HDR?

HDR (doslovně přeloženo z angličtiny - „vysoký dynamický rozsah“) je zastřešující název pro technologie, které rozšiřují barevná a kontrastní spektra videoobrazů daleko za možnosti nejnovějšího hardwaru. Navzdory tomu, co jste slyšeli, není rozlišení nejdůležitější součástí kvality obrazu. Mimo masivní omezení současného rozhraní Windows 110 DPI začíná na počtu pixelů záležet mnohem méně než na manipulaci s pixely.

Jakmile je dosaženo požadovaného rozlišení, stane se jas, kontrast a sytost barev rozhodující pro kvalitu obrazu. A HDR je o vylepšení těchto metrik. Toto není další aktualizace rozšíření. HDR vyžaduje specifické fyzické vlastnosti počítače, aby si všiml změn v obrazu, nepotřebujete trénované oko.

HDR vyžaduje pro splnění nového standardu „Ultra HD Premium“ LCD obrazovky s minimálně 1 000 cd / m2 nebo nits. Vysoká kvalita, která má maximálně přibližně 300–400 nitů jasu a není blízko. Kvalitní notebooky nejsou o moc lepší, protože mají jen asi 100 nitů nejjasnější. Dokonce i mobilní telefony s technologií sci-fi obrazovky, která vám umožní jasně vidět na jasném slunečním světle, mají pouze asi 800 nitů. Pokud jde o jas, obrazovky kompatibilní s HDR nenechávají svým předchůdcům žádnou šanci.

Barvy se také transformují díky charakteristikám HDR, které vyžadují 10 nebo 12 bitů pro každý barevný kanál, které jsou k dispozici v operačním systému a jsou ovládány pomocí sady aktivních nástrojů. Většina displejů poskytuje pouze 6 nebo 8 bitů na barevný kanál pomocí subsystému barevného prostoru s názvem sRGB, který pokrývá pouze třetinu vizuálního spektra HDR. Ve skutečnosti vidíme barvy mnohem horší, než ve skutečnosti jsou. I když však hardware dokáže více, softwarové funkce znesnadňují používání vylepšených barevných režimů.


vlevo - HDR spektrum, vpravo - sRGB spektrum

Dnes se PC monitory, které podporují široký barevný gamut nebo WGC, obvykle používají v určitých aplikacích, jako jsou úpravy obrázků nebo lékařské aplikace. Hry a další software si jednoduše nevšimnou zvláštních barev a často se zobrazují špatně vyladěné, když je komprimovaný barevný prostor, který používají, zobrazen na displejích se širokým barevným gamutem, pokud hardware nevyžaduje další kroky k simulaci komprimovaného barevného prostoru. Standardy HDR zabraňují nejasnostem zahrnutím metadat do video streamu. To vám pomůže správně spravovat váš barevný prostor, zajistit, aby vaše aplikace vypadaly správně, a optimálně využít výhod vylepšeného zobrazení.

Ke zpracování dalších dat HDR je také zapotřebí HDMI 2.0a, opožděný upgrade na všudypřítomný standard HDMI 1.4 s nízkou šířkou pásma.

Stávající problémy s technologií HDR

HDR slibuje hodně, ale jeho cesta ještě není jasná. Největší výzvou nejsou technické překážky, ale konkurenční, částečně nekompatibilní standardy.

V současné době existují 2 hlavní standardy HDR. První je proprietární technologie Dolby Vision s 12bitovou barevnou hloubkou a dynamickými metadaty. Jeho konkurentem je otevřený standard HDR-10, který podporuje 10bitové barvy a na začátku video streamu poskytuje pouze statická metadata.

Dolby Vision, který vyžaduje licenční poplatky a další hardware, je dražší novinkou, která má omezené přijetí. Mnoho tvůrců obrazovek a poskytovatelů obsahu se rozhodlo podporovat HDR-10, včetně Microsoftu pro Xbox One S a Sony pro PS4, což naznačuje směr, kterým se herní průmysl naklání. Díky tomu je HDR-10 ideální volbou pro milovníky konzolí.

Fanoušci Dolby Vision poukazují na jeho barevnou hloubku, vyšší hardwarové standardy a schopnost dynamicky upravovat barvy a jas po snímku spolu s kompatibilitou HDR-10. Trh však směřuje k levnějšímu a přiměřeně dobrému standardu HDR-10.

Vzhledem k tomu, že HDR-10 nemůže být kompatibilní s Dolby Vision, Dolby vyhrává mnoha způsoby, ale tento patentovaný a drahý standard HDR pravděpodobně v příštích letech zakopne. Pokud jste však vášnivým milovníkem videí nebo filmů a kupujete produkty založené na kvalitě a obsahu, který je plně přítomen v nejnovějších produktech Dolby, cena nemusí být tak důležitá a bez problémů si užijete ucelenější obraz. Hráči však pravděpodobně budou mít jiné priority.

Kde se dnes používá HDR?

Výrobci počítačů jsou ve spěchu, aby se dostali do závodu HDR, ale nemusíte čekat, až si to vyzkouší. Hardware HDR je již k dispozici spotřebitelům na trhu špičkových televizorů. Je to také nejlepší způsob, jak vidět HDR v akci, protože již existuje malá, ale neustále aktualizovaná knihovna ukázek HDR, filmů a vysílání, která porovnává různé možnosti vedle sebe, což jasně ukazuje rozdíl v obrazu. Všechny televizory, které doporučujeme, jsou schopné HDR, což z nich dělá vhodnou alternativu pro výměnu monitoru, pokud je pro vás důležitější velikost a kvalita obrazu než schopnost reagovat.

Televizory Samsung KS8000 a KS9800 zvládnou řadu úkolů, stejně jako dobré počítačové displeje, což z nich dělá jeden z prvních, kdo zvládne obsah HDR, jakmile bude k dispozici na PC. Nezapomeňte, že to stojí hodně a používání televize pro hraní her má určité nevýhody.

HDR kompatibilní grafické karty

Jediným místem, kde jsou počítače již připraveny na HDR, je trh s grafickými kartami. A zatímco monitory zaostávají za svými televizními protějšky, střední a špičkové GPU jsou již téměř rok zralé, a to díky zdravé konkurenci společností Nvidia a AMD.

Nvidia mluví o HDR již od karet řady 900 a nyní certifikuje všechny karty založené na Pascalu a připravuje je na HDR. AMD s modely 390X a Polaris, jejich prvními kartami kompatibilními s HDR, trochu zaostává. Pokud jste si grafickou kartu koupili nedávno, je pravděpodobné, že alespoň část systému je již připravena na změny.

Kdy se HDR objeví v počítačových hrách?

Nejtěžší otázka zní - co to všechno znamená pro hráče? Zatímco některé nové produkty budou vydány s podporou HDR, starší hry nebudou bez některých oprav podporovat bohatší možnosti barev a kontrastu. Tyto starší hry mohou hrát dobře na systémech vybavených HDR, ale bez přidání nových kódů neuvidíte žádné zlepšení.

Naštěstí použití špičkové technologie nevyžaduje úplné přepsání softwaru. Lze použít poměrně jednoduchý proces zobrazení bez významného úsilí, které rozšiřuje barevné mapy SDR na rozsahy HDR.

To znamená, že v budoucnu bude možné populární hry opravit přidáním podpory HDR nebo je na nich remixovat a dandies se vrátí ke klasice, na kterou se vývojáři nebudou dívat. Na rozdíl od simulovaného nebo průměrovaného HDR, který se používal v raných verzích her nebo fotografií, si HDR hardware již získává popularitu v zábavním průmyslu. Stále však musíte usilovat o ideál.

Skutečným problémem, kterému dnes čelí hráči PC se zájmem o HDR, je to, že platforma takové technologie nemá. Nvidia vyvíjí patch pro Rise of Tomb Raider. Kromě toho mohou hry podporující HDR na konzolách počkat na verze vhodné pro PC (například Forza, Battlefield, Gears of War a další). Ale o tom nemůžeme s jistotou vědět.


vlevo - režim HDR, vpravo - standardní

Dokud takové opravy a hry nebudou k dispozici, uživatelé Blu-ray a konzoly jako první ocení vylepšené vizuální prvky. Takže si můžete odpočinout. Než HDR zasáhne PC, bude to chvíli trvat, takže zatím si jen užívejte katalog ve službě Steam a počkejte.

Žádné související články

Dynamický rozsah je důležitější než 4K.

Do záložek

Na displeji SDR není možné vidět HDR, takže obvykle je při takovém srovnání obraz vlevo záměrně degradován, takže podstata je jasná

4K konečně zasáhlo masy jako standard. Můžeme bezpečně označit rok 2017 za ten zlomový bod v historii, kdy se toto povolení stalo skutečně spotřebitelským. Cena panelů klesla pod 500 $ i pro velké úhlopříčky a samotný obsah, i když s interferenčním uložením, začal splňovat nezbytné požadavky.

Konzoly zde poskytly neocenitelnou podporu. Příchod PS4 Pro a Xbox One X výrazně urychlil přijetí 4K obrazovek. Postupně (ale ne bez spousty výhrad) se rozsáhlá hollywoodská filmová knihovna překládá do 4K. Téměř všechny původní pořady Netflix již lze prohlížet ve slušném Ultra HD.

Rozdíl mezi 4K a Full HD

Je ale v televizi skutečně nutné rozlišení 4K? Na monitoru, který je nejčastěji pár desítek centimetrů od očí, se obraz ve Full HD začíná „rozpadat“ na pixely již na 27 palcích. Z tohoto důvodu jsou stále populárnější Retina / 5K a dokonce i 1440p.

Mezi diváky je adaptace pomalejší, protože ze tří metrů bude alespoň nějaký rozdíl viditelný pouze ze 43 palců, a v ideálním případě, abyste ospravedlnili nákup 4K televizoru, budete muset vzít úhlopříčku více než 49 palců. Je zřejmé, že takový luxus je pro většinu ruských bytů špatně dostupný, i když jsou peníze - někdy prostě není kam umístit obrovský televizor.

Přehnané porozumění HDR

Autor článku se trápil přibližně stejnými myšlenkami, než si koupil nový televizor. Získejte dobré FHD a Bůh mu žehnej s touto 4K? Myšlenka je rozumná pouze na první pohled, protože HDR je také připojeno k rozlišení na decentních panelech. A tato zdánlivě málo propagovaná technologie se opravdu cítí jako skutečný skok v kvalitě obrazu, i když pro tyto standardy není tolik obsahu, kolik bychom chtěli.

Účelem materiálu je jednoduše a snadno říct, co je HDR a jak jej používat. Podívejme se blíže na to, jak by mohl vypadat proces nákupu a instalace televizoru 4K a HDR na materiál DTF.

Co je HDR a proč je potřeba

Jasný rozdíl

Za prvé, samotný pojem HDR zní jako neohrabaný vtip marketingu. Vytváří zbytečný zmatek hned po vybalení z krabice. HDR, který je v televizích, nemá nic společného s technologií s podobným názvem ve smartphonech nebo fotoaparátech. Pokud mluvíme o fotografiích, pak HDR je kombinací několika obrázků s různou expozicí, kde je cílem dosáhnout nejrovnoměrnější verze ve stínech a světle.

S videem tomu tak není - mluvíme zde o celkovém množství informací. Před příchodem HDR byl standard pro obrázky, včetně Blu-ray, 8bitový. To je dobrá barevná škála, ale moderní panely, zejména OLED, dokážou zobrazit mnohem více odstínů, přechodů a barev, než umožňují 8bitové zdroje.

K vyřešení tohoto problému je navržen nový 10bitový standard, který umožňuje přenášet podstatně více informací o jasu, sytosti, hloubce a barvě zobrazené scény. Byl pro něj vyvinut nový protokol HDMI 2.0.

Ale nespěchejte, abyste vyměnili všechny vodiče společně s televizorem! Starší kabely jsou kompatibilní s HDMI 2.0a, bez ohledu na to, jak špatní jsou vaši obchodníci. Hlavní věc je, že by měly být označeny „High Speed \u200b\u200bwith Ethernet“. Záleží nám jen na šířce pásma - samotné konektory se nezměnily.

V době psaní tohoto článku je HDR v televizi zaostřeno přesně na 10 bitů, ačkoli standard pro digitální natáčení je 14 bit RAW (u filmu dokonce vyšší), takže ani moderní panely nejsou ani zdaleka plně schopny zobrazovat informace, které ředitelé a redaktoři obrázky.

Dobře, ale co to dělá v praxi?

Příklad HDR vs SDR založený na Uncharted 4

Slunce začíná svítit ve scénách znatelně jasnějších, je zřejmé, že v jednom snímku může být několik světelných zdrojů s různým jasem a sytostí. Problém s pixelací polotónů v tmavých scénách zmizí a přechody a složité barevné směsi nabývají na objemu. Obloha již není přeexponovaná a splývá se zemí na obzoru. Stručně řečeno, obraz vidíte více na vlastní oči než na omezený okulár fotoaparátu.

Největším přínosem této technologie jsou v současné době videohry, kde se konečně víceméně správně zobrazuje různá osvětlení v reálném čase. V kině hodně záleží na kvalitě zpracování zdroje pro HDR a je zde spousta očividné hackerské práce, ale nyní existují standardní obrázky pro formát, jako jsou Guardians of the Galaxy 2 nebo John Wick 2.

Výrobci televizorů jsou vašimi nepřáteli

Dosud je HDR, jako každá špičková technologie, divokým západem. Štítek „HDR Ready“ se objeví na všech nových televizorech, ať už jsou schopné adekvátně zobrazovat 10bitové nebo ne. Mezi skutečným televizorem HDR a panelem, který jednoduše zobrazuje obsah HDR, je převzorkován na 8bitový a jen šikanuje barvy a kontrast, je velký rozdíl.

Někdy je těžké zjistit výrobce. Podívejte se, zda je panel deklarován jako 10bitový a zda splňuje otevřený standard HDR10. Jistým znakem skutečného panelu HDR je podpora Wide Color Gamut. Bez něj HDR ztrácí veškerý praktický význam.

Významná část LCD televizorů využívá aktivní 8bitové panely, které „promyšlejí“ barvy pomocí speciálních algoritmů. HDR obraz na takových panelech je o něco horší než OLED, ale také stojí podstatně méně.

Návrat „bitových“ válek

V kterékoli fázi vývoje obrazu nutně nastává válka norem. Pokud ale v případě bitvy Blu-Ray a HD-DVD vše skončilo neúspěchem druhé, včetně těch, kteří si koupili hardware, pak bitva HDR10 proti Dolby Vision HDR pravděpodobně skončí nekrvavým losováním.

Standard HDR10 reprodukuje méně barev a podporuje pouze 10 bitů, ale je zcela otevřený. Dolby lépe zachovává odstíny a rozšiřuje se na 12 bitů, ale je obtížnější je sledovat a implementovat. V každém případě je problém podpory konkrétní technologie vyřešen jednoduchou softwarovou opravou a stejné hry již de facto pracují s HDR10, protože si je pro své konzoly vybrala společnost Sony i Microsoft.

Samotné televizory vám často umožňují používat několik standardů najednou, takže byste se s tím teď neměli obtěžovat.

Na co se dívat

Pokud mluvíme o obrazovce, pak je samozřejmě lepší vzít si OLED a jeho analogy. Získáte hlubokou černou a plnou podporu pro všechna kouzla HDR. Pokud vám peněženka neumožňuje upustit asi 80 tisíc na špičkovém televizoru, neměli byste zoufat. Modely LCD z roku 2017 konečně překonaly dětské vředy a okamžitě si všimnete rozdílu mezi HDR a SDR, i když ztrácíte stupně černé a jasu. Autor tohoto článku má LCD panel s podporou HDR a mohu vás ujistit, že rozdíl od obsahu ve standardních barvách je viditelný od prvních sekund.

Pokud mluvíme o zdroji, pak všechny moderní herní konzoly produkují HDR tak či onak (kromě Switch a „tlustého“ Xbox One). PS4 vydává pouze HDR (bez 4K) a Xbox One S / X vám umožňuje přehrávat disky UHD i streamovat nativní 4K HDR přímo do vaší televize. Ze služeb online standard již podporuje Netflix a Amazon a Netflix obsahuje knihovnu pro HDR10 i obsah v Dolby Vision.

Na co se dívat

Veškerý původní obsah Netflixu od roku 2016, plus všechny 4K filmy, které studia vydávají na discích a digitálech. Sbírka filmů Christophera Nolana bude brzy v prodeji, jejíž proces digitalizace řídil sám režisér. Stejně jako u The Dark Knight na Blu-Ray bude jistě nastavovat standard pro UHD mastery a HDR pro nadcházející roky.

Co hrát?

Značný počet her podporuje HDR i na „základních“ konzolách. Hry jako Horizon Zero Dawn, Uncharted 4 a Gran Turismo Sport jsou obzvláště živé (omlouvám se za hříčku).

Ten druhý byl vytvořen pro HDR od nuly, a proto zdůrazňuje všechny výhody rozšířeného rozsahu jasu a barev. Speciálně pro GT Sport vyvinula společnost Polyphony Digital HDR kamery pro zachycení skutečného obrazu a jeho následnou kalibraci pro herní. A počet barev, které hra dosud zobrazuje, převyšuje možnosti i těch nejdražších panelů. To, čemu se říká měřítko „pro růst“.

Ne všechny hry jsou však pro HDR přizpůsobeny stejně dobře, proto si přečtěte recenze na internetu a sledujte recenze Digital Foundry. Není však třeba se obávat, protože vývojáři stále lépe chápou možnosti rozšířeného rozsahu, a proto bude kvalita obsahu konzoly pouze růst.

V tuto chvíli to na PC není tak plynulé. S HDR není mnoho her a samotný obrazový výstup je spojen s barevnými problémy na úrovni systému (křivé ovladače, Windows vtipy atd.). Zkušenosti autora s balíkem HDR / Windows 10 byly rozporuplné. Kromě toho populární hráči zatím s HDR nepracují dobře, takže si musíte počkat. Jak ukazuje rychlost 3D adaptace na PC, rozumná implementace HDR na počítačích by se měla očekávat přibližně za šest měsíců. A knihovna to dohoní.

Je všechno tak dobré a jaké jsou nevýhody?

Kalibrační tabulky ve hrách obvykle vypadají jednodušší.

V současné fázi má HDR také dostatek nevýhod, ale vyjmenuji několik kritických.

  • Vaše zařízení pravděpodobně není připraveno na HDMI 2.0a a HDCP 2.2, takže téměř jistě budete muset vyměnit přijímač spolu s televizorem. Čelil jsem tomu (PS VR první revize), čelil tomu i Vadim (přijímač s HDMI 1.4).
  • Pokud se vám zdá, že HDR kazí obraz nebo selhává barvy, je třeba obrazovku kalibrovat. Některé hry nabízejí pohodlné kalibrační nástroje (CoD WWII, GT Sport), ale zatím se musíte v této věci většinou spoléhat na svůj vlastní instinkt. Moje rada: v některých spusťte hru složitýpodle barev a jasné scény nebo naopak, vyberte noční úroveň za soumraku. To vám umožní rychle nastavit novou skvělou televizi a ušetřit vás z počáteční frustrace a frustrace.

Nadešel čas

10-bit není limit, ale po dvou týdnech s HDR TV se bez nadšení vrátíte k běžným hrám nebo filmům. Je to o to příjemnější, že letos HDR přestal být spoustou geeků a pytlů peněz a konečně se dostal na veřejnost. Tato technologie se stane lepší a srozumitelnější, ale pokud byste čekali, až „právě ten okamžik“ změní váš televizor - pak je tu skvělý čas konečně vidět virtuální světy ve všech barvách.

Napište zprávu