Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 82 reacties

De AMD Radeon Technologies Group heeft op zijn Technology Summit meer informatie bekendgemaakt over functies die gpu's komend jaar zullen krijgen. Nieuwe videokaarten zullen worden uitgerust met displayport 1.3 en hdmi 2.0. Ook komt er hdr-ondersteuning.

Hoewel AMD geen concreet nieuws naar buiten heeft gebracht over de videokaarten die in 2016 zullen verschijnen, gaf het bedrijf uitgebreide informatie over een aantal van de mogelijkheden die gpu's volgend jaar zullen ondersteunen. Onder andere Anandtech was aanwezig bij de presentatie voor de pers.

AMD legt de focus op 'betere pixels', een trend die Tweakers begin dit jaar ook opmerkte bij tv's. AMD gaat zijn videokaarten uitrusten met ondersteuning voor hdr-weergave. Om dergelijke high dynamic range-beelden te vertonen, moet echter ook een hdr-monitor of -televisie gebruikt worden. Momenteel lijkt deze ontwikkeling alleen nog plaats te vinden op gebied van televisies en zijn er nog geen hdr-monitoren aangekondigd. AMD merkt op dat Hollywood de content al heeft en verwacht in de tweede helft van 2016 meer producten met hdr-ondersteuning op de markt.

Niet alleen nieuwe AMD Radeon-kaarten, maar ook de gpu's uit de huidige R9 300-serie zullen in 2016 hdr-ondersteuning krijgen. De maximale ondersteunde resoluties en framerates zullen voor de kaarten van de huidige generaties wel lager zijn, gezien er voor hdr-weergave meer bandbreedte nodig is. Middels displayport 1.2 kan hdr-materiaal in 4k-resolutie met maximaal 30Hz worden weergegeven. Bij lagere resoluties loopt dat echter op, tot 120Hz bij full-hd.

AMD Radeon 2016 - HDR

Radeon-gpu's die AMD in 2016 uitbrengt, zullen voorzien worden van hdmi 2.0 en displayport 1.3. Die laatstgenoemde aansluiting biedt met 32,4Gbit/s een veel hogere bandbreedte dan de 1.2-variant en dat heeft een aantal voordelen. Zo wordt het bijvoorbeeld mogelijk om een scherm met 5k-resolutie van 5120x2880 pixels met een enkele kabel aan te sluiten. De huidige 5k-schermen van Dell en HP dienen met twee displayport 1.2-kabels aangesloten te worden. AMD verwacht dat er halverwege 2016 monitoren met 5k-resolutie op de markt komen die met een enkele kabel aangesloten kunnen worden.

Displayport 1.3 opent ook de weg voor 4k-schermen met een hogere verversingssnelheid. Momenteel zijn monitoren met resolutie van 3840x2160 pixels beperkt tot maximaal 60Hz, vanwege de beschikbare bandbreedte van displayport 1.2. Met de nieuwe 1.3-standaard zijn refreshrates tot 120Hz mogelijk bij 4k-resolutie. Ultra-wide-monitoren met 3440x1440 pixels kunnen een maximale verversingssnelheid van 190Hz krijgen, bij 1080p-schermen loopt dat op tot 240Hz. 4k-monitoren met snelheid van 120Hz komen volgens AMD in het laatste kwartaal van 2016 uit.

AMD heeft ook FreeSync-ondersteuning over hdmi aangekondigd. Momenteel werkt FreeSync alleen bij gebruik van de displayport-aansluiting. Vanaf het eerste kwartaal van 2016 zullen er monitoren uitkomen die ook FreeSync via hdmi bieden. AMD heeft een lijst gemaakt van dergelijke beeldschermen, hierop staan diverse monitoren die nog niet door de fabrikanten zijn aangekondigd. Zo zien we een 34"-monitor van Samsung met resolutie van 3440x1440 pixels. LG komt met de 34UM58A, een 34"-scherm met resolutie van 2560x1080 pixels, hiervan verschijnt ook een 29"-variant. Samsung komt verder met diverse 1080p-monitoren in kleine en grote formaten, waarschijnlijk in het budgetsegment.

Hoewel AMD opvallend veel informatie heeft vrijgegeven over wat er komend jaar is te verwachten, bevat de presentatie geen verdere details over de gpu's die in 2016 zullen verschijnen. 2016 wordt een belangrijk jaar voor AMD. Het bedrijf zal dan een nieuwe gpu-generatie uitbrengen waarvan de prestaties per watt twee keer zo hoog zouden moeten zijn als bij de huidige kaarten, die op de gcn-architectuur zijn gebaseerd. De nieuwe gpu's zullen op een finfet-procedé gemaakt worden en krijgen een nieuwe architectuur, wat ze veel efficiënter moet maken. Net als de R9 Fury-kaarten zullen de nieuwe gpu's gebruikmaken van high bandwidth memory.

Daarnaast komt AMD's Zen-processorgeneratie in 2016 uit. Zen is de nieuwe architectuur voor high-end processors van het merk, die de huidige FX-lijn moet opvolgen. De cpu's met Zen-cores zouden 40 procent meer instructies per kloktik af kunnen handelen dan de huidige Excavator-cores dat kunnen. In oktober zei AMD bij de presentatie van de kwartaalcijfers op koers te liggen voor deze beloofde toename.

AMD RTG Technology SummitAMD RTG Technology SummitAMD RTG Technology SummitAMD RTG Technology SummitAMD RTG Technology SummitAMD RTG Technology SummitAMD RTG Technology SummitAMD RTG Technology SummitAMD RTG Technology SummitAMD RTG Technology SummitAMD RTG Technology SummitAMD RTG Technology SummitAMD RTG Technology Summit

Moderatie-faq Wijzig weergave

Reacties (82)

Mooi, om te weten wacht dan nog even met het aanschaffen van een Gpu ter vervanging van mijn HD7870XT. Je wil niet over 3/4 maanden al weer achter lopen terwijl er als was aangekondogt dat er een betere en nieuwere serie in de wacht staat. :)
ik zou ook iedereen aanraden om, als je niet per see nu een nieuwe kaart nodig hebt, nog even te wachten op 16/14nm. De prestatie sprong gaat met deze volgende generatie heel hoog zijn. flink hoger als dat we gewend zijn in GPU land.

het gaat volgens de geruchten wel nog tot de zomer van 2016 duren voor deze kaarten er zijn overigens.

[Reactie gewijzigd door Countess op 8 december 2015 20:51]

Dat is de enige reden inderdaad. Normaliter is wachten vrij zinloos, omdat er altijd wel nieuwe hardware zit aan te komen en je je tijdens het wachten moet behelpen met je oude hardware die vaak veel inferieurder is dan wat er op dat moment te koop is.

Maar in de huidige situatie... waar GPU's al veel te lang op 28nm geproduceerd worden, gaat een stap naar 16/14nm een vrij grote dreun tot gevolg hebben. Zeker als je reeds 28nm-apparatuur hebt, hoewel mogelijk niet de laatste generatie, is wachten op dit moment verstandig.
ik probeer mijn aankopen van GPU's zo veel mogelijk samen te laten vallen met een process upgrade. dat heb je gewoon meestal het meeste waar voor je geld, en verouderen ze minder snel.

[Reactie gewijzigd door Countess op 8 december 2015 23:36]

Daar had ik helaas geen geld voor heb heel me pc vernieuwd met nieuwe behuizing alles. Behalve de gpu om dat ik daar geen geld meer voor had. :( Maar is snap wat je bedoeld. Uk heb nu een i5 5675C met 16gb 1866mhz ram en een HD7870XT die bijna max overclocked is om de prestatie gelijkenis te vatten.
redelijk offtopic, maar betekent dp 1.3 240hz 1080p en 1440p monitoren? hoogste refresh rate monitor in de pricewatch is 165hz maar die is ips en ULMB werkt alleen op 120hz of lager.
Heel erg kort door de bocht is het een simpel bandbreedte sommetje. Per seconde kunnen een maximaal aantal pixels verstuurd worden voordat het digitale kloksignaal te hoog wordt. Of je die verdeeld over meer pixels per frame, of meer frames met minder pixels, dat maakt voor de standaard niet uit. Op 640x480 kan de verversingssnelheid dus nog veel hoger ;)
wel apart dat UHD HDR niet bijv op 90 fps kan maar gecapped wordt op 60
terwijl 8-10 bit niet een enorme sprong in data is,
UHD framebuffer is 3840 * 2160 = 8294400 pixels:
als we daarmee verder rekenen krijgen we dus:

SDR = 8294400 * 8*3 = 199065600 bits/frame
HDR = 8294400 * 10*3 = 248832000 bits/frame

SDR120 = 199065600 * 120 = 23887872000 bits/seconde 24Gb/s
HDR60 = 248832000 * 60 = 14929920000 bits/seconde 15Gb/s
HDR90 = 248832000 * 90 = 22394880000 bits/seconde 22 Gb/s

90FPS HDR is dus lagere bandbreedte dan SDR 120FPS,
aparte keuze om te cappen op 60FPS HDR dus... gezien men zou dus in theorie 90FPS op HDR prima moeten kunnen doen met minder bandbreedte, mogelijk een issue met de scalars?

verder ook nog apart is dat DP3 32.4 Gbps aan bandbreedte heeft (voor de overhead)
dus zelfs 120FPS 4K zou theoretisch moeten kunnen:
HDR120 = 248832000 * 90 = 29859840000 bits/seconde 30 Gb/s

maar dat komt wel dicht bij de theororetische limiet,
HDR UHD 90 echter zou prima moeten kunnen

[Reactie gewijzigd door freaq op 9 december 2015 03:53]

Ook gezien dat framerate van best wat 4k tv's beperkt is? Waarschijnlijk omdat anders in de 4k tv de benodigde reken en bandbreedte de spuigaten uit loopt.
240hz is natuurlijk mooi voor VR brillen, waar je hoge refreshrate per oog hebt. Dus dubbel zoveel frames.
vr kan inderdaad een goede reden zijn om hogere refresh panelen te maken, maar de vraag of ze dit ook voor 27inch pc monitoren gaan ontwikkelen.
Anders maar een crt vr bril?
"crt vr bril"
hahahah.

Meestal gaat producenten proberen hun producten in zoveel mogelijk dingen stoppen. Als productie omhoog kan (omdat het product in meer apparaten zit), dan gaan de kosten sneller omlaag en worden ontwikkelingen (verbeteringen) ook sneller gedaan, en natuurlijk, mooi marketing getal, die refresh rate.
niet per see, het wil alleen zeggen dat met DP1.3 zulke hogere refresh rates mogelijk zijn omdat er de bandbreedte voor is. Als fabrikanten denken dat soort monitoren te kunnen maken en ook kunnen verkopen dan zullen ze er komen. en anders niet.
fingers crossed dan maar :9, resolutie maakt mij geen bal uit, maar refresh rate wel. Monitor makers gaan naar mijn mening meer geven op kleuren dan op snelheid zoals te zien is met de ips game monitoren, waar ik persoonlijk niets mee heb omdat gtg gewoon vele malen hoger ligt.
maar waarom zou je zo'n hoge refreshrate willen?
Zo min mogelijk ghosting en tot nu toe is hoe hoger de refresh rate hoe beter voor mijn gevoel(moet je natuurlijk ook wel genoeg fps hebben). Onder de 100hz is gewoon vervelend en daarboven wordt het steeds beter. Kan niet voorstellen dat een hogere hz een nadeel zou kunnen zijn.
niet erg boeiend de meeste content is minder dan 30 fps dus 30 hz op 4k voor hdr is genoeg.

Dus weer eerder een verkoop praatje dan echt nuttig.
maar als het nvidia is dus hdmi2.0 heeft waarmee 4k @60hz kan maar AMD niet dan is 60hz ineens het belangrijkste wat er is.
Verder snap ik niet waarom een hdr content film meer data zou zijn als je dit gewoon in 1 file pleurt zoals mijn software dat doet.
Duidelijk hdr beeld maar evenveel data.
omdat er meer data per pixel moet worden verstuurd. dat hoeft geŽncodeerd niet veel extra ruimte te kosten, maar om het naar de monitor te sturen wel.
Leuk en interessant maar wat gaan ze kosten en hoeveel stroom gaan ze vreten.
Ze moeten toch max 80 watt verbruiken en minder dan 300 euro kosten en daarbij even snel of sneller zijn als een 6600k om interessant te zijn.
er komen zens die het met de i'3s moeten concurreren en er komen zen's die het met de i7's aan de stok gaan krijgen. ze hoeven helemaal niet aan al jouw eisen te voldoen om interessant te zijn. met zen zal AMD hoe dan ook beter kunnen concurreren op een veel groter deel van de market en daarmee dus broodnodig marktaandeel kunnen winnen.

een voordeel heeft AMD al wel tegenover de i5's: AMD gaat niet SMT (wat intel ht noemt) uit zetten om artificieel meer onderscheid tussen hun CPU's te creŽren. dat hebben ze tot nu toe nog nooit gedaan ten minste.

[Reactie gewijzigd door Countess op 8 december 2015 21:16]

4k 60hz lijkt mij voornamelijk van belang voor 4k-3D. Er zijn al apparaten waarmee je 4k-3D met 120 hz kan opnemen. Hiermee bereik je dat 3D er beter uit gaat zien dan nu met 48hz. (2 x 24).
Veel mensen vonden dat The Hobbit er niet zo mooi uitzag in 48hz. 120 hz moet dat gemakkelijk kunnen overbruggen, denkt men.


http://4k.com/news/powerf...sed-avatar-sequels-maybe/

[Reactie gewijzigd door Tourmaline op 9 december 2015 00:27]

De gemiddelde tv in nederland draait toch ook op 50 of 60hz? Waarom zouden ze dan tv's maken die meer dan 30hz kunnen weergeven?

Bovendien ben ik het niet eens met je uitspraken maar dat is een heel ander verhaal.
In principe heb je niets aan die 50 of 60 hz als de content maar 29,97 vereist.

Je kan wel 50 of 60 keer gaan verversen maar dan ververs je exact dezelfde frames en haalt het dus niets uit.
Maar waarom maken tv makers dan 50 en 60hz panelen? Dat kost waarschijnlijk meer om te maken?

Ookal is je content 30fps, dan nog is het naar mijn mening verschrikkelijk om een monitor op 30hz te gebruiken. 60 en 120hz is ook al groot voor puur muisgebruik. Volgens mij geld hdr namelijk niet alleen voor tv's.

Edit: tekst toegevoegd

[Reactie gewijzigd door iTr0_0oW op 10 december 2015 09:52]

Voor een tv kijken of en film kijken niets uit.

Het probleem begint wanneer je een console of laptop aansluit die wel meer dan 30 fps nodig heeft om soepel te draaien.

Daarom maken ze dus 50 en 60 hz panelen.
Niet omdat je hdr video content meer dan 30 hz nodig heeft.
Voor tvs maakt het dan inderdaad denk niet uit, maar dat maat hrt niet onnuttig.
ik zie ips nog niet boven de 60 hz uitkomen dus ook dat lijkt me niet boeiend.
Momenteel heeft Asus al 120 Hz en 144Hz QHD-IPS-schermen; het zal niet zo lang duren vooraleer die er ook zijn in UHD-resolutie.
Maar op QHD speelt dit hele verhaal niet dit is juist alleen zogenaamd interresant voor 4k.

Maar ja we gaan het zien.

Vooruitgang is goed maar doen alsof het op dit moment game breakend is is wat overdreven.
Voorlopig denk ik dat de eerste 2 jaar dat hele zooitje als het al komt compleet niet betaalbaar is.
Hopelijk gaat Nvidia nu even nadenken en misschien toch 10bit (30bit) voor de 'desktop' kaarten mogelijk maken.

Mijn huidige scherm ondersteunt het, en ik heb zelfs de optie 10bit maar helaas werkt het alleen op Quadro kaarten. Heb geen zin om een hardware mod uit te voeren alvorens ik een Quadro driver kan installeren op mijn Kepler.

Het is eigenlijk gewoon een artificiele driver limitatie.

[Reactie gewijzigd door Marctraider op 8 december 2015 19:49]

AMD heeft met HBM veel geheugenbandbreedte. Het is voor AMD dan ook nuttig de nadruk te leggen op functionaliteit die druk legt op de geheugenbandbreedte, zoals 4K en HDR. Nvidia heeft nog geen HBM en gezien AMD er patenten op heeft is er kans dat Nvidia zodra ze te hebben er aanvankelijk niet te veel kaarten mee uitrust. Daarmee moet je de vraag stellen of het voor Nvidia verstandig gaat zijn om veel nadruk te leggen op HDR.
Persoonlijk vind ik hdmi 2.0 belangrijker dan displayport.
AMD heeft een goede naam voor HTPC's e.d. door een goede kleurweergave. Beter dan Nvidia. HDMI 2.0 vind ik derhalve zeer belangrijk voor 4k weergave en HDR.

Eind dit jaar begin volgend jaar gaat 4k in een stroomversnelling op de markt komen. Dan zijn graka's die dat ook kunnen ondersteunen van belang. Dit geeft 4k de kans om ook beter uit de verf te komen. Dan KOMT waarschijnlijk HBM ook beter uit de verf omdat je dan meer geheugenbandbreedte nodig hebt.

[Reactie gewijzigd door Tourmaline op 9 december 2015 00:16]

Een hardware mod kan wel interessant zijn wanneer je meerdere schermen gebruikt icm SLI.
Wanneer je GTX-kaarten in SLI zet, zijn enkel de uitgangen van de eerste kaart bruikbaar. Bij Quadro-kaarten is die beperking er niet.

Wat dat betreft speelt nVidia smerige spelletjes. Privť ga ik daarom al jaren voor AMD. Naar mijn mening krijg je bij AMD meer waar voor je geld.
Spannend, maar voorlopig gebeurt er nog even weinig. Zen komt in de 2e helft pas, en ik verwacht de r400-serie ook nog lang niet. Rond de zomervakantie weten we meer, maar het lijkt alsof we eindelijk netjes 4k kunnen gebruiken (30 Hz is het gewoon niet, sorry). Nu nog TVs vinden (en monitoren) met DP1.3, en dan zitten we niet meer standaard vast aan HDMI 2, wat ook nog brak ondersteund wordt...
DP1.2 kan al 4k op 60hz aan, maar niet meer in combinatie met HDR.

[Reactie gewijzigd door Countess op 8 december 2015 23:37]

Je moet precies voor NVIDIA of voor AMD zijn. Als de een met iets nieuws komt dan wordt het afgebroken door de ander en omgekeerd.. Wees eens blij dat deze 2 spelers vernieuwing brengen. Ze hebben quasi een monopoly dus waarom eigenlijk innoveren?

Door de concurrentie drijven ze elkaar naar een hoger niveau en daar moeten we als consument blij om zijn!
Nou de grootste innovatie is eigenlijk de API? Mantle heeft geleid dat er nu DX12 en Vulkan komen. Een API die dichter op de hardware zit. Maar ook effectief multicore ondersteund.
Want DX11 is al multicore maar brak implementatie.
Daarnaast driver team werk van game herkenning en shader recompile . Wegvalt en de dev die verantwoordelijkheid krijgen en ook over de GPU resources.
Dat maakt DX12 en Vulkan ook een moeilijk API gezien extra werk en verantwordelijkheid. Dus het vervangt DX11 niet aangezien groot deel van de game industry genoeg heeft aan Dx11 gezien deze API tov DX12 stuk meer toegankelijk is.

Gezien GCN 1.2 al meer bied dan FL_ 12_0
Verwacht dat ook die niet complete nV gepushte FL_12_1 ondersteund worden. Hoeven ze niet extreem aan architectuur te sleutelen.
NV pascal hun ACE implementatie of afwezigheid moet nu met DX12/vulkan in gedachte opgewaardeerd worden. Dus waren ze op tijd of spoed rework zodat pascal ACE capable is. Of was al opgewaardeerd.
Ja wordt spannend volgend jaar.
ik ben van VGA overgestapt naar displaypoort (CTR na 4K)
HDMI en DVI overgeslagen kwa monitors

ik ben wel benieuwd wat AMD in 2016 gaat bieden. ik hoop een enkele GPU met ongeveer 7Tflop
ik zoek een vervanger van mijn 7870 crossfire setup voor een enkele kaart .
hopen op HBM2 met 8GB kaarten
Ik heb pas een r9 380 4gb gekocht omdat mijn gtx 560 1gb de games gewoon niet meer trok. Ik heb expres een mid kaart gekozen. Ivm opkomst 400 serie en Pascal. Daar wacht ik op een kaart met 6 of 8gb hbm en stukke kleinere procs. Eind 2016 ga ik voor een r9 490x of gtx tegen hanger. Mij boeit die paar watt per jaar die ik extra vebruik als ik daar weer extra performance uit krijg voor minder geld doe ik dat. In idl is zelfs de 300 serie zuiniger dan nvidia dus gaat alleen over ingame met 15 tot 50 watt meer en 50watt met full load. Nou als ik zo zuinig met centjes wil zijn koop ik wel een PlayStation en game ik half uur per dag dan 3 uurtjes. :p

Zowel AMD als nvidia hebben mij teleurgesteld met hun kaarten.

Gtx 970 met 3.5gb en langzaam 0.5gb
Fury x die aan alle kante (behalve op 4k) word in gehaald door 980 ti
380x soms slechter dan 280x en maar max 5fps meer dan de 380. Had dan 30 euro goedkopere 390 gemaakt met 4gb of 6gb
De gtx 960 4gb geeft hellemaal geen prestaties ivm veel te smalle bus..

Drivers zijn dit keer heel vaak in nieuws op Tweakers geweest laatst was de crismos driver van AMD daar voor nvidia met hun laptop drivers.
De titel van deze artikel is verkeerd.
Radeon Technologies Group zegt dat de videokaarten HDR al ondersteunen. Ze hebben alleen fabrikanten geactiveerd om de juiste technologie te implementeren om HDR echt werkend te krijgen op hardware niveau. De huidige HDR tecnieken zijn voor softwarematige en werken soms niet.
High Dynamic Range is mininaal 10 bit per color met grote range in nits. Alle AMD kaarten vanaf 59xx series hebben HDR support. Nvidia heeft alleen in zijn professionele kaarten support for HDR. Het is dus vooral de fabrikanten van beeldscherm die achter blijven.
Ik lees het zo niet terug in dit artikel, maar in het artikel van Anandtech wordt ook aangegeven dat de Radeon Technologies Group voor HDR ondersteuning moet gaan bieden voor bredere kleurenprofielen. sRGB is namelijk niet geschikt hiervoor. Ze ondersteunen al AdobeRGB en willen met de tijd BT.2020 gaan ondersteunen. Hier een link naar het stuk hierover in het artikel van Anantech: http://www.anandtech.com/...ls-2016-vistech-roadmap/3

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True