Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Julian Huijbregts

Nieuwsredacteur

Ryzen 3000 en Radeon RX 5700 Preview

Alle details over AMD's nieuwste cpu's en gpu's

Inleiding

Al ruim een halfjaar lang warmt AMD pc-enthousiastelingen op voor de komst van nieuwe Ryzen-processors en Radeon-videokaarten. Zo werd op de CES-beurs in januari een tipje van de sluier opgelicht over de derde generatie Ryzen-processors en ook werd toen de eerste 7nm-gpu aangekondigd, al ging dat nog om een Vega-kaart en dus geen nieuwe architectuur.

Op de Computex-beurs eind mei onthulde AMD grotendeels de line-up van zijn Ryzen 3000-processors en werd de komst van de Radeon RX 5700-serie bekendgemaakt. Dat zijn videokaarten met een Navi-gpu gebaseerd op de nieuwe RDNA-architectuur. Met technische details was AMD echter spaarzaam; alleen in grote lijnen werden de specificaties van de processors bekendgemaakt en over gpu's zei AMD nog vrijwel niets.

Nu tijdens de E3 is daar verandering in gekomen. AMD kondigde op de gamebeurs zijn Ryzen 9 3950X-topmodel met zestien cores aan en presenteerde twee Radeon RX 5700-videokaarten. Bovendien gaf het bedrijf vlak voor de beurs op een besloten evenement waar Tweakers bij aanwezig was uitgebreide technische achtergrondinformatie over de nieuwe processors en videokaarten.

Vanaf juli liggen de nieuwe processors en videokaarten in de winkels. Testexemplaren zijn nog niet voorhanden en het is dus ook nog niet mogelijk om onafhankelijke benchmarks uit te voeren, maar aan de hand van de informatie die AMD heeft gegeven blikken we in dit artikel vooruit op de nieuwe producten en duiken we in de bijbehorende architecturen.

Radeon RX 5700XT en RX 5700

We beginnen met de videokaarten, want daar heeft AMD tot nu toe het minst over losgelaten. Concreet weten we nu dat er in juli twee videokaarten met een op 7nm gemaakte Navi-gpu op de markt komen: de Radeon RX 5700XT en de RX 5700. Het zijn de eerste videokaarten die gebaseerd zijn op de RDNA-architectuur, die AMD presenteert als de opvolger van de GCN-architectuur waarop het sinds 2012 zijn videokaarten heeft gebaseerd.

AMD zet RX 5700-kaarten in de markt als gpu's voor gamen op een 1440p-resolutie en in benchmarks van de fabrikant worden de kaarten afgezet tegen de Nvidia GeForce RTX 2070 en de RTX 2060. In tegenstelling tot die Nvidia-kaarten hebben de Radeon-kaarten echter geen hardware aan boord voor raytracing.

Met adviesprijzen van 449 en 379 dollar wijken de prijzen van de Radeon-kaarten niet veel af van die van de Nvidia-tegenhangers. De RTX 2070 staat in de Pricewatch vanaf zo'n 470 euro en RTX 2060-kaarten zijn er vanaf zo'n 350 euro. De europrijzen van de AMD-kaarten zijn nog niet bekend, maar omgerekend met toevoeging van btw komen de prijzen uit op 480 en 405 euro.

Beide videokaarten zijn gebaseerd op de Navi 10-gpu die op 7nm wordt gemaakt. Bij de RX 5700XT-videokaart is de volledige gpu geactiveerd, wat betekent dat er 40 compute units beschikbaar zijn. De lager gepositioneerde RX 5700 heeft 36 compute units en die zijn ook lager geklokt. Beide kaarten hebben 8GB gddr6-geheugen; volgens AMD is dat ook het minimum voor een gpu die in staat moet zijn om moderne games in een 1440p-resolutie te draaien.

Radeon RX 5700XT Radeon RX 5700
Gpu Navi 10 Navi 10
Procedé 7nm 7nm
Compute units 40 36
Streamprocessors 2560 2304
Boost Clock 1905MHz 1725MHz
Game Clock 1755MHz 1625MHz
Base Clock 1605MHz 1465MHz
Geheugen 8GB gddr6 8GB gddr6
Geheugenbus 256bit 256bit
Geheugensnelheid 14Gbit/s 14Gbit/s
Geheugenbandbreedte 448Gbit/s 448Gbit/s
Hdmi-versie 2.0b 2.0b
Displayport-versie 1.4 met dsc 1.4 met dsc
Tdp (board power) 225W 180W
Prijs 449 dollar 379 dollar

AMD komt ook met een speciale RX 5700XT-uitvoering ter ere van zijn vijftigste verjaardag. Die versie krijgt een hogere boostclock van 1980MHz, een gameclock van 1830MHz en een baseclock van 1680MHz. Verder zijn de specificaties gelijk, al heeft AMD niet bekendgemaakt wat de tdp van de speciale uitvoering is. Het jubileummodel wordt alleen verkocht via AMD.com en kost 499 dollar.

Game Clock

AMD geeft voortaan drie kloksnelheden op voor de gpu in plaats van twee. Voorheen was er alleen de boostclock en de baseclock, nieuw is de Game Clock. De kloksnelheid die AMD daarvoor opgeeft moet tijdens langdurige gamesessies aangehouden worden. In de praktijk zal de snelheid ook vaak hoger zijn stelt AMD, maar de genoemde snelheid moet in ieder geval gehaald worden. De boostclock is het maximum in optimale omstandigheden, maar die snelheid zal niet vaak lang aangehouden worden. De baseclock is de snelheid die de gpu bij de maximale belasting in ieder geval kan volhouden.

Het is nog de vraag of fabrikanten die aangepaste RX 5700-videokaarten gaan uitbrengen ook de Game Clock-aanduiding gaan gebruiken. AMD maakt dat niet verplicht, maar geeft het wel als suggestie mee aan fabrikanten. Ook laat AMD doorschemeren dat het eigenlijk van plan was om twee snelheden op te geven en de baseclock laten vallen; maar de juristen van het bedrijf zouden dat geen slimme zet vinden omdat die aanduiding in het verleden vaak is gebruikt en dat nu dus ook gedaan moet worden.

Prestaties: Vega 56-opvolger en RTX 2070-concurrent

AMD ziet de RX 5700XT als een opvolger van zijn eigen Vega 56-videokaart. In een tiental recente games presteert de nieuwe videokaart volgens benchmarks van de fabrikant bij een 1440p-resolutie met ultra-instellingen 24 tot 41 procent beter dan het model van de vorige generatie. Met dergelijke cijfers verslaat de RX 5700XT ook de Vega 64, maar toch noemt AMD die niet. Dat zou kunnen suggereren dat er nog een snellere variant op komst is, die als opvolger van de Vega 64 gepositioneerd wordt.

Ook toont AMD vergelijkingen van de Radeon RX 5700XT met de GeForce RTX 2070 en van de RX 5700 met de RTX 2060. Het gaat om tests in populaire recente games op een 1440p-resolutie met ultra-instellingen en volgens AMD is zowel bij de Radeon- als GeForce-kaarten per game de api gekozen die de beste prestaties levert voor de betreffende gpu. Volgens de benchmarks van de fabrikant is de RX 5700XT meestal een paar procent sneller dan de RTX 2070, met uitschieters in de dubbele cijfers bij Battlefield 5 en Metro Exodus. De RX 5700 doet het in de AMD-benchmarks in alle gevallen beter dan de RTX 2060 en de prestatieverschillen zijn gemiddeld iets groter.

De begin dit jaar geïntroduceerde Vega VII-videokaart, die nog gebaseerd is op de GCN-architectuur, blijft voorlopig het topmodel van AMD. Die kaart kan zich wat prestaties betreft meten met de RTX 2080 en is dus beduidend sneller dan de RX 5700XT. Zelf maakt AMD geen vergelijkingen tussen de nieuwe Navi-kaarten en de snelste Vega-kaart.

AMD maakt ook geen vergelijkingen van zijn nieuwe Navi-kaarten met de op de Polaris-gpu gebaseerde kaarten uit de RX 500-serie. De snelste kaart in die serie, de RX 590, is echter langzamer dan de RTX 2060 en daarmee dus ook langzamer dan de nieuwe RX 5700-kaarten. AMD houdt de RX 500-serie voorlopig in zijn assortiment; de kaarten in deze serie zijn immers een stuk goedkoper en bedienen een ander segment.

Verbruik: meer dan Nvidia

Volgens AMD verbruikt de RX 5700XT zo'n 225W en voor de RX 5700 is dat 180W. Dat is meer dat het verbruik van de Nvidia-kaarten die AMD in het vizier neemt. De RTX 2070 en 2060 hebben een tdp van respectievelijk 175W en 160W. Waar AMD in zijn Ryzen-presentaties veel vergelijkingen maakt over het verbruik ten opzichte van Intel-processors, doet de fabrikant dat niet bij zijn Radeon-videokaarten. Dat is te begrijpen omdat AMD het op dit vlak waarschijnlijk zal afleggen ten opzichte van de concurrentie, ondanks dat de nieuwe gpu's op het kleinere en zuinigere 7nm-procedé zijn gemaakt.

AMD maakt wel vergelijkingen met zijn eigen oudere videokaarten. Volgens AMD biedt de nieuwe RDNA-architectuur 1,5x de prestaties per watt ten opzichte van de kaarten gebaseerd op de GCN-architectuur. Dat cijfer komt uit een vergelijking van de Navi-gpu met een Vega 64-gpu. De nieuwe gpu presteert volgens AMD 14 procent beter bij een verbruik dat 23 procent lager is. Door de overstap naar 7nm is het gpu-oppervlak ook veel kleiner: 251mm2 tegenover 495mm2 van de Vega 64-gpu.

Blowerkoeler

Het referentieontwerp van de RX 5700-kaarten maakt weer gebruik van een koeler met een blowerontwerp. AMD zegt dat te doen om zo 'consistente prestaties' te kunnen garanderen in allerlei behuizingen. In behuizingen met een slechte airflow is een blowerkoeler volgens AMD beter dan een heatsink met daarop meerdere ventilatoren, omdat de warme lucht uit de kast wordt gezogen.

Op het moment dat de RX 5700-kaarten uitkomen in juli zijn er alleen referentiemodellen te koop. AMD gaat die zelf verkopen via zijn eigen website, maar partners zullen ook exemplaren maken en die zullen bij diverse winkels te koop zijn. Volgens AMD komen er na de eerste release wel varianten van partners met een custom koeler, maar die partijen hebben nog even tijd nodig om die modellen te ontwerpen, waardoor dat niet direct bij de release zal zijn. AMD verzekert dat de beschikbaarheid van Navi-chips geen beperkende factor is en dat de nieuwe videokaarten bij de release goed beschikbaar zullen zijn.

AMD geeft de RX 5700XT een ander ontwerp dan de RX 5700, maar wat koelprestaties betreft zijn de twee gelijk volgens de fabrikant. De shroud van de XT-versie valt op omdat er een soort deuk in zit. Dat een esthetische keuze en op vragen over de deuk in de kaart noemde AMD deze gekscherend de power contour. Onder de overkapping zit naast de blower-koeler een heatsink met een vapor chamber.

Pci-e 4.0

AMD's RX 5700-kaarten zijn de eerste gpu's voor consumenten met pci-e 4.0-ondersteuning. Dat levert een verdubbeling aan bandbreedte op, maar in de praktijk zullen gamers daar vooralsnog niets van merken. De beschikbare bandbreedte van pci-e 3.0 is simpelweg nog geen beperking. In een slide en een demo-opstelling toont AMD wel de potentiële voordelen van de nieuwe interface: het afspelen van een 8k60fps-bestand met ProRes 4444-indeling gaat in Davinci Resolve ook daadwerkelijk met 60fps bij gebruik van de pci-e 4.0-interface. Bij pci-e 3.0 blijft de afspeelsnelheid steken op 36fps. Een dergelijke situatie zullen consumenten echter niet snel tegenkomen.

Geen CrossFire

AMD geeft zijn RX 5700-videokaart geen driverondersteuning voor een CrossFire-opstelling van meerdere gpu's. Het is wel mogelijk om meerdere gpu's te gebruiken via de DX12- en Vulkan-api's als ontwikkelaars daar specifiek ondersteuning voor inbouwen in hun games. AMD ziet het combineren van meerdere gpu's door het gebrek aan CrossFire-ondersteuning in ieder geval zelf niet als een logische optie om de concurrentie aan te gaan met snellere kaarten van Nvidia.

DisplayPort 1.4 en Display Stream Compression

AMD voorziet zijn RX 5700-videokaarten van hdmi 2.0b-aansluitingen, de nieuwere hdmi 2.1-versie is nog niet aanwezig. Wel hebben de kaarten de nieuwste displayportaansluiting, versie 1.4. Bovendien is er nu ondersteuning voor Display Stream Compression, een Vesa-standaard die data comprimeert zonder dat dit zichtbaar zou moeten zijn. Dat komt van pas bij de combinatie van hoge resoluties met hoge refreshrates, zoals 4k144Hz. Met behulp van dsc is het mogelijk om met één kabel die resolutie en verversingssnelheid weer te geven. Er zijn al 4k144Hz-monitoren die dat doen, maar die maken gebruik van chroma subsampling, waardoor kleurinformatie verloren gaat.

Overigens moeten monitoren ook dsc-ondersteuning hebben om gebruik te maken van deze feature. AMD toont als voorbeeld een nieuw model van Asus, een 43"-monitor met een resolutie van 3840x2160 pixels en een verversingssnelheid van 144Hz. Dat scherm heeft ook FreeSync 2 HDR-ondersteuning met een maximale helderheid van 1000cd/m2.

Displayport 1.4 in combinatie met dsc maakt ook 8k-weergave op 60Hz met hdr mogelijk. De combinatie van 4k met hdr gaat tot maximaal 120Hz en zonder hdr is dat maximaal 240Hz voor de 4k-resolutie.

Geen nadruk op virtual reality

Over virtual reality repte AMD niet bij zijn presentatie van de RX 5700-gpu's. Wat ook opvalt is dat de nieuwe videokaarten geen VirtualLink-usb-c-aansluiting hebben, ondanks dat AMD wel onderdeel uitmaakt van het samenwerkingsverband dat deze standaard voor het aansluiten van vr-headsets opzette. In de technische sessies over Navi hintte AMD wel op de komst van nieuwe kaarten in de toekomst waarbij vr mogelijk wel een rol speelt. Bij de RX 5700-kaarten die in juli uitkomen, is dat voor AMD in ieder geval geen speerpunt.

Hardwarematige raytracing in volgende generatie

De eerste Navi-videokaarten die in juli uitkomen hebben geen hardwarematige ondersteuning voor raytracing. Dergelijke effecten zijn wel mogelijk met software, maar dat is ook al het geval met kaarten die gebaseerd zijn op de GCN-architectuur, dus dat is niet nieuw. AMD suggereert dat raytracing nu nog een te groot prestatieverlies oplevert.

De volgende generatie van de RDNA-architectuur zal wel hardwarematige ondersteuning voor raytracing bevatten. Dat gaat dan om beperkte ondersteuning voor lichteffecten. In hoeverre dat vergelijkbaar is met de RT-cores van Nvidia is nog niet duidelijk, AMD heeft daar nog geen verdere toelichting over gegeven. De fabrikant ziet raytracing als iets dat in de toekomst door servers in de cloud uitgevoerd zal worden. Dat zou volledige realtime raytracing mogelijk moeten maken. Ook over de uitvoering van dat toekomstbeeld heeft AMD nog geen details gegeven.

Tot nu toe heeft AMD alleen inzicht gegeven over de RX 5700-kaarten die op de eerste generatie van de RDNA-architectuur zijn gebaseerd. Microsoft kondigde begin deze week echter aan dat de komende Xbox Project Scarlett-console een AMD-gpu krijgt die gebaseerd is op de next-gen RDNA-architectuur met hardwarematige ondersteuning voor raytracing. Microsoft brengt zijn nieuwe Xbox volgend jaar uit en dat maakt het aannemelijk dat er in 2020 ook AMD-videokaarten voor pc's verschijnen met specifieke hardware aan boord voor raytracing.

RDNA-architectuur voor videokaarten

De geclaimde verbetering van 1,5 keer de prestaties per watt is volgens de fabrikant deels te danken aan de overstap naar het kleinere 7nm-procedé, maar verbeteringen aan het gpu-ontwerp zelf en prestatieverbeteringen per kloktik zijn voor een groter deel verantwoordelijk.

Nieuw ontwerp

Bij het nieuwe gpu-ontwerp is met name gefocust op de efficiëntie en de ipc-verbeteringen. Hoewel gpu's sterk zijn in parallelle berekeningen, heeft AMD bij de nieuwe architectuur juist ingezet op het verbeteren van de single threaded prestaties. Het aantal scalar en vector units is per compute unit verdubbeld. Ook kunnen de nieuwe compute units gegroepeerd worden per twee om zo een workgroup processor te vormen om bepaalde taken efficiënter uit te voeren.

Verder heeft AMD het cache-ontwerp aangepast door een nieuwe L1-cache van 128KB toe te voegen. Ook is de bandbreedte van de L0-cache naar de alu verdubbeld en door die aanpassingen is de cache latency van de RDNA-architectuur volgens AMD flink verbeterd ten opzichte van GCN. Ook kan de Display Engine nu gecomprimeerde kleurdata uitlezen, zonder dat deze eerst gedecomprimeerd moet worden.

Aanpassingen aan de architectuur zorgen volgens AMD voor een ipc-verbetering van 25 procent ten opzichte van GCN. Het Radeon-team heeft veel samengewerkt met de ontwerpers van de Zen-processorachitectuur en diverse verbeteringen die bij de cpu's zijn gemaakt, bleken ook van pas te komen bij de gpu's. Zo is de clock gating-techniek om het verbruik terug te dringen ook bij de RDNA-architectuur toegepast.

RDNA-architectuur voor pc, cloud en mobiel

AMD stelt dat de RDNA-architectuur de basis zal vormen voor gpu's de komende jaren. Volgens het bedrijf is de architectuur zeer schaalbaar en inzetbaar op allerlei vlakken. Het is al bekend dat de nieuwe PlayStation- en Xbox-consoles van een gpu op basis van de RDNA-architectuur gebruik gaan maken, maar AMD noemt ook cloudgaming en mobiele toepassingen.

AMD werkt al samen met Google voor de gamestreamingdienst Stadia. Daarvoor gebruikt Google nu nog Vega-gpu's op basis van GCN, maar mogelijk worden die in de toekomst dus ingewisseld voor RDNA-varianten. Begin deze maand maakte AMD bekend een samenwerking aan te gaan met Samsung. De Zuid-Koreaanse techgigant neemt een licentie af op de RDNA-architectuur en samen gaan de bedrijven daarmee zuinige gpu's voor smartphones ontwikkelen.

De GCN-architectuur blijft overigens ook bestaan. Die is meer toegespitst op het parallel uitvoeren van taken en dat is bij zware belastingen in toepassingen in bijvoorbeeld servers geschikter dan de nieuwe RDNA-architectuur. Toekomstige videokaarten voor gamers worden echter op basis van RDNA gemaakt. AMD laat dat ook zien in een roadmap, waaruit blijkt dat een volgende generatie gemaakt zal worden op een verbeterde versie van het 7nm-procedé.

Derde generatie Ryzen-processors: tot 16 cores

Eind mei introduceerde AMD op de Computex-beurs in Taiwan zijn Ryzen 3000-serie van processors en toen maakte de fabrikant ook al wat details bekend over de Zen 2-architectuur. Zo kregen we toen te horen dat de instructies per kloktik een verbetering van vijftien procent laten zien ten opzichte van de vorige generatie. Nu heeft AMD uitgelegd waar die verbeteringen precies vandaan komen, maar ook introduceerde de fabrikant een topmodel met zestien cores en werden er meer details over de prestaties gegeven.

Ryzen 9 3950X met zestien cores

De komst van die zestienkoppige processor is niet echt een verrassing. Eigenlijk was het een grotere verrassing dat AMD hem niet onthulde bij de presentatie op de Computex. Het was immers al bekend dat AMD een ontwerp zou gebruiken met cpu-dies die per stuk acht cores bevatten en dat er twee van zulke dies op een AM4-processor passen. Als alle cores ingeschakeld zijn levert dat dus maximaal zestien cores op.

Opvallend aan de Ryzen 9 3950X is dat dit model de hoogste kloksnelheid heeft van alle nieuwe Ryzen-processors. De boostklok gaat tot 4,7GHz en dat is 100MHz meer dan de Ryzen 9 3900X, die twaalf cores heeft en op maximaal 4,6GHz draait. Processors met meer cores hebben veelal juist een lagere frequentie en om een processor met zestien cores op die hoge snelheid te leveren, zal AMD de beste chips moeten uitzoeken. Wellicht is dat ook de reden dat de Ryzen 9 3950X pas in september op de markt komt, terwijl de andere Ryzen 3000-processors al op 7 juli verschijnen.

Overigens maakt AMD niets bekend over de turbosnelheid op alle cores. De genoemde 4,7GHz is een maximum en dat geldt dus voor één core bij maximale belasting. AMD geeft behalve de baseklok, die bij het model met zestien cores 3,5GHz bedraagt, geen details over de kloksnelheden die de processor haalt als alle cores aan het werk zijn.

AMD geeft bij geen enkele Ryzen-processor een boostsnelheid op voor alle cores. Dat komt ook omdat het per processor er vanaf zal hangen hoe snel deze loopt. Dat is bij alle cpu's het geval, vanwege variaties in chips. Alle chips zullen de opgegeven snelheden halen, maar wat precies de maximale snelheid is bij volledige belasting van alle cores hangt af van de chip en de gebruikte koeling.

Alle cores op 5,3GHz met extreme koeling

Tijdens het evenement voor techjournalisten liet AMD een aantal overklokdemonstraties zien met de Ryzen 9 3950X. Daarbij zagen we de processor met een snelheid van 5,3GHz op alle cores draaien. Dat gebeurde echter bij temperaturen ver onder het vriespunt, met behulp van vloeibaar stikstof. De processor kon op die snelheid een run in Cinebench R15 afmaken en dat leverde rond de 5400 punten op; een nieuw wereldrecord voor een processor met zestien cores.

Deze extreme overklokresultaten zeggen echter niets over de boostsnelheden op alle cores in de praktijk met normale lucht- of waterkoeling. Bij zo'n benchmarkrun draait het systeem ook verre van stabiel, de enige vereiste is dat het systeem de Cinebench-test eenmalig kan doorlopen.

AMD zet in op gamers met marketingterm GameCache

Dat AMD de technische details over zijn nieuwe processors tijdens de E3-gamebeurs uit de doeken doet is geen toeval. Gamers zijn waarschijnlijk de belangrijkste afzetmarkt voor desktop-pc's en AMD wil er dus alles aan doen om die doelgroep over te halen een Ryzen-processor aan te schaffen. Hoewel AMD met de eerste twee Ryzen-generaties Intel prijstechnisch wist te verslaan in situaties waarin veel cores nut hebben, was dat bij games niet altijd het geval. De ipc-verbetering van de nieuwe generatie moet die achterstand inhalen. Een deel van die verbeteringen is volgens AMD te danken aan de verdubbeling van de L3-cache en in marketingtermen spreekt AMD nu over GameCache. De grote cache zou de latency van de communicatie tussen cpu en geheugen omlaag brengen en dat zou in games direct vertalen naar betere framerates.

Prestaties: vergelijkbaar met Intel bij games

In eigen benchmarks vergelijkt AMD zijn nieuwe chips steevast met Intel-varianten die ongeveer net zoveel kosten. In die tests zijn de nieuwe Ryzen-processors in games nu net zo snel als de Intel-varianten. De AMD-processors bieden voor hetzelfde geld echter meer cores, waardoor ze in programma's die zwaar leunen op meerdere threads veel beter scoren. Ook zijn de AMD-processors veelal zuiniger dankzij de productie op 7nm.

Dankzij de ipc-verbeteringen en de hogere kloksnelheden zijn de single threaded-prestaties van alle Ryzen 3000-processors beter dan die van het vorige topmodel, de Ryzen 7 2700X die op maximaal 4,3GHz draait. Ook de nieuwe Ryzen 5 3600, die een lagere maximale kloksnelheid heeft van 4,2GHz, scoort volgens benchmarks van AMD beter, met 9 procent winst in Cinebench. De 3900X haalt een prestatiewinst van 21 procent.

Een processor die volgens AMD interessant is voor veel gamers, is de Ryzen 7 3700X. Die cpu met acht cores valt op met zijn lage tdp van 65W. De kloksnelheden zijn ook lager dan de hoger gepositioneerde Ryzen 7 3800X-octacore, maar het lage verbruik betekent dat er meer speelruimte is om over te klokken. Het is aannemelijk dat de 3700X ook de snelheden van de 3800X haalt door het verbruik wat op te schroeven.

Processor Cores/Threads Kloksnelheid/turbo (GHz) Cache (totaal) Tdp Adviesprijs
Ryzen 9 3950X 16/32 3,5 / 4,7 72MB 105W nnb
Ryzen 9 3900X 12/24 3,8 / 4,6 70MB 105W $499
Ryzen 7 3800X 8/16 3,9 / 4,5 36MB 105W $399
Ryzen 7 3700X 8/16 3,6 / 4,4 36MB 65W $329
Ryzen 5 3600X 6/12 3,8 / 4,4 35MB 95W $249
Ryzen 5 3600 6/12 3,6 / 4,2 35MB 65W $199

AMD zegt overklokken met de nieuwe processors makkelijker te maken door de toevoeging van de Precision Boost Overdrive-functie. Die was eerder al beschikbaar voor de Threadripper-processors en in feite is dat een functie waarbij gebruikers met een druk op de knop kunnen overklokken. Afhankelijk van de gebruikte koeling en 'speelruimte' die er is, wordt de snelheid van de cpu met maximaal 200MHz verhoogd.

Bovendien wil AMD overklokken op X570-moederborden makkelijker maken door aanpassingen in de bios. Alle fabrikanten gaan hetzelfde menu gebruiken en bij meer dan vijftig instellingen zal er een eenvoudige helptekst met uitleg beschikbaar zijn. Alle overkloktools worden ondergebracht in een nieuw oc-menu. Ook overklokken in Windows moet makkelijker worden met aanpassingen in de Ryzen Master-software. Gebruikers krijgen daar nu volledige controle over geheugentimings en de Precision Boost Overdrive-functionaliteit is hierin toegevoegd.

Een van de speerpunten van het nieuwe platform is betere ondersteuning voor ddr4-geheugen. Officieel is er ondersteuning voor ddr4-3200, maar ook veel hogere snelheden zijn mogelijk. AMD zegt zelf snelheden van ddr4-5100 werkend gekregen te hebben met luchtkoeling op een MSI MEG X570 Godlike-moederbord.

Dure X570-moederborden, 400-serie blijft beschikbaar

De komst van de Ryzen 3000-processors gaat gepaard met de komst van de X570-chipset en hoewel er nog geen prijzen bekend zijn van de moederborden, is duidelijk dat die niet goedkoop gaan worden. Er zijn al ruim vijftig moederborden gepresenteerd door verschillende fabrikanten en in alle gevallen zijn dat high-end borden, die stuk voor stuk waarschijnlijk allemaal duurder zijn dan het huidige aanbod van X470-modellen.

Een X570-moederbord is vereist om gebruik te maken van pci-e 4.0 en dat heeft momenteel vooral voordelen voor ssd's. Er komen nieuwe ssd's uit die extreem hoge sequentiële snelheden halen. Met de RX 5700-kaarten brengt AMD ook de eerste pci-e 4.0-videokaarten uit, maar die werken ook op moederborden met pci-e 3.0-sleuven en die versie biedt meer dan genoeg bandbreedte voor de nieuwe videokaarten.

De nieuwe chipset heeft ook een nadeel: het verbruik is met een tdp van 11W bijna het dubbele van dat van de X470-chipset, die een tdp van 6W heeft. In de praktijk hebben de meeste X570-moederborden daarom ook een kleine ventilator om de chipset koel te houden.

Volgens AMD blijven moederborden met de chipsets uit de 400-series voorlopig op de markt. De nieuwe processors werken ook op die moederborden en er zou geen prestatieverschil zijn. We kunnen ons voorstellen dat zeker kopers van de relatief goedkope nieuwe Ryzen 5-processors een duur X570-moederbord een drempel vinden. Als je de pci-e 4.0-functionaliteit niet nodig hebt, is zo'n moederbord dus geen vereiste.

Zen 2-architectuur met 7nm-chiplets

De overstap naar het 7nm-procedé en het verhogen van de kloksnelheid zijn twee van de redenen waardoor de nieuwe processors beter presteren, maar de winst is volgens AMD grotendeels te danken aan ipc-verbeteringen. Hoe AMD dat voor elkaar heeft gekregen, legt cpu-architect Mike Clark uit in een presentatie.

De geclaimde single thread-winst van 21% geldt hier voor de Ryzen 9 3900X (4,6GHz boost) ten opzichte van de Ryzen 7 2700X (4,3GHz boost)

TAGE branch predictor

Een van de grote veranderingen in de Zen 2-architectuur is de overstap naar de TAGE branch predictor. Die werd al in 2006 in een paper geïntroduceerd. De nieuwe branch predictor zorgt ervoor dat er bij gebruik van smt vaker correct voorspeld wordt wat de volgende berekening is en dat maakt de processor efficiënter. Volgens Clark gebruikt de nieuwe branch predictor meer tables wat tot 30 procent minder foute voorspellingen oplevert.

Verder is niet alleen de L3-cache verdubbeld van 2MB naar 4MB per core, maar is ook de bandbreedte van de L1-cache verdubbeld. De aanpassingen aan de cache zijn nodig om de latency naar het werkgeheugen tegen te gaan. Door het nieuwe ontwerp met losse cpu-cores en een aparte io-die zou die latency bij een ongewijzigd cache-ontwerp hoger zijn dan bij Zen en Zen+. Met de aanpassingen is er juist minder latency naar het dram en dat zorgt voor een groot deel van de prestatieverbeteringen.

De Zen 2-cores zijn weer in corecomplexes van vier cores ingedeeld. Twee van die ccx'en zitten in een ccd, ofwel de core complex die. In die ccd zit ook de L3-cache en dit is het gedeelte van de processor dat op het 7nm-procedé van TSMC wordt gemaakt. Ondanks de verdubbeling van het cachegeheugen is het oppervlak van de ccx'en bijna gehalveerd door de overstap naar het kleinere procedé.

Een andere verandering zit in de floatingpoint-engine. AMD heeft de prestaties daarvan verdubbeld door de breedte van de datapaden naar de fp-units te verdubbelen van 128 naar 256bit. Volgens Clark was dat mogelijk door de overstap naar 7nm, omdat er daardoor meer ruimte beschikbaar is.

Onverwacht hoge maximale kloksnelheid

Volgens AMD was het een verrassing dat de kloksnelheid omhoog kon door de overstap naar het 7nm-procedé. Verkleiningen van een architectuur resulteren vaak in een lagere vmax en lagere maximale frequenties, maar nauwe samenwerking met TSMC zou ervoor gezorgd hebben dat de kloksnelheid juist omhoog ging. AMD stelt dat de maximale frequentie van Zen 2 nu 4,6GHz is, maar dat dit met power management en firmwareverbeteringen in de toekomst nog omhoog kan. Bovendien heeft AMD met zijn Ryzen 9 3950X al een 4,7GHz-processor geïntroduceerd. Dat Clark in zijn presentatie 4,6GHz noemt als de huidige limiet maakt wel duidelijk dat de fabrikant de beste chips moet uitzoeken om die processor mogelijk te maken.

Het ontwerpen van een processorarchitectuur is een jarenlang proces. Mike Clark vertelt dat Zen 2 oorspronkelijk helemaal niet bedoeld was voor consumentenprocessors. De verwachting was dat de maximale kloksnelheden op 7nm relatief laag zouden zijn en dat het ontwerp met chiplets dus met name interessant zou zijn voor serverprocessors die baat hebben bij veel cores, maar niet altijd een hoge kloksnelheid nodig hebben. Ergens in 2015 zou er besloten zijn om de architectuur toch ook voor consumenten-cpu's in te zetten, omdat toen bleek dat de kloksnelheden veelbelovend waren.

Verbeteringen in Windows 10 May 2019 Update voor Ryzen

Prestatieverbeteringen komen niet alleen door hardwarematige veranderingen, maar ook door nauwe samenwerking met softwareleveranciers. Zo maakt AMD nu bekend dat de Windows 10 May 2019 Update aanpassingen bevat die zorgt voor verbeteringen bij alle Ryzen-processors. De ipc-verbeteringen die AMD noemt zijn overigens zonder deze software-update.

Met topology awareness kunnen taken beter toegewezen worden aan ccx'en. De softwarematige veranderingen in het besturingssysteem zorgen ervoor dat een ccx eerst volledig gevuld wordt voordat er een ander corecomplex aangesproken wordt. In een voorbeeld claimt AMD dat dit bij Rocket League in 1080p-resolutie en low-settings een prestatiewinst van 15 procent oplevert.

De tweede aanpassing zit in het sneller aanpassen van kloksnelheden. Dat is het gevolg van ondersteuning voor cppc2, ofwel collaborative power and performance control. Dat gaat om een aanpassing in de bios en het besturingssysteem, waardoor de tijd die het kost om de kloksnelheid van een Ryzen-processor te veranderen daalt van 30ms naar 1 a 2ms.

X570-chipset is zelfde chip als i/o-die

Zoals eerder genoemd hebben de nieuwe Ryzen-processors een chiplet-ontwerp. De cpu-cores zitten in zogenaamde core complex dies, ofwel ccd's, die op het 7nm-procedé van TSMC worden gemaakt. Alle i/o-interfaces zitten in een aparte 12nm-die en AMD laat die produceren door GlobalFoundries. Dat stukje van de processor heet officieel de coherrent io die, ofwel de coid. Een kleiner productieprocedé is voor dat gedeelte van de processor niet noodzakelijk en het is veel kostenefficiënter om dat op een ouder procedé te maken. Het maken van meerdere kleine chips is altijd goedkoper dan het maken van één grote chip, want als een chip een foutje bevat, gaat er een kleiner deel van de wafer verloren.

AMD maakt nu bekend dat de X570-chipset in feite een kopie is van die i/o-die. De chip voor moederborden heeft precies dezelfde functionaliteit. Het productieproces is echter niet gelijk; de chipset laat AMD op 14nm maken. Volgens de fabrikant is de versie voor in de processor iets efficiënter en levert dat betere prestaties op bij het overklokken van geheugen.

De uitdaging van AM4-ondersteuning

Tot slot geeft AMD uitleg over hoe de Zen 2-architectuur is toegepast op een processor voor de AM4-socket. Dat is volgens de fabrikant een flinke uitdaging geweest. De eerste processor op deze socket was immers een monolithische die, een cpu die uit één stuk bestaat en die nog op 28nm gemaakt werd. Inmiddels gebruikt AMD diezelfde socket voor cpu's die uit meerdere die's bestaan met maximaal zestien cores en verschillende procedés gebruiken. Ondanks die uitdagingen blijft AMD voorlopig trouw aan de AM4-socket. Toegezegd is dat deze tot minimaal 2020 wordt ondersteund. Uiteindelijk zal AMD wel voor een nieuwe socket moeten kiezen als er andere veranderingen op komst zijn, zoals een overstap naar ddr5-geheugen.

Tot slot

Nu de verschijningsdatum van de derde generatie Ryzen-processors nadert, weten we veel meer van de de nieuwe cpu's. De benchmarks die AMD toont en details die het bedrijf gegeven heeft, zijn veelbelovend. AMD lijkt het verschil in single threaded-prestaties met Intel bijgebeend te hebben door ipc-verbeteringen en hogere kloksnelheden. AMD belooft gelijke prestaties in games met Intel-processors in dezelfde prijsklasse, terwijl de prestaties in workloads die geoptimaliseerd zijn voor veel cores vaak hoger zullen zijn.

Met zijn nieuwe Ryzen 3000-processors en X570-moederborden zet AMD zichzelf niet neer als een goedkoper alternatief. De fabrikant heeft met zijn nieuwe platform een aantal features in handen die niet bij de concurrent te vinden zijn, zoals pci-e 4.0-ondersteuning en tot zestien cores op een consumentenplatform. Voor videokaarten is pci-e 4.0 op dit moment nog niet echt een voordeel, maar het maakt wel veel snellere ssd's mogelijk. Die X570-moederborden worden echter duurder dan X470-borden en verbruiken ook meer. Borden uit de 400-series blijven beschikbaar als goedkoper alternatief.

Onafhankelijke benchmarks moeten uitwijzen of AMD al zijn beloftes waar kan maken, maar op cpu-gebied ziet het er goed uit voor het bedrijf. De nieuwe Radeon RX 5700-videokaarten beloven ook een grote vooruitgang te zijn ten opzichte van de RX 500-kaarten, maar op prijs en verbruik lijken ze de concurrerende kaarten van Nvdia niet echt te kunnen verslaan.

Het verbruik van de Radeon-kaarten is op papier hoger dan dat van de RTX 2070 en 2060 waar de RX 5700XT en RX 5700 tegenover worden gezet. Ook is het verschil in prijs niet groot. De adviesprijzen van 449 en 379 dollar zouden om omgerekend in euro met btw op 480 en 405 euro uitkomen en dat maakt de Radeon-kaarten in potentie duurder dan de RTX 2070 en 2060 die momenteel te koop zijn vanaf zo'n 470 en 350 euro.

Met de komst van de eerste Navi-kaarten heeft AMD wel een nieuwe weg ingeslagen voor videokaarten. De RDNA-architectuur die daar de basis van vormt moet in de komende jaren terugkomen in nieuwe producten en zal ook hardwarematige ondersteuning voor raytracing krijgen. Zowel Microsoft en Sony hebben al bekendgemaakt dat ze hun nieuwe consoles op Zen 2-cpu's en RDNA-gpu's baseren en dat betekent dat er vanuit de game-industrie in ieder geval volop ondersteuning zal zijn voor de nieuwe architecturen.

Reacties (165)

Wijzig sortering
Als ik de slides goed samenvat dan krijgt de Radeon 5700 XT 1.5 keer betere performance per watt en 2.3x performance per area. Als gamer zien we daar, volgens amd, tussen de x1.24 en x1.41 van terug. Zeg gemiddeld x1.30. Even rekenen, de Vega56 kwam voor $399 op de markt en heeft in februari een verlaging naar $279 gekregen. De 5700XT gaat dus respectievelijk 12.5% en 60% meer kosten. Daar krijg je dan als gamer +- 30% prestatie voor terug. Dat kan ik geen goede deal noemen. Zelfs bij de RTX 2070 kwam mijn berekening gunstiger uit. Het lijkt wel een slide uit het handboek van Nvidia!

De Vega 56/64 waren te duur om te maken door HBM en waren aan vervanging toe. De RX 590 moest in productie blijven ivm verplichtingen aan Globalfoundries. De Radeon VII is zo recent op de markt gezet dat een Navi met dat prestatie niveau gewoon niet logisch zou zijn. Wat resteerde was een Vega56/64 vervanger die voor AMD simpelweg goedkoper zou zijn om te produceren. Het lijkt er sterk op dat we die nu hebben gekregen. Wat dat betreft is deze Navi voor qua positionering voor mij vrij logisch en eigenlijk exact wat ik voorspeld had.

De prijs positionering is zeer interessant. Het zit er dik in dat deze gpu goedkoper is te produceren dan Vega, maar ondertussen kost hij wel meer. AMD kiest er dus eigenlijk voor het eerst sinds de overname van Ati Radeon ervoor om Radeon als 'premium' alternatief neer te zetten en niet meer als 'value' alternatief. Dat is natuurlijk een bewuste keuze waar je een mening over kunt hebben.

Vanuit consumenten perspectief is dat niet zo leuk. Waar de HD 4870 destijds Nvidia dwong om de prijzen onderhand te halveren zetten ze nu niet of nauwelijks druk op Nvidia, terwijl ze het wel kunnen. AMD gaat de dure prijzen van RTX dus niet voor ons oplossen. Bedrijfsmatig kan dit echter best een sterke zet zijn. Wat AMD nodig heeft is marge, marge die weer in R&D kan worden gestoken om zo het gat met Nvidia te dichten. Wellicht heeft AMD na 10 jaar eindelijk ingezien dat wanneer je producten net boven kostprijs verkoopt je geen geld hebt voor de benodigde R&D.

Wat ik persoonlijk dan wel jammer vind is dat AMD hier dan blijkbaar een premium alternatief wil neerzetten op basis van een blower kaart. Gemiste kans want ik, en met mij velen, worden al 20 jaar niet warm van een blower kaart. Dat geeft meer herrie voor minder performance. Ga dan all in en kom met een twin/triple fan kaart inclusief 'fans-off' techniek. Volgens de geruchten komen er custom kaarten in augustus, maar van AMD zelf heb ik tot heden hier nog niets over kunnen vinden.
Ik denk dat het belangrijk is om om te merken dat de consument zelfs ten tijd dat AMD een beter deal bod dan Nvidia, ze AMD links lieten liggen. Ik kan dan niet anders concluderen eigen schuld dikke bult.
Eigen schuld, dikke bult voor wie? Voor AMD of voor de consument?
Wat ik persoonlijk dan wel jammer vind is dat AMD hier dan blijkbaar een premium alternatief wil neerzetten op basis van een blower kaart. Gemiste kans want ik, en met mij velen, worden al 20 jaar niet warm van een blower kaart. Dat geeft meer herrie voor minder performance. Ga dan all in en kom met een twin/triple fan kaart inclusief 'fans-off' techniek. Volgens de geruchten komen er custom kaarten in augustus, maar van AMD zelf heb ik tot heden hier nog niets over kunnen vinden.
Ik weet dit niet zeker, maar ik denk dat dit is om de fabrikanten tegemoet te komen. Hoe slechter de koeler op de reference kaart, hoe groter de kans dat consumenten die het budget hebben, ook daadwerkelijk een betere (en dus duurdere) koeler gaan uitzoeken. Zo zullen enkel de consumenten die echt het budget niet hebben kiezen voor de goedkoopste reference kaarten (met dus de kleinste marge voor de fabrikant).

Wat dit in mijn ogen ondersteunt, is dat reference designs altijd al ruk zijn geweest, terwijl een beetje een goede koeler echt geen rocket science is: de knowhow is er, en de kosten zijn laag. De enige reden die ik zie om een slechte blower te gebruiken, is segmentering, en klanten naar kunstmatig duurdere kaarten te jagen.

Daarnaast zagen we recent slechts 1 uitzondering: nVidia met Turing. Die generatie zag ook enorm veel hogere prijzen, en er was geen concurrentie. Ook dit past in mijn theorie: nVidia kan doen wat ze willen. Wat gaan de fabrikanten tenslotte doen: geen nVidia kaarten verkopen? Dan verliezen ze de high-end segment met de hoogste marge.

AMD heeft die luxe echter niet: als AMD niet meegaat met de wensen van de fabrikanten, verkopen de fabrikanten simpelweg geen AMD kaarten.
En als mensen afhaken voor pc en voor console of streaming kiezen, maakt AMD dat geen zak uit, want ze zitten overal in de toekomst. Sterker nog, Nvidia prijst zichzelf misschien uit de markt en AMD profiteert daar van.

Toch vind ik het compleet ruk. Ik zou zo 500 euro bestelden als het goede prijs/prestaties zou leveren. Maar verre van dat. Nvidia is ook ruk. Alles boven de rx 580/ 1660ti heeft scheve verhoudingen wat prijs/prestaties betreft naar mijn mening.
Toch vind ik het compleet ruk. Ik zou zo 500 euro bestelden als het goede prijs/prestaties zou leveren. Maar verre van dat. Nvidia is ook ruk. Alles boven de rx 580/ 1660ti heeft scheve verhoudingen wat prijs/prestaties betreft naar mijn mening.
We hebben nog geen reviews van de 5700 XT gezien dus een slag om de arm houden is altijd verstandig.

Wat betreft prestaties per dollar is het de RTX 2060 die momenteel nog als één van de toppers uit de bus komt aldus techpowerup. Sterker nog de 1660 (basis en ti) stond net onder de prestatie per dollar dan de 1060 terwijl de 2060 het beter doet dan de 1060. (Wat dan weer vreemd is want de 2060 staat in die grafiek hele ergens anders).

Maar goed, het kan prima zijn dat de bereidheid om meer dan 300 euro uit te geven aan een videokaart bij jouw en andere ontbreekt. Het houdt natuurlijk een keer op.

[Reactie gewijzigd door sdk1985 op 11 juni 2019 19:33]

Bereidheid? Ik zeg toch dat ik zo 500 euro uit zou geven? Ik had het al klaarliggen bij wijze van spreken, maar niet voor deze kaarten die veel te hoog geprijsd zijn voor wat het biedt. Ik heb het niet over de 1660, maar over de 1660 ti.

Ja je kunt reviews afwachten, je kunt er ook op wachten dat zodra deze kaarten met aftermarket koeling op de markt komen ze waarschijnlijk 500 euro of meer zijn. En dan komen ze pas in augustus als je mazzel hebt. Het gerucht is augustus, verder nog 0 informatie over custom kaarten.

Het is gedaan met de redelijke prijzen ben ik bang, ik ga wel weer naar 2e hands opties kijken.
AMD had weinig keuze denk.
Nu de Radeon als Value neerzetten reflecteert ook door naar hun CPU's, en die willen ze natuurlijk niet als value neerzetten omdat het gewoon de superieure CPU is van het moment, en waarschijnlijk tot ten minste '21 zal blijven.

Gelukkig gaan ze dus idd nu wel doen waar ik een tijdje terug al op hoopte, en gaan ze zichzelf dus gewoon als directe concurent of misschien wel marktleider profileren. Dan kan je natuurlijk niet je ene product Top-of-the-Line marketten, en je andere als maximaal budget, terwijl hij dat gewoon niet is, het wordt gewoon sub-top, met navenante prijzen.

Ja dat is nu even teleurstellend voor consumenten, maar als over 6/12/24 maanden AMD's logo overal weer prijkt, en de naam weer gemeengoed wordt en synoniem met AMD=OK (olé olé :+), dán kunnen ze weer eens gaan denken over prijzen iets te verlagen, want waar ze Intel stevig bij de cojones hebben op dit moment, hebben ze nVidia nog lang niet op hun knieen.

Vergeet niet dat hun omzet/winst nog steeds maar een fractie is van zowel Intel als Nvidia, terwijl ze beide het vuur aan de schenen legt, dus nu even lekker cashen, heel hard schulden inlossen en bakken geld richting R&D gooien, zorgen dat je bedrijf gezond wordt en je naam synoniem voor kwaliteit.

Al met al wacht ik nog even op RDNA2, en steun ik ze binnenkort wel door een nieuw Ryzen systeempje in elkaar te flansen, die 3700X/X570/32GB klinkt als een prima upgrade voor mijn oude Intel systeempje.

[Reactie gewijzigd door zion op 11 juni 2019 22:08]

Het ziet er eindelijk weer een beetje goed uit voor AMD. Dat werd wel tijd. Ik begrijp dat er later of mogelijk in 2020 pas 5800 en 5900 serie gpu's uitkomen die tegen de 2080 en ti versie op moeten nemen.

Als we kijken naar de huidige architectuur en de cores die erin zitten zou dat goed kunnen kloppen.
Als de prestatie's daadwerkelijk zijn zoals geschetst dan zijn de cores van AMD en Nvidia redelijk gelijkwaardig op veel vlakken. Enkel verbruik is beter bij Nvidia. Maar ze hebben een inhaalslag gemaakt.

Natuurlijk zal Nvidia niet stilzitten en wanneer zij op 7nm overstappen weer ruimer de leiding nemen.
Jammer dat de 5700XT niet 50 dollar goedkoper is, dan had die echt perfect in prijs geweest.

Nu wachten tot 7 juli op echte benchmarks.
goed uit?

iets minder prijzig, maar geen hardware raytracing en toch driekwart jaar later dan dat van nvidia.

iets zeg me dat deze kaarten weinig zullen verkopen. gezien de kaart van nvidia maar 50 euro duurder is voor raytracing erbij.

(comment is geplaatst met als vooruit zicht dat de performance van de kaart gelijk aan elkaar zijn)

Ik hoopte eigenlijk dat amd een rtx 2080 prestatie voor een prijskaartje van een rtx 2070 kon verkopen.
Ik ben ook niet zo onder de indruk van dit nieuws moet ik zeggen. Ik had hen graag zien innoveren in lager verbruik, maar dat hebben ze ook deze keer niet voor mekaar kunnen krijgen. Daarnaast had ik heel graag zen type cpus voor type mini pc gezien, maar ze blijven nu ook weer focussen op dure spullen: dure cpus, dure moederborden en dure grafische kaarten die ook nog eens duurder worden door hun verbruik. Het zal nog lang duren voor ik amd zen cpus kan gebruiken in goedkope server toestellen of nuc alternatieven.

Ik ben in elke geval niet gestimuleerd om een upgrade te doen of voor deze types te kiezen voor een nieuw systeem.
Wat een 'ze hebben niet de focus gelegd op precies wat ik wil dus alles is ruk' reactie zeg.

TDP hun 8 core 3700x CPU is de helft van die van intel 9900k, (en het echte verbruik gaat waarschijnlijk nog meer schelen) maar er is geen innovate in verbruik?
ze hebben een 16 core CPU voor 105 watt!

nieuwe 3000 series APU's zijn ook uitgekomen. als je iets zuinigers zoekt voor NUC zou ik daar naar kijken.
Die geadverteerde TDP waarde van hun CPUs is bij AMD nutteloos, want het werkelijke verbruik ligt bij hun CPUs elke keer (veel) hoger dan wat ze adverteren, terwijl het bij Intel werkelijk gaat om het verbruik van de CPU. Pure marketingtruc van AMD dus, en als je je daarop baseert ben je fout bezig. Je moet daarvoor op de reviews wachten.

Maar qua verbruik had ik het niet echt over de CPUs maar de GPUs. Daar zie ik ze graag meer innoveren, want hun kaarten zijn nog altijd stroomvreters en ze blijven slecht presteren op dat vlak. Ja, ze kunnen weer met Nvidia concurreren in de topklasse, maar niet qua verbruik, niet qua warmteproductie en niet qua geluidsproductie bij hoge prestaties. Ik heb de komende jaren geen nieuwe grafische kaart nodig, dus deze soorten verbetering laat ik voorbij gaan. Maar als ik een evenwaardige kaart als de 580 kan kopen die aardig wat minder energie vreet, sta ik snel in de winkel!

De APUs van AMD vind ik top, maar het blijven dure CPUs. Er zijn na jaren nog altijd geen vervangers voor de goedkopere FX CPUs. Dus als je een goedkoop NUCje, NASje of backup servertje in mekaar wilt steken, ben je al een aardige som kwijt aan de CPU alleen of je moet het doen met verouderde technologie. Dus ook hier vind ik als klant niet wat ik zoek en vind ik het spijtig dat Intel de hele NUC markt domineert.

Begrijp me niet verkeerd, ik moedig verbetering bij AMD alleen maar aan. Ik vind gewoon niet wat ik zoek bij hen sinds de tweede Zen evolutie.
Die geadverteerde TDP waarde van hun CPUs is bij AMD nutteloos, want het werkelijke verbruik ligt bij hun CPUs elke keer (veel) hoger dan wat ze adverteren
je loop een beetje achter. Ik denk dat je even naar wat benchmarks van de 2700x en de 9900k moet kijken.
de 9900k gaat zijn boekje ver te buiten, terwijl de 2700x netjes binnen de lijntjes blijft.

bekijk hier de torture loop test maar eens
https://www.tomshardware....-9th-gen-cpu,5847-11.html
104 watt voor de 2700x (tdp 105 watt)
205 watt voor de 9900k (tdp 95 watt)

verder zeggen ze nog over cinebench en wat meer real world workloads: (tussen haakjes is het verbruik bij overklokken, kan je negeren)
We measured 137W (232W) during the Cinebench test, and we topped 145W (241W overclocked) under the larger Blender workload. We even pushed past 120W (198W overclocked) with various CAD plug-ins for Creo and SolidWorks.

[Reactie gewijzigd door Countess op 13 juni 2019 11:40]

TDP hun 8 core 3700x CPU is de helft van die van intel 9900k, (en het echte verbruik gaat waarschijnlijk nog meer schelen) maar er is geen innovate in verbruik?
ze hebben een 16 core CPU voor 105 watt!
Misschien is het verstandig je eerst in de materie te verdiepen. Waarom die processor predicaat naast je naam staat is mij een raadsel, als je zo'n basaal begrip als "TDP" bij een processor niet eens kent/begrijpt.
Vind het apart dat de Radeon RX 5700XT, 50w meer gebruikt dan de non founders edition Geforce RTX 2070 (225w vs 175w), ok dat is in 1 of 5 jaar tijd nog steeds niet veel, maar toch nog apart.

Verders wel leuk en goed dat er concurrenten eindelijk is voor de Geforce RTX 2060 en 2070.
Ja het zier er Inderdaad goed uit. Maar ach, het is ook nooit goed. Nvidia brengt te veel kaarten uit, AMD komt met 2 nieuwe kaart en iedereen klaagt over AMD en dat terwijl de kaarten echte alternatieve zijn voor de 2060 en 2070.

Wat heeft men aan ray tracing? Er is weinig aanbod qua games en het heeft prestatie verlies. Ik heb een RTX 2070 en heb het zelf gemerkt.

Als ik dit had geweten had ik misschien wel voor AMD gegaan. Ik kocht de RTX 2070 niet voor zijn Ray Tracing, maar prestaties. Ray Tracing zie ik meer als een extraatje.
voor singleplayer games voegt raytracing echt wel wat toe, er zijn nu 5 a 6 games die raytracing hebben en er komen er nog eens 10 bij.

daarin tegen duurde het AMD wel driekwart jaar om een mooi tegenhanger neer te zetten. Mensen wachten niet drie kwart jaar om bijna dezelfde performance te krijgen voor bijna dezelfde prijs.

maarja goed dat AMD in elk geval wilt, want dat zet de druk natuurlijk voor nvidia wel weer op de ketel om te blijven innoveren ;)
daarin tegen duurde het AMD wel driekwart jaar om een mooi tegenhanger neer te zetten. Mensen wachten niet drie kwart jaar om bijna dezelfde performance te krijgen voor bijna dezelfde prijs.
Ik vind altijd een beetje een loze kreet, alsof iedereen bij launch een nieuwe kaart koopt.
Niet bij launch nee, maar ook niet al te lang na launch, want dan zit je tegen aanbevolen winkelprijs aan terwijl prijsdalingen in het verschiet liggen en een nieuwe generatie ook niet lang meer op zich zal laten wachten.

Zo heb ik ook niet lang voor de nieuwe generatie een 970 gekocht. Zoiets doe je maar 1 keer. :+
Daarmee zeg je dus eigenlijk dat jij denkt dat nvidia ook bijna geen 2070's meer gaat verkopen.

Ik denk niet dat nvida het met je eens is. als dat zo zou zijn dan zouden fabriakten de productie van GPU's wel kort na de introductie stoppen. toch doet er dat geen een.
Echt loos vind ik het nu ook weer niet. Het is gewoon een feit dat hoe later je op het feestje komt, des te groter de kans is dat je uiteindelijk minder zal verkopen. Tegenover Pascal zag je al dat Vega ruim een jaar te laat kwam en daarbij ook nog eens teleurstelde. Veel klanten die toen op Vega gewacht hebben zijn toen teleurgesteld afgehaakt.

Nu zie je dat ze wederom 3/4de jaar te laat zijn, hopelijk dat ze dit keer niet teleurstellen in de reviews.
De vorige keer redde Bitcoin de RX.
Het argument hier, dat ze achterlopen, is een redelijk argument, denk ik. Dat doen ze. En ze proberen die achterstand weg te werken. Ze zijn er echter nog niet, dus voorlopig zal Radeon echt wel het stiefkindje blijven.

Misschien dat RDNA de belofte kan inlossen, op termijn. Om zover te geraken, zullen ze echter verkopen moeten draaien. En dus is het een goede keuze om deze kaarten te positioneren naast de Nvidia's. Met het risico dat ze teleurstellen op de koop toegenomen, waarschijnlijk. Die omzet is belangrijk, zodat RDNA2 kan worden ontwikkeld en de achterstand op Nvidia langzaam kan worden weggewerkt.

Ik heb de poen er niet voor klaarliggen, maar eerlijk gezegd: als ik op dit moment zou moeten kiezen voor een videokaart, zou die RX5700 een serieuze overweging waard zijn. 400€ vind ik nog net te behappen. In mijn geval zou dat ook een serieuze upgrade zijn, dus vandaar dat ik de overweging ook zou maken. En nee, ik zou niet voor Nvidia kiezen, omwille van 2 redenen:
  • Ik zie AMD graag terugkeren op de markt - steunaankoop idd (ook omwille van het bedrog door Intel)
  • Als ik een Ryzen-systeem ga bouwen, wil ik de drivers liefst ook allemaal AMD houden
Prestatie-gewijs zou het me eerlijk gezegd niet zo boeien, daar de 5700 waarschijnlijk vergelijkbaar is met de 2060. En dat is een amount of power die ik me niet zo snel zie gebruiken (ben geen full-time gamer).

[Reactie gewijzigd door Timoo.vanEsch op 12 juni 2019 17:25]

MIsschien een beetje, maar niet veel. Ik heb het geprobeerd in BF5 met medium Ray Tracing en wat gingen de prestaties omlaag, zelfde geld voor Shadow of the Tomb Raider. Daar was het nog erger. Maar het aanbod is niet groot, daarom kocht ik de 2070 voor de prestaties en niet de Ray Tracing functie.

Ik begrijp je punt, maar je begrijpt ook wel dat het niet in een dag gebeurd is? Ontwerpen, testen, opnieuw, fouten oplossen, etc. Dat kost tijd. En daarbij komt, AMD komt langzaam weer terug en wat verwacht iedereen? Een kaart die hetzelfde presteert als een 2080 (ti) voor €250.. Bijna dezelfde performance? Die xt variant presteert, volgens AMD, beter dan de 2070 en is goedkoper. Of weet jij iets wat andere nog niet weten? Dan hoor ik het graag. ;)
Wat heeft men aan ray tracing? Er is weinig aanbod qua games
Dan kan je maar beter elke vooruitgang niet kopen en 10 jaar wachten. Ray tracing voegt veel toe aan games en is echt de toekomst.

Dat er nu nog weinig titels zijn en dat dit voor deze generatie een overweging is kan ik mij voorstellen maar nu ook beide nieuwe consoles raytracing gaan ondersteunen gaat het aanbod in games (denk ik) flink omhoog!
Dat is niet wat ik zei, ik bedoel: ik heb een kaart met Ray Tracing. En het aanbod is nu nog niet groot. Op dit moment heb je er nog niet veel aan. Ja ik geloof echt dat het de toekomst is, ik heb het alleen over nu. Volgens mij heb ik ook nooit gezegd dat Ray Tracing niet de toekomst is. Maar het heeft wel wat prestatie verlies.

Ik bedoel qua ray tracing op dit moment, en bedoel niet dat mensen niet de RTX kaarten moeten kopen. Ik bedoelde echt alleen de functie nu op dit moment.

Ik heb de 2070 niet om de Ray Tracing gekocht, maar ik zie het als een extraatje, een bonus of hoe je het ook wilt zien. Ja dat denk ik ook, tenminste ik hoop het. Ray Tracing is erg leuk bedacht, heeft zeker de toekomst.
Raytracing ik ben totaal niet onder de indruk hier van, het is een flop we zijn 7 maanden verder en hoeveel ondersteuning is er? Zo goed als niks. En als het dan wel ondersteuning voor is dat liggen de frame rates op hun kont.
De bedrijven kunnen beter vol inzetten op CF\SLI. Op de prof video kaarten van beide bedrijven hebben namelijk al nieuwe technieken.
Video kaarten gaan namelijk niet meer veel sneller worden om dat die shrinks veel kleinere stappen gaan worden en minder op gaan leveren. Dadelijk moeten ze met fpgas gaan werken om meer features aan een kaart te geven.
De ontwikkeling en "doorbraak" van ray tracing loopt op dit moment echt niet heel anders dan hoe dat indertijd ging met nieuwe grafische features als bijvoorbeeld hardware-matige anti-aliasing, texture mapping technieken of tesselation. Vaak duurde het een, twee generaties voordat mainstream GPU's krachtig genoeg waren voor dat soort nieuwe functionaliteit.

Niet specifiek aan jou gericht, maar meer een algemene opmerking/observatie: ik vind het spijtig dat veel gamers (vooral de jongere generaties) vandaag de dag niet of nauwelijks nog het geduld en besef/begrip kunnen opbrengen voor het feit dat de invoering van grafische vernieuwingen een complex proces is dat tijd kost. In plaats daarvan kunnen we 'genieten' van een knap verwende, zeurderige generatie met een vaak een tot vervelends toe drammerige instelling en een zucht naar instant gratification...

[Reactie gewijzigd door w00t00w op 11 juni 2019 12:45]

Dit gaat niet meer over zelf gratificatie, Nvidia heeft dit kei hard gemarket als zijnde geweldig, maar 3/4 jaar verder werkt het niet als beloofd. En je heb een 2080ti nodig om het een beetje oke te laten draaien op 1080p. De games die het onder steunen kun je op 1 hand tellen. Ik kan best stellen dat het een flop is...
Tevens je bent nu al halverwege de productie cyclus van het product, volgend jaar staat 12-7mm op het programma van Nvidia. Bij AMD vega bracht dat 30% meer compute power mee. Ik denk zelf dat ze beter hadden kunnen wachten daar op en gewoon een opvolging van de gtx serie kunnen uitbrengenr. En Product kunnen lanceren als het ook echt goed, zou werken bij veel klanten gaat de rtx serie een bittere na smaak houden.
Ik ben zelf ontzettend benieuwd naar de Mac pro zijn quad vega oplossing. En of de ondersteuning daar van een beetje van de grond komt. (nee ik kan het niet betalen) maar als dit gaat werken in work flows. Dan zou het best kunnen dat we CF in de toekomst terug zullen zien. 1control chip die 2gpus samen 1 beeld uitsturen.
Heb je gewoon bewust ervoor gekozen de kern van mijn reactie te negeren? Ik had het erover dat het lang duurt voordat geavanceerde nieuwe grafische features lekker draaien op mainstream GPU's - soms zelfs meerdere generaties. Praktisch alle toeters en bellen die we nu vanzelfsprekend vinden hebben dat traject doorlopen. Tesselation, iets dat tegenwoordig nauwelijks nog genoemd wordt omdat het zo vanzelfsprekend is, was ook pas twee generaties later voor de massa met enthusiast-level hardware bruikbaar. Ik heb zelf ook vrij lang moeten wachten voordat ik het op mijn eigen computer kon aanschouwen in acceptabele framerate, en ondanks dat ben ik blij dat het indertijd op deze manier is aangepakt, want het alternatief is heel simpel: geen tesselation.
Optimalisatie en adoptie hebben nou eenmaal tijd nodig, en ik ben blij dat er nog hard- en software-partijen zijn (ongeacht wie) die risico's durven te nemen en tijd en geld willen investeren in nieuwe technieken - en zich verder niet zo veel van dat verwende geklaag uit de gaming community aantrekken (die wel degelijk alles wil, exact conformerend aan hun persoonlijke eisen, en wel meteen, en bijvoorkeur tegen spotprijzen - want anders is het ruk).

[Reactie gewijzigd door w00t00w op 11 juni 2019 16:42]

Ik moet zeggen dat de filmpjes van Minecraft met raytracing er erg strak uitzien. Ik kan niet wachten tot raytracing mainstream is geworden.
Ik heb ze ook gezien... Als je stil staat ziet het er gewoon geweldig uit... Maar als je beweegt buiten dan krijg je micro stuttors de hardware kan het gewoon niet aan en deze mensen gebruiken een 2080ti een videokaart kaart van dik 1200 euro.
Nog een jaar of 4 wachten dus.
Nee want Nvidia kan naar 7 gaan dat geeft een grote boost maar daarna hebben we het over single diget verbeteringen die 7+ en 5 nm gaan brengen en dan houd het wel op.

Sli crossfire komt in gedachten.. Maar ook FPGA'S je hebt vast wel de demo gezien van de nieuwe Mac pro, deze kan 3 streams van 12 k tegelijk weer geven doen een addon kaart waar een FPGA op zit. Een ander voor beeld zijn de bitcoin minners die maken daar ook gebruik van.

Ipv video cores de raytracing te laten berekenen, kun je het ook FPGAs laten doen. Bitcoin mining heeft dat laten zien dat FPGA'S prima kunnen rekenen beter dan video cores , nadeel ze kunnen maar 1 taak doen en zijn niet zo flexibel als video cores

Simpel gezegd een fpga kan alleen maar 1 taak doen bijvoorbeeld doet alleen optellen en af trekken. Een video core can ook vermenigvuldigen staart deling machten en wortels trekken.

Je zou ze kunnen programeren om juist alleen de raytracing te doen, nadeel is wel is er geen raytracing... Dan kun je ze niet ergens anders voor gebruiken
Tja RTX wat zullen we er van zeggen.... leuk feature maar peformance hit is ook vandaag de dag na veel optimalisaties nog te groot. Dat heeft gewoon nog 1-2 generaties aan hardware nodig. Dus dat die 5700 serie het niet heeft vind ik persoonlijk geen ramp. Games ondersteunen het nog amper.

Als ze volgend jaar met een kaart komen die zonder veel performance RayTracing effecten kan doen vind ik het prima en dan is het ook nuttig.

De prijs is wel een dingetje. Maar vaak worden de Dollar prijzen 1:1 euro prijzen soms iets hoger maar we moeten het even zien. Als de prijs hoger is dan van de nVidia tegenhangers wordt het wel een lastige en zullen ze er niet heel veel gaan verkopen. Dat gaat veel gamers er niet van overtuigen om niet voor nVidia te gaan.
Klopt raytracing is echt nekkend op de performance, vandaar ook dat ik meermaals heb aangegeven dat het alleen gebruikt zal worden in singleplayer games en het liefst een gsync / gsync compatible monitor.

anders zul je er last van kunnen hebben.
Tweakers vergelijkt hier de amd adviesprijzen met nvidia marktprijzen. Dat klopt natuurlijk niet, de praktijk leert dat adviesprijzen vaak (behoorlijk) hoger liggen dan marktprijzen. Reken er maar op dat deze nieuwe videokaarten de prijs / performance ratio gunstig gaan beinvloeden.
Inderdaad! Maar wel op voorwaarde dat ze goed beschikbaar worden. Dat is bij AMD helaas altijd af te wachten. :-/
Er is op dit moment geen mining hype, of unique geheugen, dat roet in het eten kan gooien.
Zeg dat niet te hard, Crypto lijkt weer in de lift te zitten de laatste maanden ;)
Advies prijzen zijn amper gehaald afgelopen jaren :X
Dat is waar vwbt vega maar dat ging wel over bijzondere producten met hbm geheugen, speciale, moeilijk te produceren chips. Er is geen indicatie dat dit zich weer gaat herhalen. De rx serie is goed te verkrijgen.

[Reactie gewijzigd door SpiceWorm op 12 juni 2019 14:50]

Bitcoins zijn weer aan het stijgen in waarde en alle andere coins zitten daar weer aan vast, dus je weet maar nooit. Elke video kaart was duur niet enkel de duurdere speciale modellen. Maar goed.
Over de iets hogere prijs dan verwacht, kan ik nog wel meekomen. Maar het gebrek aan hardware raytracing zie ik toch niet als iets negatiefs, ja ok het was leuk geweest. Maar.
Er zijn momenteel maar een stuk of 6 games die het ondersteunen en er zijn er momenteel maar een stuk of 10 aangekondigd die het gaan ondersteunenhttps://www.digitaltrends...t-nvidia-ray-tracing/?amp
En daar komt dan ook nog de impact op preformance bij (30 tot 40 % minder fps bij bijvoorbeeld metro exodus) https://www.pcgamer.com/m...ormance-ray-tracing-dlss/
Dus als je raytracing mee neemt zal het performance verschil gunstiger uitvallen voor amd.
Dus je betaald ietsjes minder verbruikt 50 watt meer en mist features waarom zou je dan nog voor de amd kaart kiezen.
Je krijgt bij AMD meer performance voor minder geld.

Waarom zou je dan voor nvidia kiezen?
Vanwege het rattengedrag van NVidia? Concurrentie is goed, hard spelen ook, maar rattengedrag... dat kun je maar beter niet belonen.
Is niet..ook in sp games wil ik dat gedrocht niet aan hebben. ik ga geen 50% performance inleveren voor iets wat amper te zien is.

(mocht ik een 2060/2070/2080 hebben)

[Reactie gewijzigd door Visgek82 op 12 juni 2019 07:51]

Het ziet er anders toch wel echt levendig uit hoor, naar mijn mening.

toen ik even een rtx kaart te leen had, heb ik er ook gebruik van gemaakt ;p
ja daar wacht ik ook op op die benchemarks.Het is net zoals je zegt al.s Nvidia ook op 7 nm gaat zitten zullen zij wel weer het voortouw nemen.Maar deze videokaarten van amd doen niet onder voor Nvidia
het ziet er allemaal best goed uit voor amd.Hopelijk kunnen zij deze trend nog jaren lang volhouden en doorgaan met goede producten maken.Ze zitten nog altijd met hbm2 geheugen?Ik zou wel eens een ddr6 geheugen willen zien met een amd videokaart.
Met deze videokaarten lijn bestrijkt amd het het midden en hogere segment.

[Reactie gewijzigd door rjmno1 op 11 juni 2019 10:43]

Dit zijn geen hbm2 kaarten, maar gddr6. ;)
Dat wis ik niet misschien staat het in het artikel?
ddr6 zou dat beter zijn dan hbm2?
Volgens mij hebben ze dat goed gedaan alleen al omdat hbm2 duurder geheugen is dan ddr6.
Dus kunnen ze de kaart goedkoper aanbieden.
Nee. DDR6 is niet beter, maar wel een stuk goedkoper.
Je kan verwachten dat nVidia het antwoord op AMD al heeft klaar liggen. Ze wachten nog een paar weekjes en dan komen de Ti kaarten van de RTX2060 en RTX2070 en gooien ze de prijzen van de 2060 en 2070 ietjes naar beneden. Dan staat AMD weer met lege handen.
Dat geloof ik ook wel, maar we weten niet of AMD hier nog iets achter de hand heeft. Zolang de prijs prestatie's in orde zijn in het prima.

Ik zie veel reactie's van mensen die roepen dat het allemaal verschrikkelijk is met AMD, maar dat is natuurlijk niet zo. Is het belangrijk dat ze niet de snelste kaart hebben? Nee, want die segment verkoopt natuurlijk zeer mondjesmaat in vergelijking met de meer budget kaarten.

Ik denk dat de 5700X best een interessante kaart kan worden als die nog wat zakt. Maar echt mainstream zit nu meer tegen de 200€ per kaart dan 1200€. Zelf heb ik een RTX2080 maar ook dat is niet doorsnee.

Als AMD met een goede vervanger in huis komt, en bv met de nieuwe technologie waar ze alles veel meer detail maken met weinig performance verlies zie ik liever dan ray-tracing. Die gebruik ik namelijk niet, omdat mijn FPS dan zo inzakt dat het niet leuk meer is.

Mensen die dit als argument aandragen zijn niet bij de tijd. Ik heb een 165hz monitor op QHD dat is veel belangrijker dan 30 fps slideshow met RT aan.

Prijs/prestatie is voor nagenoeg iedereen het meest van belang. Nu AMD dat weer op orde lijkt te hebben, zie ik het goed komen met ze, zeker ook omdat ze de nieuwe Ryzen cpu's uitbrengen die zeer goed presteren. Gewoon knap dat een bedrijf met beperkte middelen ivt de concurrentie het zo goed doet!
Nou, als je dus kijkt waar dingen nu staan, lopen ze ongeveer 6-12 maanden achter op NVidia kwa technologie. Da's behoorlijk veel. En dat wil dus zeggen dat ze alleen op prijs kunnen concurreren. Dat levert per definitie lage marges op. Maar goed, misschien is dit de opmaat naar een Ryzen-revival bij de videokaarten.
Er is ook een feature gemeld voor de 5700 die "anti latency" heet. Dat maakt de lag een stuk kleiner. Kan soms 10 tot 20 tienden van een seconde milliseconden schelen. Dat is in multiplayers een flinke hoeveelheid.
Edit: schaal aangepast.

[Reactie gewijzigd door XuPrX op 11 juni 2019 18:08]

Geloof er weinig van. 100 tot 200ms minder delay? Zo'n delay zie je überhaupt bijna nooit bij een game en maakt een game vrijwel onspeelbaar.
Als je altijd op 100-200ms speelt gaat dat makkelijker hoor en merk je er niks van. Ik snap ook niet waar die 100-200ms winst vandaan komen want vgm is de totale latency van een pc niet veel meer dan 20-50ms als je een redelijke monitor hebt.
Ik denk dat @XuPrX zich vergist in de schaling. 20ms is niet 0.2s maar 0.02s. Dus het gaat niet om tienden, maar honderdsten van seconden.
in de presentatie ging het over paar frames die je verliest en hier over ms omdat dat in de slide te zien was, maar daar zei die meneer niks over.
Had het problerm bij AC Unity waar m'n cpu zo hoog belast was dat m'n muis stuterde :)

Vaak helpt je game op low priority zetten ook wel
ik weet niet waar hij 100 of 200ms minder van daan haalt.
In de demo van AMD ging het van net geen 60ms (zowel nvidia als AMD) naar 45ms.
Edit. Eerst nog even checken.

[Reactie gewijzigd door Brutal1ty op 11 juni 2019 13:58]

Als ze dat daadwerkelijk in praktijk tests met daadwerkelijke gebruiksscenario's weten te realiseren wel ja.. 20ms van je latency af is toch wel significant.. waar je die ook behaald (netwerklaag, compute laag, input laag, draw laag, etc)
Door bepaalde settings aan te passen kan je latency nu al merkbaar verlagen.

Bij nvidia kan je pre rendered frame verlagen, bij amd heet het geloof ik "flip queue", aan te passen met radeonpro.

Als je een free- of gsync scherm hebt en in de opties van de game een fps limiter aanzet verlaag je de latency ook.
Je bedoelt een fps limiter ingame verhoogt je latency?
Het lijkt misschien tegenstrijdig, maar een ingame fps limiter verlaagt meestal je latency.

Als de game de limiter is dan wordt de muis/toetsenbord uitgelezen en verwerkt je pc het zo snel mogelijk om dan direct op de monitor weergegeven te worden.

Als de game niet de limiter is dan zal dat de cpu, gpu of monitor (vsync) zijn, en blijft de data langer hangen omdat bijvoorbeeld de cpu al klaar is en de data moet wachten tot de gpu klaar is met de vorige frame.
Dus i.p.v. 144 fps instellen op 100 of 60 ofzo?
142fps, je wil een hoge fps voor lagere latency maar je wil niet dat vsync aangaat.
142 is te weinig, volgens battle(non)sense heb je meestal een "overshoot" van rond de 5 fps dus kan je het beter op 139fps instellen.
Als ze dat daadwerkelijk in praktijk tests met daadwerkelijke gebruiksscenario's weten te realiseren wel ja.. 20ms van je latency af is toch wel significant.. waar je die ook behaald (netwerklaag, compute laag, input laag, draw laag, etc)
In dit geval de Marketing mumbo jumbo laag?
Hier mag ik misschien een beetje pessimistisch zijn, maar ik zie Nvidia wel een RTX 2060 Ti en een RTX 2070 Ti uitbrengen voor iets meer performance en minimaal extra geld om ervoor te zorgen dat AMD's grond weer kleiner wordt.

Zo is de aanpak tot nog toe ook met Vega geweest en ik zie dat niet veranderen.
Eerlijk waar, ik hoop dat AMD hier weer naar boven krabbelt en gewoon weer degelijke concurrentie zal bieden aan Nvidia, maar Radeon heeft zoveel tegenslagen gehad dat ik eerst wil zien hoe het zal lopen.
je doet alsof AMD niet zou kunnen reageren op een eventuele prijs verlaging van nvidia.

Vega was veel duurder om te maken als hun nvidia tegenhangers (grotere die, duur HBM geheugen).
Dat is met Navi niet meer het geval.
Dat is niet waar ik volledig op doel, maar het is in het korte verleden erg lastig geweest voor AMD om sterke concurrentie te bieden tegenover Nvidia.

Begrijp mij niet verkeerd, ik wil hier niet zeggen dat ik pro-Nvidia ben. Radeon kaarten lijken het lastiger te hebben dan Ryzen, zelfs met nieuwe generaties en met elke vernieuwing die ze op de markt brengen. Maar Nvidia doet het lijken alsof ze AMD met 2 vingers in de neus bijhouden bij iedere nieuwe release.

Stevigere concurrentie zouden we hier juist nodig hebben en ik hoop dat de RX 5700 en RX 5700 XT dat kunnen bieden.
Het zit hem er ook in dat AMD gamers ook die generaties minder als klant beschouwde. GCN werkt erg goed in compute taken en wordt daar voornamelijk ook voor gebruikt. RDNA is een op gaming gerichte architectuur, GCN houden ze voor compute.
Voor Ryzen uitkwam ging het niet denderend met het bedrijf en hadden ze gewoon niet genoeg geld om in R&D te stoppen en dus een game en compute architectuur te onderhouden (Nvidia heeft bijvoorbeeld naast Pascal ook Volta wat veel meer op compute gericht is). Het hielp ook niet dat ze elk jaar nog GF moesten afkopen.

Daarnaast is de markt verhouding al sinds de 8000 generatie van Nvidia gewoon niet in het voordeel van AMD. De marketing van AMD is altijd zwakker geweest maar ATI stond ooit wel als premium merk bekend. Doordat ze lange tijd niks tegen de 8000 generatie van Nvidia hadden heeft Nvidia mindshare opgebouwd waardoor alle minder goed ingelichte mensen de rommel die Fermi heet kochten zelfs toen AMD de veel betere kaarten had.
Ach, intel dacht ook een lange tijd dat ze onaantastbaar waren totdat ze tegen problemen aanliepen.
Die 1,5 jaar voor sprong die intel had is nu weg, het zelfde kan met nvidia ook gebeuren, het is
vaak eenzaam aan de top, de kans dat je in slaap sust is groot :P
AMD ziet het combineren van meerdere gpu's door het gebrek aan CrossFire-ondersteuning in ieder geval zelf niet als een logische optie om de concurrentie aan te gaan met snellere kaarten van Nvidia.
Wat apart is, aangezien ze voor Apple een kaart hebben met 2 GPU's erop.
Kwestie van 1 setup wel willen ondersteunen, maar niet de absurde variatie in de markt voor Windows PC's.

Heel klein marktaandeel, heel veel moeite, werkt nooit foutloos en gaat toch nooit de absolute prestatiekroon van Nvidia afpakken.
(bijna) niemand gamed op een apple. daar zit het probleem met dual GPU setup's.
3d modeling bijvoorbeeld is veel minder latency/lag gevoelig.
Omfg weer geen HDMI 2.1 wat is dat toch. Ik weiger principieel HDMI 2.0 bij nieuwe videokaarten.
Dat is inderdaad wel een dingetje ja. Ik zit al een beetje te kijken naar een LG 120hz OLED tv, maar daar zit vanzelfsprekend geen DP aansluiting op, dus zal het via HDMI moeten gaan gebeuren. Dan wordt het onderhand wel tijd dat die dingen op de videokaarten gaan komen ja.
Wat zit er in HDMI 2.1 dat jij zo hard nodig hebt? De grote feature van HDMI 2.1 is 8k. Er zijn nog geen 8k monitoren (alleen een paar TVs), dus ik vind het niet vreemd dat de fabrikanten geen HDMI 2.1 op hun kaarten zetten.
Ik gok dat Variable Refresh ('Freesync') het probleem is. Hoewel het volgens mij meer een probleem is dat TV makers wel willen roepen dat je super goed kan gamen op hun schermen, maar vasthouden aan HDMI als enige input.
Naast vrr behoort 4k 120hz zonder compressie ook tot de mogelijkheden. Of is dat bij hdmi2.0 ook mogelijk?

Aangezien de monitoren markt om te janken is en echt niets voorstelt naast een gemiddelde high-end tv met super sexy hdr. Alle functies ondersteunen zonder compressie is dan wel een pré.

Alleen counterstrike nerds zullen niet tevreden zijn met een niet waarneembaare <20ms latency.
Wat zit er in HDMI 2.1 dat jij zo hard nodig hebt? De grote feature van HDMI 2.1 is 8k. Er zijn nog geen 8k monitoren (alleen een paar TVs), dus ik vind het niet vreemd dat de fabrikanten geen HDMI 2.1 op hun kaarten zetten.
-4K 120 Hz
-variabele refresh rate ( de belangrijkste )

Ik heb deze opties op mijn monitor en wil dit ook op de tv hebben. Daarbij is een aanschaf van een videokaart bij mij voor minimaal 5 jaar. Dus nu nog een 2.0 kopen is gewoon not done.
Variable refresh rate over HDMI heeft AMD al, al jaren trouwens,

En 4K 120hz kan al via display poort.
Er zijn alleen bijna geen TVs met display port. Dus het moet over HDMI.
Dat is juist mijn punt. TV's hebben geen DP
Dat is het punt van Countess, AMD kan het al jaren via HDMI. Je hebt dan geen DP meer nodig.
VRR wel, 4K120hz niet..

Dus nog steeds DP nodig.. of HDMI 2.1
VRR icm met LG Oled 9 serie.

Mijn 960 kan wel een upgrade gebruiken, maar hdmi2.0 is onvoldoende upgrade ( ik weiger beperkt te worden door I/O)

[Reactie gewijzigd door eL_Jay op 11 juni 2019 11:53]

Moet je toch beter research doen, AMD kan dit allang via HDMI en er zijn genoeg monitoren die het alleen via HDMI ondersteunen.
https://www.amd.com/en/te...chnology-work-over-HDMI®?
https://www.amd.com/en/products/freesync-monitors
Kun je me een linkje sturen waaruit blijkt
Dat de de LG Oled 9serie TV's wordt ondersteund?(4k 4:4:4 120 Hz uiteraard). Want ik zie daar alleen monitoren.

[Reactie gewijzigd door eL_Jay op 12 juni 2019 07:15]

Stukje speculatie:

Volgens mij heeft AMD op dit moment alle productiecapaciteit op 7nm nodig om hun Ryzen's te produceren. Daarom krijgen we nu maar twee GPU's in de high-midrange die een relatief kleine die-size hebben. Het lagere segment kunnen ze nog serveren met hun oude inventaris aan RX-en en Vega's.

Ook vind ik de prijzen niet schuw. Zijn gaan duidelijk voor de marges, niet afzet. Dat doet dus inderdaad vermoeden dat ze productie niet enorm willen opschalen. De vergeleken met RTX's behoorlijk kleinere die-size geeft de indicatie dat deze chips goedkoper te produceren zijn, en toch worden ze w.b.t. prijs-prestatie vrij nauw tegenover de competitie gezet.

En uiteraard is Nvidia's line-up in het budget-segment een stukje minder spannend, daar kan AMD nog wel meekomen met haar oude GPU's. Nog geen reden om daar wat nieuws te introduceren dus.
Vergeet niet dat de nieuwe console's dadelijk dezelfde hardware aan boord krijgen. Daar zullen ze ongetwijfeld wat productiecapaciteit voor gereserveerd hebben.
Het duurt nog minstens één jaar voordat Sony en microsoft hun nieuwe consoles uitbrengen.
Ja want ze gaan pas bij het uitbrengen van de console's de onderdelen produceren? Niet eerder dan dat uiteraard 8)7

[Reactie gewijzigd door Luke Skyballer op 11 juni 2019 12:01]

Dit is inderdaad de reden dat daar voorlopig nog geen productie aan besteed zal worden. De volgende generatie RDNA met hardware ray-tracing die in de consoles gebruikt gaat worden is zelfs nog in ontwikkeling, dus daar valt nog niets aan te produceren.
Ben zelf van plan een workstation te gaan samenstellen (cpu rendering en werken met opengl software), ik zat te denken aan de Threadtripper 2990wx en de Radeon VII (ik game niet op deze pc, dus opengl heeft voorrang).

Zou deze nieuwe lijn aan gpu/cpu's nu een goed alternatief wezen, of komen hiervoor ook nog opvolgers?
Er gingen geruchten dat threadripper geen vervolg kreeg. Ik denk dat een 3950x je workloads goed aan kan. TR4 was ook een vrij duur platform als je de basis cpu nam (moederborden zijn redelijk aan de prijs afaik), met de 3950x zit je dus wel goed als je genoeg hebt aan een 8/16 cpu
Die geruchten zijn later glashard ontkent door Lisa Su. TR4 wordt zeker niet vergeten: https://www.tomshardware....oadmap-removal,39460.html

Ik schat echter dat we pas meer weten in september, of er moeten eerder BIOS-en uitlekken voor de oudere bordjes.

Want om eerlijk te zijn, als een TR4 early adopter, maken deze nieuwe CPU's mij best... happy. Een 3950x zou een goede sidegrade zijn, ware het niet dat ik een hoop PCI-E lanes en memory bandwidth inlever er voor (met drie, binnenkort vijf PCI-E SSD's en afwisselend één of twee GPU's heb ik de lanes nodig, hoewel ik moet bekennen dat PCI-E 4.0 m'n SSD ding best veranderd heeft... ipv vijf PCI-E 3.0 SSD's zou ik met twee/drie PCI-E 4.0 SSD's toekunnen, alleen dan geen lanes voor GPU's meer...)
Hij zal voor een 3950x sowieso moeten wachten tot september en als er threadripper nieuws is, zal dat inmiddels bekend zijn en kan er een betere keuze gemaakt worden.


edit: o.a typos

[Reactie gewijzigd door Javahne op 11 juni 2019 09:26]

Wellicht na vele jaren weer is een AMD processor in mijn PC. De specs van de 3950X zien er indrukwekkend uit. Eindelijk een AMD cpu die niet alleen meedoet voor de beste prijs/prestratieverhouding, maar voor de performance kroon gaat...

Ik wil gewoon de beste gaming cpu ongeacht of deze nu van Intel of AMD komt.
Doe jezelf een plezier en neem een 8-core Ryzen II. Voldoende voor gaming en 16 cores kun je toch niet voeden met dual channel memory. Met het geld wat je zo bespaart koop je een Radeon VII.
Waarom zou je 16 cores niet kunnen voeden met dual channel? zeker met high end geheugen heb je meer als genoeg bandbreedte, zeker ook door de grotere L3 caches.

verder wel met je eens dat een 8 core ryzen ook een prima game CPU is.. maarja sommige willen persee the beste, en dat is nu ongetwijfeld AMD.
Dat is een goed punt, daar had ik nog niet over nagedacht. Mijn mening was gebaseerd op het feit dat Prime95 op 4 threads met 256-bit FMA de volledige geheugenbus dicht trekt, maar dat was een Haswell met DDR3-1600.
Als je praktisch (lees meer value for money) gezien het beste wilt zou de 3900X toch een betere keuze zijn. Relatief gezien stukker goedkoper maar nog wel 12 cores en de grootte cache.
Maar er zijn genoeg opties ieg, ook voor degene die het niet nodig hebben maar wel fanboy zijn of geld als water hebben. :+

[Reactie gewijzigd door The Chosen One op 12 juni 2019 11:42]

Nou, dat zal niet nodig zijn, gezien ik nu een 2080 Ti heb... Een Radeon VII is een downgrade in dat geval. De opvolger hiervoor wordt waarschijnlijk wederom Nvidia, gezien ik er geen vertrouwen in heb dat Navi in het high end segment echt iets zal kunnen brengen...

Een 3950X is een wellicht een mooie upgrade voor mijn Intel 7820X... Wel even de benchmarks afwachten uiteraard...
Ik ga binnenkort een nieuwe PC bouwen(alleen de voeding en behuizing blijven hetzelfde). Alles komt zo een beetje uit 2012-2013. Nu ben ik zelf fan van AMD. Ik zat al te wachten op Ryzen3000 serie en nu ook deze kaart eraan komt zou ik overwegen deze ook te kopen (5700XT). Ook zodat ikniet te veel geld hoef uit te geven aan G-Sync monitoren.

Lees erg veel verschillende meningen over AMD. Hier toevallig mensen met een mening over AMD hardware? :)
Lijkt op een prima kaart, wel even reviews afwachten van iets als Gamers Nexus als het je puur om de prestaties gaat. G-sync compatible is onderhand wel een ding, wat tot op een zekere hoogte wordt ondersteund. Daardoor kan je met een Nvidia kaart van freesync gebruik maken. Helaas werken lang niet alle schermen zo vlekkenloos als ze zouden moeten werken.
Persoonlijk gun ik AMD nog wel eens 10% oid in prijs/prestaties om de concurentie in de markt te houden zodat we over 5 jaar ook nog een leuke kaart kunnen kopen, maar daar schiet je vandaag of morgen weinig mee op. Mocht je ooit linux willen gaan draaien dan heeft AMD het wel goed voor elkaar qua drivers ed, in tegenstelling tot Nvidia.
Top! Dankjewel voor je antwoord MauriceL :)


Om te kunnen reageren moet je ingelogd zijn


OnePlus 7 Pro (8GB intern) Microsoft Xbox One S All-Digital Edition LG OLED C9 Google Pixel 3a XL FIFA 19 Samsung Galaxy S10 Sony PlayStation 5 Huawei

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True