Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Julian Huijbregts

Nieuwsredacteur

Ryzen 3000 en Radeon RX 5700 Preview

Alle details over AMD's nieuwste cpu's en gpu's

Tot slot

Nu de verschijningsdatum van de derde generatie Ryzen-processors nadert, weten we veel meer van de de nieuwe cpu's. De benchmarks die AMD toont en details die het bedrijf gegeven heeft, zijn veelbelovend. AMD lijkt het verschil in single threaded-prestaties met Intel bijgebeend te hebben door ipc-verbeteringen en hogere kloksnelheden. AMD belooft gelijke prestaties in games met Intel-processors in dezelfde prijsklasse, terwijl de prestaties in workloads die geoptimaliseerd zijn voor veel cores vaak hoger zullen zijn.

Met zijn nieuwe Ryzen 3000-processors en X570-moederborden zet AMD zichzelf niet neer als een goedkoper alternatief. De fabrikant heeft met zijn nieuwe platform een aantal features in handen die niet bij de concurrent te vinden zijn, zoals pci-e 4.0-ondersteuning en tot zestien cores op een consumentenplatform. Voor videokaarten is pci-e 4.0 op dit moment nog niet echt een voordeel, maar het maakt wel veel snellere ssd's mogelijk. Die X570-moederborden worden echter duurder dan X470-borden en verbruiken ook meer. Borden uit de 400-series blijven beschikbaar als goedkoper alternatief.

Onafhankelijke benchmarks moeten uitwijzen of AMD al zijn beloftes waar kan maken, maar op cpu-gebied ziet het er goed uit voor het bedrijf. De nieuwe Radeon RX 5700-videokaarten beloven ook een grote vooruitgang te zijn ten opzichte van de RX 500-kaarten, maar op prijs en verbruik lijken ze de concurrerende kaarten van Nvdia niet echt te kunnen verslaan.

Het verbruik van de Radeon-kaarten is op papier hoger dan dat van de RTX 2070 en 2060 waar de RX 5700XT en RX 5700 tegenover worden gezet. Ook is het verschil in prijs niet groot. De adviesprijzen van 449 en 379 dollar zouden om omgerekend in euro met btw op 480 en 405 euro uitkomen en dat maakt de Radeon-kaarten in potentie duurder dan de RTX 2070 en 2060 die momenteel te koop zijn vanaf zo'n 470 en 350 euro.

Met de komst van de eerste Navi-kaarten heeft AMD wel een nieuwe weg ingeslagen voor videokaarten. De RDNA-architectuur die daar de basis van vormt moet in de komende jaren terugkomen in nieuwe producten en zal ook hardwarematige ondersteuning voor raytracing krijgen. Zowel Microsoft en Sony hebben al bekendgemaakt dat ze hun nieuwe consoles op Zen 2-cpu's en RDNA-gpu's baseren en dat betekent dat er vanuit de game-industrie in ieder geval volop ondersteuning zal zijn voor de nieuwe architecturen.

Lees meer

Reacties (165)

Wijzig sortering
Als ik de slides goed samenvat dan krijgt de Radeon 5700 XT 1.5 keer betere performance per watt en 2.3x performance per area. Als gamer zien we daar, volgens amd, tussen de x1.24 en x1.41 van terug. Zeg gemiddeld x1.30. Even rekenen, de Vega56 kwam voor $399 op de markt en heeft in februari een verlaging naar $279 gekregen. De 5700XT gaat dus respectievelijk 12.5% en 60% meer kosten. Daar krijg je dan als gamer +- 30% prestatie voor terug. Dat kan ik geen goede deal noemen. Zelfs bij de RTX 2070 kwam mijn berekening gunstiger uit. Het lijkt wel een slide uit het handboek van Nvidia!

De Vega 56/64 waren te duur om te maken door HBM en waren aan vervanging toe. De RX 590 moest in productie blijven ivm verplichtingen aan Globalfoundries. De Radeon VII is zo recent op de markt gezet dat een Navi met dat prestatie niveau gewoon niet logisch zou zijn. Wat resteerde was een Vega56/64 vervanger die voor AMD simpelweg goedkoper zou zijn om te produceren. Het lijkt er sterk op dat we die nu hebben gekregen. Wat dat betreft is deze Navi voor qua positionering voor mij vrij logisch en eigenlijk exact wat ik voorspeld had.

De prijs positionering is zeer interessant. Het zit er dik in dat deze gpu goedkoper is te produceren dan Vega, maar ondertussen kost hij wel meer. AMD kiest er dus eigenlijk voor het eerst sinds de overname van Ati Radeon ervoor om Radeon als 'premium' alternatief neer te zetten en niet meer als 'value' alternatief. Dat is natuurlijk een bewuste keuze waar je een mening over kunt hebben.

Vanuit consumenten perspectief is dat niet zo leuk. Waar de HD 4870 destijds Nvidia dwong om de prijzen onderhand te halveren zetten ze nu niet of nauwelijks druk op Nvidia, terwijl ze het wel kunnen. AMD gaat de dure prijzen van RTX dus niet voor ons oplossen. Bedrijfsmatig kan dit echter best een sterke zet zijn. Wat AMD nodig heeft is marge, marge die weer in R&D kan worden gestoken om zo het gat met Nvidia te dichten. Wellicht heeft AMD na 10 jaar eindelijk ingezien dat wanneer je producten net boven kostprijs verkoopt je geen geld hebt voor de benodigde R&D.

Wat ik persoonlijk dan wel jammer vind is dat AMD hier dan blijkbaar een premium alternatief wil neerzetten op basis van een blower kaart. Gemiste kans want ik, en met mij velen, worden al 20 jaar niet warm van een blower kaart. Dat geeft meer herrie voor minder performance. Ga dan all in en kom met een twin/triple fan kaart inclusief 'fans-off' techniek. Volgens de geruchten komen er custom kaarten in augustus, maar van AMD zelf heb ik tot heden hier nog niets over kunnen vinden.
Ik denk dat het belangrijk is om om te merken dat de consument zelfs ten tijd dat AMD een beter deal bod dan Nvidia, ze AMD links lieten liggen. Ik kan dan niet anders concluderen eigen schuld dikke bult.
Eigen schuld, dikke bult voor wie? Voor AMD of voor de consument?
Wat ik persoonlijk dan wel jammer vind is dat AMD hier dan blijkbaar een premium alternatief wil neerzetten op basis van een blower kaart. Gemiste kans want ik, en met mij velen, worden al 20 jaar niet warm van een blower kaart. Dat geeft meer herrie voor minder performance. Ga dan all in en kom met een twin/triple fan kaart inclusief 'fans-off' techniek. Volgens de geruchten komen er custom kaarten in augustus, maar van AMD zelf heb ik tot heden hier nog niets over kunnen vinden.
Ik weet dit niet zeker, maar ik denk dat dit is om de fabrikanten tegemoet te komen. Hoe slechter de koeler op de reference kaart, hoe groter de kans dat consumenten die het budget hebben, ook daadwerkelijk een betere (en dus duurdere) koeler gaan uitzoeken. Zo zullen enkel de consumenten die echt het budget niet hebben kiezen voor de goedkoopste reference kaarten (met dus de kleinste marge voor de fabrikant).

Wat dit in mijn ogen ondersteunt, is dat reference designs altijd al ruk zijn geweest, terwijl een beetje een goede koeler echt geen rocket science is: de knowhow is er, en de kosten zijn laag. De enige reden die ik zie om een slechte blower te gebruiken, is segmentering, en klanten naar kunstmatig duurdere kaarten te jagen.

Daarnaast zagen we recent slechts 1 uitzondering: nVidia met Turing. Die generatie zag ook enorm veel hogere prijzen, en er was geen concurrentie. Ook dit past in mijn theorie: nVidia kan doen wat ze willen. Wat gaan de fabrikanten tenslotte doen: geen nVidia kaarten verkopen? Dan verliezen ze de high-end segment met de hoogste marge.

AMD heeft die luxe echter niet: als AMD niet meegaat met de wensen van de fabrikanten, verkopen de fabrikanten simpelweg geen AMD kaarten.
En als mensen afhaken voor pc en voor console of streaming kiezen, maakt AMD dat geen zak uit, want ze zitten overal in de toekomst. Sterker nog, Nvidia prijst zichzelf misschien uit de markt en AMD profiteert daar van.

Toch vind ik het compleet ruk. Ik zou zo 500 euro bestelden als het goede prijs/prestaties zou leveren. Maar verre van dat. Nvidia is ook ruk. Alles boven de rx 580/ 1660ti heeft scheve verhoudingen wat prijs/prestaties betreft naar mijn mening.
Toch vind ik het compleet ruk. Ik zou zo 500 euro bestelden als het goede prijs/prestaties zou leveren. Maar verre van dat. Nvidia is ook ruk. Alles boven de rx 580/ 1660ti heeft scheve verhoudingen wat prijs/prestaties betreft naar mijn mening.
We hebben nog geen reviews van de 5700 XT gezien dus een slag om de arm houden is altijd verstandig.

Wat betreft prestaties per dollar is het de RTX 2060 die momenteel nog als één van de toppers uit de bus komt aldus techpowerup. Sterker nog de 1660 (basis en ti) stond net onder de prestatie per dollar dan de 1060 terwijl de 2060 het beter doet dan de 1060. (Wat dan weer vreemd is want de 2060 staat in die grafiek hele ergens anders).

Maar goed, het kan prima zijn dat de bereidheid om meer dan 300 euro uit te geven aan een videokaart bij jouw en andere ontbreekt. Het houdt natuurlijk een keer op.

[Reactie gewijzigd door sdk1985 op 11 juni 2019 19:33]

Bereidheid? Ik zeg toch dat ik zo 500 euro uit zou geven? Ik had het al klaarliggen bij wijze van spreken, maar niet voor deze kaarten die veel te hoog geprijsd zijn voor wat het biedt. Ik heb het niet over de 1660, maar over de 1660 ti.

Ja je kunt reviews afwachten, je kunt er ook op wachten dat zodra deze kaarten met aftermarket koeling op de markt komen ze waarschijnlijk 500 euro of meer zijn. En dan komen ze pas in augustus als je mazzel hebt. Het gerucht is augustus, verder nog 0 informatie over custom kaarten.

Het is gedaan met de redelijke prijzen ben ik bang, ik ga wel weer naar 2e hands opties kijken.
AMD had weinig keuze denk.
Nu de Radeon als Value neerzetten reflecteert ook door naar hun CPU's, en die willen ze natuurlijk niet als value neerzetten omdat het gewoon de superieure CPU is van het moment, en waarschijnlijk tot ten minste '21 zal blijven.

Gelukkig gaan ze dus idd nu wel doen waar ik een tijdje terug al op hoopte, en gaan ze zichzelf dus gewoon als directe concurent of misschien wel marktleider profileren. Dan kan je natuurlijk niet je ene product Top-of-the-Line marketten, en je andere als maximaal budget, terwijl hij dat gewoon niet is, het wordt gewoon sub-top, met navenante prijzen.

Ja dat is nu even teleurstellend voor consumenten, maar als over 6/12/24 maanden AMD's logo overal weer prijkt, en de naam weer gemeengoed wordt en synoniem met AMD=OK (olé olé :+), dán kunnen ze weer eens gaan denken over prijzen iets te verlagen, want waar ze Intel stevig bij de cojones hebben op dit moment, hebben ze nVidia nog lang niet op hun knieen.

Vergeet niet dat hun omzet/winst nog steeds maar een fractie is van zowel Intel als Nvidia, terwijl ze beide het vuur aan de schenen legt, dus nu even lekker cashen, heel hard schulden inlossen en bakken geld richting R&D gooien, zorgen dat je bedrijf gezond wordt en je naam synoniem voor kwaliteit.

Al met al wacht ik nog even op RDNA2, en steun ik ze binnenkort wel door een nieuw Ryzen systeempje in elkaar te flansen, die 3700X/X570/32GB klinkt als een prima upgrade voor mijn oude Intel systeempje.

[Reactie gewijzigd door zion op 11 juni 2019 22:08]

Het ziet er eindelijk weer een beetje goed uit voor AMD. Dat werd wel tijd. Ik begrijp dat er later of mogelijk in 2020 pas 5800 en 5900 serie gpu's uitkomen die tegen de 2080 en ti versie op moeten nemen.

Als we kijken naar de huidige architectuur en de cores die erin zitten zou dat goed kunnen kloppen.
Als de prestatie's daadwerkelijk zijn zoals geschetst dan zijn de cores van AMD en Nvidia redelijk gelijkwaardig op veel vlakken. Enkel verbruik is beter bij Nvidia. Maar ze hebben een inhaalslag gemaakt.

Natuurlijk zal Nvidia niet stilzitten en wanneer zij op 7nm overstappen weer ruimer de leiding nemen.
Jammer dat de 5700XT niet 50 dollar goedkoper is, dan had die echt perfect in prijs geweest.

Nu wachten tot 7 juli op echte benchmarks.
goed uit?

iets minder prijzig, maar geen hardware raytracing en toch driekwart jaar later dan dat van nvidia.

iets zeg me dat deze kaarten weinig zullen verkopen. gezien de kaart van nvidia maar 50 euro duurder is voor raytracing erbij.

(comment is geplaatst met als vooruit zicht dat de performance van de kaart gelijk aan elkaar zijn)

Ik hoopte eigenlijk dat amd een rtx 2080 prestatie voor een prijskaartje van een rtx 2070 kon verkopen.
Ik ben ook niet zo onder de indruk van dit nieuws moet ik zeggen. Ik had hen graag zien innoveren in lager verbruik, maar dat hebben ze ook deze keer niet voor mekaar kunnen krijgen. Daarnaast had ik heel graag zen type cpus voor type mini pc gezien, maar ze blijven nu ook weer focussen op dure spullen: dure cpus, dure moederborden en dure grafische kaarten die ook nog eens duurder worden door hun verbruik. Het zal nog lang duren voor ik amd zen cpus kan gebruiken in goedkope server toestellen of nuc alternatieven.

Ik ben in elke geval niet gestimuleerd om een upgrade te doen of voor deze types te kiezen voor een nieuw systeem.
Wat een 'ze hebben niet de focus gelegd op precies wat ik wil dus alles is ruk' reactie zeg.

TDP hun 8 core 3700x CPU is de helft van die van intel 9900k, (en het echte verbruik gaat waarschijnlijk nog meer schelen) maar er is geen innovate in verbruik?
ze hebben een 16 core CPU voor 105 watt!

nieuwe 3000 series APU's zijn ook uitgekomen. als je iets zuinigers zoekt voor NUC zou ik daar naar kijken.
Die geadverteerde TDP waarde van hun CPUs is bij AMD nutteloos, want het werkelijke verbruik ligt bij hun CPUs elke keer (veel) hoger dan wat ze adverteren, terwijl het bij Intel werkelijk gaat om het verbruik van de CPU. Pure marketingtruc van AMD dus, en als je je daarop baseert ben je fout bezig. Je moet daarvoor op de reviews wachten.

Maar qua verbruik had ik het niet echt over de CPUs maar de GPUs. Daar zie ik ze graag meer innoveren, want hun kaarten zijn nog altijd stroomvreters en ze blijven slecht presteren op dat vlak. Ja, ze kunnen weer met Nvidia concurreren in de topklasse, maar niet qua verbruik, niet qua warmteproductie en niet qua geluidsproductie bij hoge prestaties. Ik heb de komende jaren geen nieuwe grafische kaart nodig, dus deze soorten verbetering laat ik voorbij gaan. Maar als ik een evenwaardige kaart als de 580 kan kopen die aardig wat minder energie vreet, sta ik snel in de winkel!

De APUs van AMD vind ik top, maar het blijven dure CPUs. Er zijn na jaren nog altijd geen vervangers voor de goedkopere FX CPUs. Dus als je een goedkoop NUCje, NASje of backup servertje in mekaar wilt steken, ben je al een aardige som kwijt aan de CPU alleen of je moet het doen met verouderde technologie. Dus ook hier vind ik als klant niet wat ik zoek en vind ik het spijtig dat Intel de hele NUC markt domineert.

Begrijp me niet verkeerd, ik moedig verbetering bij AMD alleen maar aan. Ik vind gewoon niet wat ik zoek bij hen sinds de tweede Zen evolutie.
Die geadverteerde TDP waarde van hun CPUs is bij AMD nutteloos, want het werkelijke verbruik ligt bij hun CPUs elke keer (veel) hoger dan wat ze adverteren
je loop een beetje achter. Ik denk dat je even naar wat benchmarks van de 2700x en de 9900k moet kijken.
de 9900k gaat zijn boekje ver te buiten, terwijl de 2700x netjes binnen de lijntjes blijft.

bekijk hier de torture loop test maar eens
https://www.tomshardware....-9th-gen-cpu,5847-11.html
104 watt voor de 2700x (tdp 105 watt)
205 watt voor de 9900k (tdp 95 watt)

verder zeggen ze nog over cinebench en wat meer real world workloads: (tussen haakjes is het verbruik bij overklokken, kan je negeren)
We measured 137W (232W) during the Cinebench test, and we topped 145W (241W overclocked) under the larger Blender workload. We even pushed past 120W (198W overclocked) with various CAD plug-ins for Creo and SolidWorks.

[Reactie gewijzigd door Countess op 13 juni 2019 11:40]

TDP hun 8 core 3700x CPU is de helft van die van intel 9900k, (en het echte verbruik gaat waarschijnlijk nog meer schelen) maar er is geen innovate in verbruik?
ze hebben een 16 core CPU voor 105 watt!
Misschien is het verstandig je eerst in de materie te verdiepen. Waarom die processor predicaat naast je naam staat is mij een raadsel, als je zo'n basaal begrip als "TDP" bij een processor niet eens kent/begrijpt.
Vind het apart dat de Radeon RX 5700XT, 50w meer gebruikt dan de non founders edition Geforce RTX 2070 (225w vs 175w), ok dat is in 1 of 5 jaar tijd nog steeds niet veel, maar toch nog apart.

Verders wel leuk en goed dat er concurrenten eindelijk is voor de Geforce RTX 2060 en 2070.
Ja het zier er Inderdaad goed uit. Maar ach, het is ook nooit goed. Nvidia brengt te veel kaarten uit, AMD komt met 2 nieuwe kaart en iedereen klaagt over AMD en dat terwijl de kaarten echte alternatieve zijn voor de 2060 en 2070.

Wat heeft men aan ray tracing? Er is weinig aanbod qua games en het heeft prestatie verlies. Ik heb een RTX 2070 en heb het zelf gemerkt.

Als ik dit had geweten had ik misschien wel voor AMD gegaan. Ik kocht de RTX 2070 niet voor zijn Ray Tracing, maar prestaties. Ray Tracing zie ik meer als een extraatje.
voor singleplayer games voegt raytracing echt wel wat toe, er zijn nu 5 a 6 games die raytracing hebben en er komen er nog eens 10 bij.

daarin tegen duurde het AMD wel driekwart jaar om een mooi tegenhanger neer te zetten. Mensen wachten niet drie kwart jaar om bijna dezelfde performance te krijgen voor bijna dezelfde prijs.

maarja goed dat AMD in elk geval wilt, want dat zet de druk natuurlijk voor nvidia wel weer op de ketel om te blijven innoveren ;)
daarin tegen duurde het AMD wel driekwart jaar om een mooi tegenhanger neer te zetten. Mensen wachten niet drie kwart jaar om bijna dezelfde performance te krijgen voor bijna dezelfde prijs.
Ik vind altijd een beetje een loze kreet, alsof iedereen bij launch een nieuwe kaart koopt.
Niet bij launch nee, maar ook niet al te lang na launch, want dan zit je tegen aanbevolen winkelprijs aan terwijl prijsdalingen in het verschiet liggen en een nieuwe generatie ook niet lang meer op zich zal laten wachten.

Zo heb ik ook niet lang voor de nieuwe generatie een 970 gekocht. Zoiets doe je maar 1 keer. :+
Daarmee zeg je dus eigenlijk dat jij denkt dat nvidia ook bijna geen 2070's meer gaat verkopen.

Ik denk niet dat nvida het met je eens is. als dat zo zou zijn dan zouden fabriakten de productie van GPU's wel kort na de introductie stoppen. toch doet er dat geen een.
Echt loos vind ik het nu ook weer niet. Het is gewoon een feit dat hoe later je op het feestje komt, des te groter de kans is dat je uiteindelijk minder zal verkopen. Tegenover Pascal zag je al dat Vega ruim een jaar te laat kwam en daarbij ook nog eens teleurstelde. Veel klanten die toen op Vega gewacht hebben zijn toen teleurgesteld afgehaakt.

Nu zie je dat ze wederom 3/4de jaar te laat zijn, hopelijk dat ze dit keer niet teleurstellen in de reviews.
De vorige keer redde Bitcoin de RX.
Het argument hier, dat ze achterlopen, is een redelijk argument, denk ik. Dat doen ze. En ze proberen die achterstand weg te werken. Ze zijn er echter nog niet, dus voorlopig zal Radeon echt wel het stiefkindje blijven.

Misschien dat RDNA de belofte kan inlossen, op termijn. Om zover te geraken, zullen ze echter verkopen moeten draaien. En dus is het een goede keuze om deze kaarten te positioneren naast de Nvidia's. Met het risico dat ze teleurstellen op de koop toegenomen, waarschijnlijk. Die omzet is belangrijk, zodat RDNA2 kan worden ontwikkeld en de achterstand op Nvidia langzaam kan worden weggewerkt.

Ik heb de poen er niet voor klaarliggen, maar eerlijk gezegd: als ik op dit moment zou moeten kiezen voor een videokaart, zou die RX5700 een serieuze overweging waard zijn. 400€ vind ik nog net te behappen. In mijn geval zou dat ook een serieuze upgrade zijn, dus vandaar dat ik de overweging ook zou maken. En nee, ik zou niet voor Nvidia kiezen, omwille van 2 redenen:
  • Ik zie AMD graag terugkeren op de markt - steunaankoop idd (ook omwille van het bedrog door Intel)
  • Als ik een Ryzen-systeem ga bouwen, wil ik de drivers liefst ook allemaal AMD houden
Prestatie-gewijs zou het me eerlijk gezegd niet zo boeien, daar de 5700 waarschijnlijk vergelijkbaar is met de 2060. En dat is een amount of power die ik me niet zo snel zie gebruiken (ben geen full-time gamer).

[Reactie gewijzigd door Timoo.vanEsch op 12 juni 2019 17:25]

MIsschien een beetje, maar niet veel. Ik heb het geprobeerd in BF5 met medium Ray Tracing en wat gingen de prestaties omlaag, zelfde geld voor Shadow of the Tomb Raider. Daar was het nog erger. Maar het aanbod is niet groot, daarom kocht ik de 2070 voor de prestaties en niet de Ray Tracing functie.

Ik begrijp je punt, maar je begrijpt ook wel dat het niet in een dag gebeurd is? Ontwerpen, testen, opnieuw, fouten oplossen, etc. Dat kost tijd. En daarbij komt, AMD komt langzaam weer terug en wat verwacht iedereen? Een kaart die hetzelfde presteert als een 2080 (ti) voor €250.. Bijna dezelfde performance? Die xt variant presteert, volgens AMD, beter dan de 2070 en is goedkoper. Of weet jij iets wat andere nog niet weten? Dan hoor ik het graag. ;)
Wat heeft men aan ray tracing? Er is weinig aanbod qua games
Dan kan je maar beter elke vooruitgang niet kopen en 10 jaar wachten. Ray tracing voegt veel toe aan games en is echt de toekomst.

Dat er nu nog weinig titels zijn en dat dit voor deze generatie een overweging is kan ik mij voorstellen maar nu ook beide nieuwe consoles raytracing gaan ondersteunen gaat het aanbod in games (denk ik) flink omhoog!
Dat is niet wat ik zei, ik bedoel: ik heb een kaart met Ray Tracing. En het aanbod is nu nog niet groot. Op dit moment heb je er nog niet veel aan. Ja ik geloof echt dat het de toekomst is, ik heb het alleen over nu. Volgens mij heb ik ook nooit gezegd dat Ray Tracing niet de toekomst is. Maar het heeft wel wat prestatie verlies.

Ik bedoel qua ray tracing op dit moment, en bedoel niet dat mensen niet de RTX kaarten moeten kopen. Ik bedoelde echt alleen de functie nu op dit moment.

Ik heb de 2070 niet om de Ray Tracing gekocht, maar ik zie het als een extraatje, een bonus of hoe je het ook wilt zien. Ja dat denk ik ook, tenminste ik hoop het. Ray Tracing is erg leuk bedacht, heeft zeker de toekomst.
Raytracing ik ben totaal niet onder de indruk hier van, het is een flop we zijn 7 maanden verder en hoeveel ondersteuning is er? Zo goed als niks. En als het dan wel ondersteuning voor is dat liggen de frame rates op hun kont.
De bedrijven kunnen beter vol inzetten op CF\SLI. Op de prof video kaarten van beide bedrijven hebben namelijk al nieuwe technieken.
Video kaarten gaan namelijk niet meer veel sneller worden om dat die shrinks veel kleinere stappen gaan worden en minder op gaan leveren. Dadelijk moeten ze met fpgas gaan werken om meer features aan een kaart te geven.
De ontwikkeling en "doorbraak" van ray tracing loopt op dit moment echt niet heel anders dan hoe dat indertijd ging met nieuwe grafische features als bijvoorbeeld hardware-matige anti-aliasing, texture mapping technieken of tesselation. Vaak duurde het een, twee generaties voordat mainstream GPU's krachtig genoeg waren voor dat soort nieuwe functionaliteit.

Niet specifiek aan jou gericht, maar meer een algemene opmerking/observatie: ik vind het spijtig dat veel gamers (vooral de jongere generaties) vandaag de dag niet of nauwelijks nog het geduld en besef/begrip kunnen opbrengen voor het feit dat de invoering van grafische vernieuwingen een complex proces is dat tijd kost. In plaats daarvan kunnen we 'genieten' van een knap verwende, zeurderige generatie met een vaak een tot vervelends toe drammerige instelling en een zucht naar instant gratification...

[Reactie gewijzigd door w00t00w op 11 juni 2019 12:45]

Dit gaat niet meer over zelf gratificatie, Nvidia heeft dit kei hard gemarket als zijnde geweldig, maar 3/4 jaar verder werkt het niet als beloofd. En je heb een 2080ti nodig om het een beetje oke te laten draaien op 1080p. De games die het onder steunen kun je op 1 hand tellen. Ik kan best stellen dat het een flop is...
Tevens je bent nu al halverwege de productie cyclus van het product, volgend jaar staat 12-7mm op het programma van Nvidia. Bij AMD vega bracht dat 30% meer compute power mee. Ik denk zelf dat ze beter hadden kunnen wachten daar op en gewoon een opvolging van de gtx serie kunnen uitbrengenr. En Product kunnen lanceren als het ook echt goed, zou werken bij veel klanten gaat de rtx serie een bittere na smaak houden.
Ik ben zelf ontzettend benieuwd naar de Mac pro zijn quad vega oplossing. En of de ondersteuning daar van een beetje van de grond komt. (nee ik kan het niet betalen) maar als dit gaat werken in work flows. Dan zou het best kunnen dat we CF in de toekomst terug zullen zien. 1control chip die 2gpus samen 1 beeld uitsturen.
Heb je gewoon bewust ervoor gekozen de kern van mijn reactie te negeren? Ik had het erover dat het lang duurt voordat geavanceerde nieuwe grafische features lekker draaien op mainstream GPU's - soms zelfs meerdere generaties. Praktisch alle toeters en bellen die we nu vanzelfsprekend vinden hebben dat traject doorlopen. Tesselation, iets dat tegenwoordig nauwelijks nog genoemd wordt omdat het zo vanzelfsprekend is, was ook pas twee generaties later voor de massa met enthusiast-level hardware bruikbaar. Ik heb zelf ook vrij lang moeten wachten voordat ik het op mijn eigen computer kon aanschouwen in acceptabele framerate, en ondanks dat ben ik blij dat het indertijd op deze manier is aangepakt, want het alternatief is heel simpel: geen tesselation.
Optimalisatie en adoptie hebben nou eenmaal tijd nodig, en ik ben blij dat er nog hard- en software-partijen zijn (ongeacht wie) die risico's durven te nemen en tijd en geld willen investeren in nieuwe technieken - en zich verder niet zo veel van dat verwende geklaag uit de gaming community aantrekken (die wel degelijk alles wil, exact conformerend aan hun persoonlijke eisen, en wel meteen, en bijvoorkeur tegen spotprijzen - want anders is het ruk).

[Reactie gewijzigd door w00t00w op 11 juni 2019 16:42]

Ik moet zeggen dat de filmpjes van Minecraft met raytracing er erg strak uitzien. Ik kan niet wachten tot raytracing mainstream is geworden.
Ik heb ze ook gezien... Als je stil staat ziet het er gewoon geweldig uit... Maar als je beweegt buiten dan krijg je micro stuttors de hardware kan het gewoon niet aan en deze mensen gebruiken een 2080ti een videokaart kaart van dik 1200 euro.
Nog een jaar of 4 wachten dus.
Nee want Nvidia kan naar 7 gaan dat geeft een grote boost maar daarna hebben we het over single diget verbeteringen die 7+ en 5 nm gaan brengen en dan houd het wel op.

Sli crossfire komt in gedachten.. Maar ook FPGA'S je hebt vast wel de demo gezien van de nieuwe Mac pro, deze kan 3 streams van 12 k tegelijk weer geven doen een addon kaart waar een FPGA op zit. Een ander voor beeld zijn de bitcoin minners die maken daar ook gebruik van.

Ipv video cores de raytracing te laten berekenen, kun je het ook FPGAs laten doen. Bitcoin mining heeft dat laten zien dat FPGA'S prima kunnen rekenen beter dan video cores , nadeel ze kunnen maar 1 taak doen en zijn niet zo flexibel als video cores

Simpel gezegd een fpga kan alleen maar 1 taak doen bijvoorbeeld doet alleen optellen en af trekken. Een video core can ook vermenigvuldigen staart deling machten en wortels trekken.

Je zou ze kunnen programeren om juist alleen de raytracing te doen, nadeel is wel is er geen raytracing... Dan kun je ze niet ergens anders voor gebruiken
Tja RTX wat zullen we er van zeggen.... leuk feature maar peformance hit is ook vandaag de dag na veel optimalisaties nog te groot. Dat heeft gewoon nog 1-2 generaties aan hardware nodig. Dus dat die 5700 serie het niet heeft vind ik persoonlijk geen ramp. Games ondersteunen het nog amper.

Als ze volgend jaar met een kaart komen die zonder veel performance RayTracing effecten kan doen vind ik het prima en dan is het ook nuttig.

De prijs is wel een dingetje. Maar vaak worden de Dollar prijzen 1:1 euro prijzen soms iets hoger maar we moeten het even zien. Als de prijs hoger is dan van de nVidia tegenhangers wordt het wel een lastige en zullen ze er niet heel veel gaan verkopen. Dat gaat veel gamers er niet van overtuigen om niet voor nVidia te gaan.
Klopt raytracing is echt nekkend op de performance, vandaar ook dat ik meermaals heb aangegeven dat het alleen gebruikt zal worden in singleplayer games en het liefst een gsync / gsync compatible monitor.

anders zul je er last van kunnen hebben.
Tweakers vergelijkt hier de amd adviesprijzen met nvidia marktprijzen. Dat klopt natuurlijk niet, de praktijk leert dat adviesprijzen vaak (behoorlijk) hoger liggen dan marktprijzen. Reken er maar op dat deze nieuwe videokaarten de prijs / performance ratio gunstig gaan beinvloeden.
Inderdaad! Maar wel op voorwaarde dat ze goed beschikbaar worden. Dat is bij AMD helaas altijd af te wachten. :-/
Er is op dit moment geen mining hype, of unique geheugen, dat roet in het eten kan gooien.
Zeg dat niet te hard, Crypto lijkt weer in de lift te zitten de laatste maanden ;)
Advies prijzen zijn amper gehaald afgelopen jaren :X
Dat is waar vwbt vega maar dat ging wel over bijzondere producten met hbm geheugen, speciale, moeilijk te produceren chips. Er is geen indicatie dat dit zich weer gaat herhalen. De rx serie is goed te verkrijgen.

[Reactie gewijzigd door SpiceWorm op 12 juni 2019 14:50]

Bitcoins zijn weer aan het stijgen in waarde en alle andere coins zitten daar weer aan vast, dus je weet maar nooit. Elke video kaart was duur niet enkel de duurdere speciale modellen. Maar goed.
Over de iets hogere prijs dan verwacht, kan ik nog wel meekomen. Maar het gebrek aan hardware raytracing zie ik toch niet als iets negatiefs, ja ok het was leuk geweest. Maar.
Er zijn momenteel maar een stuk of 6 games die het ondersteunen en er zijn er momenteel maar een stuk of 10 aangekondigd die het gaan ondersteunenhttps://www.digitaltrends...t-nvidia-ray-tracing/?amp
En daar komt dan ook nog de impact op preformance bij (30 tot 40 % minder fps bij bijvoorbeeld metro exodus) https://www.pcgamer.com/m...ormance-ray-tracing-dlss/
Dus als je raytracing mee neemt zal het performance verschil gunstiger uitvallen voor amd.
Dus je betaald ietsjes minder verbruikt 50 watt meer en mist features waarom zou je dan nog voor de amd kaart kiezen.
Je krijgt bij AMD meer performance voor minder geld.

Waarom zou je dan voor nvidia kiezen?
Vanwege het rattengedrag van NVidia? Concurrentie is goed, hard spelen ook, maar rattengedrag... dat kun je maar beter niet belonen.
Is niet..ook in sp games wil ik dat gedrocht niet aan hebben. ik ga geen 50% performance inleveren voor iets wat amper te zien is.

(mocht ik een 2060/2070/2080 hebben)

[Reactie gewijzigd door Visgek82 op 12 juni 2019 07:51]

Het ziet er anders toch wel echt levendig uit hoor, naar mijn mening.

toen ik even een rtx kaart te leen had, heb ik er ook gebruik van gemaakt ;p
ja daar wacht ik ook op op die benchemarks.Het is net zoals je zegt al.s Nvidia ook op 7 nm gaat zitten zullen zij wel weer het voortouw nemen.Maar deze videokaarten van amd doen niet onder voor Nvidia
het ziet er allemaal best goed uit voor amd.Hopelijk kunnen zij deze trend nog jaren lang volhouden en doorgaan met goede producten maken.Ze zitten nog altijd met hbm2 geheugen?Ik zou wel eens een ddr6 geheugen willen zien met een amd videokaart.
Met deze videokaarten lijn bestrijkt amd het het midden en hogere segment.

[Reactie gewijzigd door rjmno1 op 11 juni 2019 10:43]

Dit zijn geen hbm2 kaarten, maar gddr6. ;)
Dat wis ik niet misschien staat het in het artikel?
ddr6 zou dat beter zijn dan hbm2?
Volgens mij hebben ze dat goed gedaan alleen al omdat hbm2 duurder geheugen is dan ddr6.
Dus kunnen ze de kaart goedkoper aanbieden.
Nee. DDR6 is niet beter, maar wel een stuk goedkoper.
Je kan verwachten dat nVidia het antwoord op AMD al heeft klaar liggen. Ze wachten nog een paar weekjes en dan komen de Ti kaarten van de RTX2060 en RTX2070 en gooien ze de prijzen van de 2060 en 2070 ietjes naar beneden. Dan staat AMD weer met lege handen.
Dat geloof ik ook wel, maar we weten niet of AMD hier nog iets achter de hand heeft. Zolang de prijs prestatie's in orde zijn in het prima.

Ik zie veel reactie's van mensen die roepen dat het allemaal verschrikkelijk is met AMD, maar dat is natuurlijk niet zo. Is het belangrijk dat ze niet de snelste kaart hebben? Nee, want die segment verkoopt natuurlijk zeer mondjesmaat in vergelijking met de meer budget kaarten.

Ik denk dat de 5700X best een interessante kaart kan worden als die nog wat zakt. Maar echt mainstream zit nu meer tegen de 200€ per kaart dan 1200€. Zelf heb ik een RTX2080 maar ook dat is niet doorsnee.

Als AMD met een goede vervanger in huis komt, en bv met de nieuwe technologie waar ze alles veel meer detail maken met weinig performance verlies zie ik liever dan ray-tracing. Die gebruik ik namelijk niet, omdat mijn FPS dan zo inzakt dat het niet leuk meer is.

Mensen die dit als argument aandragen zijn niet bij de tijd. Ik heb een 165hz monitor op QHD dat is veel belangrijker dan 30 fps slideshow met RT aan.

Prijs/prestatie is voor nagenoeg iedereen het meest van belang. Nu AMD dat weer op orde lijkt te hebben, zie ik het goed komen met ze, zeker ook omdat ze de nieuwe Ryzen cpu's uitbrengen die zeer goed presteren. Gewoon knap dat een bedrijf met beperkte middelen ivt de concurrentie het zo goed doet!
Nou, als je dus kijkt waar dingen nu staan, lopen ze ongeveer 6-12 maanden achter op NVidia kwa technologie. Da's behoorlijk veel. En dat wil dus zeggen dat ze alleen op prijs kunnen concurreren. Dat levert per definitie lage marges op. Maar goed, misschien is dit de opmaat naar een Ryzen-revival bij de videokaarten.
Er is ook een feature gemeld voor de 5700 die "anti latency" heet. Dat maakt de lag een stuk kleiner. Kan soms 10 tot 20 tienden van een seconde milliseconden schelen. Dat is in multiplayers een flinke hoeveelheid.
Edit: schaal aangepast.

[Reactie gewijzigd door XuPrX op 11 juni 2019 18:08]

Geloof er weinig van. 100 tot 200ms minder delay? Zo'n delay zie je überhaupt bijna nooit bij een game en maakt een game vrijwel onspeelbaar.
Als je altijd op 100-200ms speelt gaat dat makkelijker hoor en merk je er niks van. Ik snap ook niet waar die 100-200ms winst vandaan komen want vgm is de totale latency van een pc niet veel meer dan 20-50ms als je een redelijke monitor hebt.
Ik denk dat @XuPrX zich vergist in de schaling. 20ms is niet 0.2s maar 0.02s. Dus het gaat niet om tienden, maar honderdsten van seconden.
in de presentatie ging het over paar frames die je verliest en hier over ms omdat dat in de slide te zien was, maar daar zei die meneer niks over.
Had het problerm bij AC Unity waar m'n cpu zo hoog belast was dat m'n muis stuterde :)

Vaak helpt je game op low priority zetten ook wel
ik weet niet waar hij 100 of 200ms minder van daan haalt.
In de demo van AMD ging het van net geen 60ms (zowel nvidia als AMD) naar 45ms.
Edit. Eerst nog even checken.

[Reactie gewijzigd door Brutal1ty op 11 juni 2019 13:58]

Als ze dat daadwerkelijk in praktijk tests met daadwerkelijke gebruiksscenario's weten te realiseren wel ja.. 20ms van je latency af is toch wel significant.. waar je die ook behaald (netwerklaag, compute laag, input laag, draw laag, etc)
Door bepaalde settings aan te passen kan je latency nu al merkbaar verlagen.

Bij nvidia kan je pre rendered frame verlagen, bij amd heet het geloof ik "flip queue", aan te passen met radeonpro.

Als je een free- of gsync scherm hebt en in de opties van de game een fps limiter aanzet verlaag je de latency ook.
Je bedoelt een fps limiter ingame verhoogt je latency?
Het lijkt misschien tegenstrijdig, maar een ingame fps limiter verlaagt meestal je latency.

Als de game de limiter is dan wordt de muis/toetsenbord uitgelezen en verwerkt je pc het zo snel mogelijk om dan direct op de monitor weergegeven te worden.

Als de game niet de limiter is dan zal dat de cpu, gpu of monitor (vsync) zijn, en blijft de data langer hangen omdat bijvoorbeeld de cpu al klaar is en de data moet wachten tot de gpu klaar is met de vorige frame.
Dus i.p.v. 144 fps instellen op 100 of 60 ofzo?
142fps, je wil een hoge fps voor lagere latency maar je wil niet dat vsync aangaat.
142 is te weinig, volgens battle(non)sense heb je meestal een "overshoot" van rond de 5 fps dus kan je het beter op 139fps instellen.
Als ze dat daadwerkelijk in praktijk tests met daadwerkelijke gebruiksscenario's weten te realiseren wel ja.. 20ms van je latency af is toch wel significant.. waar je die ook behaald (netwerklaag, compute laag, input laag, draw laag, etc)
In dit geval de Marketing mumbo jumbo laag?
Hier mag ik misschien een beetje pessimistisch zijn, maar ik zie Nvidia wel een RTX 2060 Ti en een RTX 2070 Ti uitbrengen voor iets meer performance en minimaal extra geld om ervoor te zorgen dat AMD's grond weer kleiner wordt.

Zo is de aanpak tot nog toe ook met Vega geweest en ik zie dat niet veranderen.
Eerlijk waar, ik hoop dat AMD hier weer naar boven krabbelt en gewoon weer degelijke concurrentie zal bieden aan Nvidia, maar Radeon heeft zoveel tegenslagen gehad dat ik eerst wil zien hoe het zal lopen.
je doet alsof AMD niet zou kunnen reageren op een eventuele prijs verlaging van nvidia.

Vega was veel duurder om te maken als hun nvidia tegenhangers (grotere die, duur HBM geheugen).
Dat is met Navi niet meer het geval.
Dat is niet waar ik volledig op doel, maar het is in het korte verleden erg lastig geweest voor AMD om sterke concurrentie te bieden tegenover Nvidia.

Begrijp mij niet verkeerd, ik wil hier niet zeggen dat ik pro-Nvidia ben. Radeon kaarten lijken het lastiger te hebben dan Ryzen, zelfs met nieuwe generaties en met elke vernieuwing die ze op de markt brengen. Maar Nvidia doet het lijken alsof ze AMD met 2 vingers in de neus bijhouden bij iedere nieuwe release.

Stevigere concurrentie zouden we hier juist nodig hebben en ik hoop dat de RX 5700 en RX 5700 XT dat kunnen bieden.
Het zit hem er ook in dat AMD gamers ook die generaties minder als klant beschouwde. GCN werkt erg goed in compute taken en wordt daar voornamelijk ook voor gebruikt. RDNA is een op gaming gerichte architectuur, GCN houden ze voor compute.
Voor Ryzen uitkwam ging het niet denderend met het bedrijf en hadden ze gewoon niet genoeg geld om in R&D te stoppen en dus een game en compute architectuur te onderhouden (Nvidia heeft bijvoorbeeld naast Pascal ook Volta wat veel meer op compute gericht is). Het hielp ook niet dat ze elk jaar nog GF moesten afkopen.

Daarnaast is de markt verhouding al sinds de 8000 generatie van Nvidia gewoon niet in het voordeel van AMD. De marketing van AMD is altijd zwakker geweest maar ATI stond ooit wel als premium merk bekend. Doordat ze lange tijd niks tegen de 8000 generatie van Nvidia hadden heeft Nvidia mindshare opgebouwd waardoor alle minder goed ingelichte mensen de rommel die Fermi heet kochten zelfs toen AMD de veel betere kaarten had.
Ach, intel dacht ook een lange tijd dat ze onaantastbaar waren totdat ze tegen problemen aanliepen.
Die 1,5 jaar voor sprong die intel had is nu weg, het zelfde kan met nvidia ook gebeuren, het is
vaak eenzaam aan de top, de kans dat je in slaap sust is groot :P
AMD ziet het combineren van meerdere gpu's door het gebrek aan CrossFire-ondersteuning in ieder geval zelf niet als een logische optie om de concurrentie aan te gaan met snellere kaarten van Nvidia.
Wat apart is, aangezien ze voor Apple een kaart hebben met 2 GPU's erop.
Kwestie van 1 setup wel willen ondersteunen, maar niet de absurde variatie in de markt voor Windows PC's.

Heel klein marktaandeel, heel veel moeite, werkt nooit foutloos en gaat toch nooit de absolute prestatiekroon van Nvidia afpakken.
(bijna) niemand gamed op een apple. daar zit het probleem met dual GPU setup's.
3d modeling bijvoorbeeld is veel minder latency/lag gevoelig.
Omfg weer geen HDMI 2.1 wat is dat toch. Ik weiger principieel HDMI 2.0 bij nieuwe videokaarten.
Dat is inderdaad wel een dingetje ja. Ik zit al een beetje te kijken naar een LG 120hz OLED tv, maar daar zit vanzelfsprekend geen DP aansluiting op, dus zal het via HDMI moeten gaan gebeuren. Dan wordt het onderhand wel tijd dat die dingen op de videokaarten gaan komen ja.
Wat zit er in HDMI 2.1 dat jij zo hard nodig hebt? De grote feature van HDMI 2.1 is 8k. Er zijn nog geen 8k monitoren (alleen een paar TVs), dus ik vind het niet vreemd dat de fabrikanten geen HDMI 2.1 op hun kaarten zetten.
Ik gok dat Variable Refresh ('Freesync') het probleem is. Hoewel het volgens mij meer een probleem is dat TV makers wel willen roepen dat je super goed kan gamen op hun schermen, maar vasthouden aan HDMI als enige input.
Naast vrr behoort 4k 120hz zonder compressie ook tot de mogelijkheden. Of is dat bij hdmi2.0 ook mogelijk?

Aangezien de monitoren markt om te janken is en echt niets voorstelt naast een gemiddelde high-end tv met super sexy hdr. Alle functies ondersteunen zonder compressie is dan wel een pré.

Alleen counterstrike nerds zullen niet tevreden zijn met een niet waarneembaare <20ms latency.
Wat zit er in HDMI 2.1 dat jij zo hard nodig hebt? De grote feature van HDMI 2.1 is 8k. Er zijn nog geen 8k monitoren (alleen een paar TVs), dus ik vind het niet vreemd dat de fabrikanten geen HDMI 2.1 op hun kaarten zetten.
-4K 120 Hz
-variabele refresh rate ( de belangrijkste )

Ik heb deze opties op mijn monitor en wil dit ook op de tv hebben. Daarbij is een aanschaf van een videokaart bij mij voor minimaal 5 jaar. Dus nu nog een 2.0 kopen is gewoon not done.
Variable refresh rate over HDMI heeft AMD al, al jaren trouwens,

En 4K 120hz kan al via display poort.
Er zijn alleen bijna geen TVs met display port. Dus het moet over HDMI.
Dat is juist mijn punt. TV's hebben geen DP
Dat is het punt van Countess, AMD kan het al jaren via HDMI. Je hebt dan geen DP meer nodig.
VRR wel, 4K120hz niet..

Dus nog steeds DP nodig.. of HDMI 2.1
VRR icm met LG Oled 9 serie.

Mijn 960 kan wel een upgrade gebruiken, maar hdmi2.0 is onvoldoende upgrade ( ik weiger beperkt te worden door I/O)

[Reactie gewijzigd door eL_Jay op 11 juni 2019 11:53]

Moet je toch beter research doen, AMD kan dit allang via HDMI en er zijn genoeg monitoren die het alleen via HDMI ondersteunen.
https://www.amd.com/en/te...chnology-work-over-HDMI®?
https://www.amd.com/en/products/freesync-monitors
Kun je me een linkje sturen waaruit blijkt
Dat de de LG Oled 9serie TV's wordt ondersteund?(4k 4:4:4 120 Hz uiteraard). Want ik zie daar alleen monitoren.

[Reactie gewijzigd door eL_Jay op 12 juni 2019 07:15]

Stukje speculatie:

Volgens mij heeft AMD op dit moment alle productiecapaciteit op 7nm nodig om hun Ryzen's te produceren. Daarom krijgen we nu maar twee GPU's in de high-midrange die een relatief kleine die-size hebben. Het lagere segment kunnen ze nog serveren met hun oude inventaris aan RX-en en Vega's.

Ook vind ik de prijzen niet schuw. Zijn gaan duidelijk voor de marges, niet afzet. Dat doet dus inderdaad vermoeden dat ze productie niet enorm willen opschalen. De vergeleken met RTX's behoorlijk kleinere die-size geeft de indicatie dat deze chips goedkoper te produceren zijn, en toch worden ze w.b.t. prijs-prestatie vrij nauw tegenover de competitie gezet.

En uiteraard is Nvidia's line-up in het budget-segment een stukje minder spannend, daar kan AMD nog wel meekomen met haar oude GPU's. Nog geen reden om daar wat nieuws te introduceren dus.
Vergeet niet dat de nieuwe console's dadelijk dezelfde hardware aan boord krijgen. Daar zullen ze ongetwijfeld wat productiecapaciteit voor gereserveerd hebben.
Het duurt nog minstens één jaar voordat Sony en microsoft hun nieuwe consoles uitbrengen.
Ja want ze gaan pas bij het uitbrengen van de console's de onderdelen produceren? Niet eerder dan dat uiteraard 8)7

[Reactie gewijzigd door Luke Skyballer op 11 juni 2019 12:01]

Dit is inderdaad de reden dat daar voorlopig nog geen productie aan besteed zal worden. De volgende generatie RDNA met hardware ray-tracing die in de consoles gebruikt gaat worden is zelfs nog in ontwikkeling, dus daar valt nog niets aan te produceren.
Ben zelf van plan een workstation te gaan samenstellen (cpu rendering en werken met opengl software), ik zat te denken aan de Threadtripper 2990wx en de Radeon VII (ik game niet op deze pc, dus opengl heeft voorrang).

Zou deze nieuwe lijn aan gpu/cpu's nu een goed alternatief wezen, of komen hiervoor ook nog opvolgers?
Er gingen geruchten dat threadripper geen vervolg kreeg. Ik denk dat een 3950x je workloads goed aan kan. TR4 was ook een vrij duur platform als je de basis cpu nam (moederborden zijn redelijk aan de prijs afaik), met de 3950x zit je dus wel goed als je genoeg hebt aan een 8/16 cpu
Die geruchten zijn later glashard ontkent door Lisa Su. TR4 wordt zeker niet vergeten: https://www.tomshardware....oadmap-removal,39460.html

Ik schat echter dat we pas meer weten in september, of er moeten eerder BIOS-en uitlekken voor de oudere bordjes.

Want om eerlijk te zijn, als een TR4 early adopter, maken deze nieuwe CPU's mij best... happy. Een 3950x zou een goede sidegrade zijn, ware het niet dat ik een hoop PCI-E lanes en memory bandwidth inlever er voor (met drie, binnenkort vijf PCI-E SSD's en afwisselend één of twee GPU's heb ik de lanes nodig, hoewel ik moet bekennen dat PCI-E 4.0 m'n SSD ding best veranderd heeft... ipv vijf PCI-E 3.0 SSD's zou ik met twee/drie PCI-E 4.0 SSD's toekunnen, alleen dan geen lanes voor GPU's meer...)
Hij zal voor een 3950x sowieso moeten wachten tot september en als er threadripper nieuws is, zal dat inmiddels bekend zijn en kan er een betere keuze gemaakt worden.


edit: o.a typos

[Reactie gewijzigd door Javahne op 11 juni 2019 09:26]

Wellicht na vele jaren weer is een AMD processor in mijn PC. De specs van de 3950X zien er indrukwekkend uit. Eindelijk een AMD cpu die niet alleen meedoet voor de beste prijs/prestratieverhouding, maar voor de performance kroon gaat...

Ik wil gewoon de beste gaming cpu ongeacht of deze nu van Intel of AMD komt.
Doe jezelf een plezier en neem een 8-core Ryzen II. Voldoende voor gaming en 16 cores kun je toch niet voeden met dual channel memory. Met het geld wat je zo bespaart koop je een Radeon VII.
Waarom zou je 16 cores niet kunnen voeden met dual channel? zeker met high end geheugen heb je meer als genoeg bandbreedte, zeker ook door de grotere L3 caches.

verder wel met je eens dat een 8 core ryzen ook een prima game CPU is.. maarja sommige willen persee the beste, en dat is nu ongetwijfeld AMD.
Dat is een goed punt, daar had ik nog niet over nagedacht. Mijn mening was gebaseerd op het feit dat Prime95 op 4 threads met 256-bit FMA de volledige geheugenbus dicht trekt, maar dat was een Haswell met DDR3-1600.
Als je praktisch (lees meer value for money) gezien het beste wilt zou de 3900X toch een betere keuze zijn. Relatief gezien stukker goedkoper maar nog wel 12 cores en de grootte cache.
Maar er zijn genoeg opties ieg, ook voor degene die het niet nodig hebben maar wel fanboy zijn of geld als water hebben. :+

[Reactie gewijzigd door The Chosen One op 12 juni 2019 11:42]

Nou, dat zal niet nodig zijn, gezien ik nu een 2080 Ti heb... Een Radeon VII is een downgrade in dat geval. De opvolger hiervoor wordt waarschijnlijk wederom Nvidia, gezien ik er geen vertrouwen in heb dat Navi in het high end segment echt iets zal kunnen brengen...

Een 3950X is een wellicht een mooie upgrade voor mijn Intel 7820X... Wel even de benchmarks afwachten uiteraard...
Ik ga binnenkort een nieuwe PC bouwen(alleen de voeding en behuizing blijven hetzelfde). Alles komt zo een beetje uit 2012-2013. Nu ben ik zelf fan van AMD. Ik zat al te wachten op Ryzen3000 serie en nu ook deze kaart eraan komt zou ik overwegen deze ook te kopen (5700XT). Ook zodat ikniet te veel geld hoef uit te geven aan G-Sync monitoren.

Lees erg veel verschillende meningen over AMD. Hier toevallig mensen met een mening over AMD hardware? :)
Lijkt op een prima kaart, wel even reviews afwachten van iets als Gamers Nexus als het je puur om de prestaties gaat. G-sync compatible is onderhand wel een ding, wat tot op een zekere hoogte wordt ondersteund. Daardoor kan je met een Nvidia kaart van freesync gebruik maken. Helaas werken lang niet alle schermen zo vlekkenloos als ze zouden moeten werken.
Persoonlijk gun ik AMD nog wel eens 10% oid in prijs/prestaties om de concurentie in de markt te houden zodat we over 5 jaar ook nog een leuke kaart kunnen kopen, maar daar schiet je vandaag of morgen weinig mee op. Mocht je ooit linux willen gaan draaien dan heeft AMD het wel goed voor elkaar qua drivers ed, in tegenstelling tot Nvidia.
Top! Dankjewel voor je antwoord MauriceL :)

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Cartech

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True