Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD Radeon RX 5700XT en RX 5700 komen op 7 juli uit voor 449 en 379 dollar

AMD heeft op de E3 zijn eerste Navi-videokaarten onthuld. De fabrikant positioneert de Radeon RX 5700XT en RX 5700 tegenover de GeForce RTX 2070 en RTX 2060 van Nvidia. De AMD-videokaarten hebben echter geen hardware voor raytracing aan boord.

AMD Radeon RX 5700XT

Beide videokaarten zijn gebaseerd op dezelfde gpu, maar het XT-model heeft meer compute units en hogere kloksnelheden. Die RX 5700XT gebruikt de volledige Navi 10-gpu; voor de RX 5700 wordt dezelfde chip gebruikt maar dan met een aantal compute units uitgeschakeld en lagere kloksnelheden.

De kaarten hebben gpu's van de nieuwe Navi-familie en zijn gebaseerd op de RDNA-architectuur. De eerste generatie van die nieuwe architectuur heeft geen hardwarematige ondersteuning voor raytracing. AMD gaat in de toekomst wel videokaarten met hardwarematige raytracing uitbrengen, zoals Nvidia nu doet. Dat zal gebeuren bij de volgende generatie van de RDNA-architectuur. Microsoft maakte eerder deze week bekend dat zijn Xbox Project Scarlett over zo'n next-gen RDNA-gpu beschikt, met hardwarematige raytracing-ondersteuning. Die console komt eind 2020 uit, mogelijk komen er dan ook AMD-videokaarten voor desktops met raytracing-cores.

De Radeon RX 5700-gpu's zijn de eerste videokaarten voor consumenten met pci-e 4.0-ondersteuning. Om daar gebruik van te maken is een moederbord en processor nodig die daar ook ondersteuning voor bieden. Momenteel kan dat alleen op het AM4-platform met een Ryzen 3000-processor en X570-moederbord. In de praktijk zal pci-e 4.0 bij de RX 5700-kaarten geen voordeel bieden. De bandbreedte van pci-e 3.0 is bij deze videokaarten geen beperking. De kaarten zijn backwards compatible en werken dus ook in pci-e 3.0-sleuven.

AMD kondigde de videokaarten aan tijdens zijn presentatie op de E3-gamebeurs, die via een livestream is te volgen. De fabrikant liet ook benchmarks zien van populaire games, waarin de RX 5700XT in 1440p-resolutie en ultra-settings de RTX 2070 verslaat. Het verbruik van de Radeon-kaarten is op papier hoger; ze hebben een tdp van 225W en 180W. Bij de Nvidia-tegenhangers is dat 175W en 160W.

Met adviesprijzen van 449 en 379 dollar wijken de prijzen van de Radeon-kaarten niet veel af van de huidige prijzen van de Nvidia-tegenhangers. De RTX 2070 staat in de Pricewatch vanaf zo'n 470 euro en RTX 2060-kaarten zijn er vanaf zo'n 350 euro. De europrijzen van de AMD-kaarten zijn nog niet bekend, maar omgerekend met toevoeging van btw komen de prijzen uit op 480 en 405 euro.

Radeon RX 5700XT Radeon RX 5700
Gpu Navi 10 Navi 10
Procedé 7nm 7nm
Compute units 40 36
Streamprocessors 2560 2304
Boost Clock 1905MHz 1725MHz
Game Clock 1755MHz 1625MHz
Base Clock 1605MHz 1465MHz
Geheugen 8GB gddr6 8GB gddr6
Geheugenbus 256bit 256bit
Geheugensnelheid 14Gbit/s 14Gbit/s
Geheugenbandbreedte 448Gbit/s 448Gbit/s
Tdp (board power) 225W 180W
Prijs 449 dollar 379 dollar

AMD komt ook met een speciale RX 5700XT-uitvoering ter ere van zijn vijftigste verjaardag. Die versie krijgt een hogere boostclock van 1980MHz, een gameclock van 1830MHz en een baseclock van 1680MHz. Verder zijn de specificaties gelijk, al heeft AMD niet bekendgemaakt wat de tdp van de speciale uitvoering is. Het jubileummodel wordt alleen verkocht via AMD.com en kost 499 dollar.

Door Julian Huijbregts

Nieuwsredacteur

11-06-2019 • 00:42

156 Linkedin Google+

Reacties (156)

Wijzig sortering
De prestaties van de RX5700 is ca. 10% beter dan de RTX2060 en de RX5700XT rond de 5% sneller dan een RTX2070. De 'Game Clock' is volgens AMD de gemiddelde snelheid waarop de GPU draait en zou een realistischer beeld moeten geven van de prestaties

De Radeon RX 5700XT en 5700 hebben FidelityFX aan boord: een filter om het contrast van een game te verhogen, zodat het beeld er 'scherper' uit ziet met maar 1-2% performance hit: https://images.anandtech....7/IMG_20190610_153234.jpg

De GPU heeft ook een Anti-Lag feature, daarmee kan de responstijd van GPU naar monitor met zo'n 15ms verminderd worden, oftewel ongeveer 1 frame bij 60FPS (!).
Verder wordt er in de livestream iets gezegd over HDR-ondersteuning voor niet-HDR schermen.
Over het TDP hebben ze niks gezegd. Wel dat bij het kopen van een RX5700 GPU of Ryzen 3000 processor je 3 maanden lang een Xbox Game Pass krijgt.
TDP is inmiddels wel bekend en toegevoegd aan artikel.
Blijft toch wel pijnlijk om te zien hoeveel meer stroom AMD kaarten nodig hebben ten opzichte van Nvidia (en dat betekent niet alleen hogere stroomkosten maar ook meer warmte en herrie van koelers).

Afwachten op de benchmarks en de daadwerkelijke prijzen in de winkel om te zien of de kaarten een goede koop zijn. En of Nvidia met de reactie komt waarover gesproken wordt, dan is de consument spekkoper!

[Reactie gewijzigd door Arjant2 op 11 juni 2019 12:26]

Even wat meer informatie over de prijzen van de competitie:

RTX 2060 > €350 (msrp: $399.99)
categorie: Videokaarten

RTX 2070 > €470 (msrp: $599)
categorie: Videokaarten

Ik had eerlijk gezegd op iets lagere prijzen gehoopt voor de RX kaarten. Met name de RX 5700 scheelt weinig met de RTX 2060 volgens mij, wel iets hogere prestaties en misschien wat nieuwe technologieën.

[Reactie gewijzigd door Dameuk op 11 juni 2019 01:12]

De prijzen op AMD kaarten dalen over het algemeen sneller dan Nvidia kaarten. Bovendien snap ik niet waarom iedereen ineens denkt dat AMD deze kaarten met verlies moet verkopen? Ze hebben hun GCN architecture eruit gegooid en een compleet new RDNA architecture ontworpen, hun chips op 7nm weten te persen, PCI 4.0 erin gestopt en hun memory naar GDDR6 gebracht. Dat zijn natuurlijk R&D kosten die ze terug moeten verdienen.
Dat komt door wat ik denk ik toch wel AMD fanboys kan noemen die enorm enthousiast aan de haal gingen met de 'geruchten' dat de RX5700XT $250 zou kosten. Waarbij volgens die groep AMD dan nog zat winst zou maken omdat Navi zo'n efficiente architectuur is.

Uiteraard zelfs als ze zo'n extreem goede prijs/kwaliteit konden doen, zouden ze vanuit bedrijfskundig oogpunt dat nog steeds niet doen: Iets onder de concurrent gaan zitten is een stuk logischer dan je prijs te gaan halveren, zo heb je veel betere marges, en als AMD zelfs maar een €50 goedkoper dan dit gaat zitten, verlaagt Nvidia ook gewoon de prijzen met €50. Mooi voor de consument, maar AMD heeft er helemaal niks aan.
Een 1800, 8 core was helft concurrentie, nieuwe 16 core is ook helft van concurrentie.

Jammer dat ze dat op GPU gebied niet willen/kunnen.
Het verschil is dat Intel getemporiseerd had en daardoor verrast werd door de inhaalslag van AMD. Nvidia blijft echter met dezelfde vaart doorgaan. Waarbij persoonlijk ik wel vind dat de laatste generatie een beetje meh is (of je moet geilen op RT).
Mee eens, en de "Super" kaarten zien er ook nou niet echt bepaald beter dan de normale rtx kaarten uit.
Wat ik er van mee kreeg alleen maar hoger geklockte gddr6 geheugen.
Niemand zegt dat AMD de kaarten met verlies moet verkopen. Maar als je een nieuw product op de markt zet, die net kan concurreren met de rtx2070 die al sinds oktober uit is, geen raytracing bied (ook al is dat meer een gimmick) en weer een TDP heeft dat 50 watt hoger ligt, is het enige waar je nog concurrerend op kan zijn de prijs. Dus aangezien de RTX2070 voor de iets betere modellen zo'n 500 euro kost, verwacht ik toch echt maximaal 450 euro voor de nieuwe 5700XT. En dat zijn dan de toppers, waarbij de stock coolers of goedkopere serie meer richting 400 gaat, of voor de sier 399.
Sorry maar waarom zorgt een niet bruikbare gimmick (Raytracing) er ineens voor dat daardoor de RTX2070 meer waard is? Als het een gimmick is dan is het waardeloos.
Zo kun je namelijk ook andersom redeneren, waarom zou ik de RTX2070 kopen terwijl die geen PCIe 4.0 heeft? Is ook een gimmick (voor gamers).
"AMD's RX 5700-kaarten zijn de eerste gpu's voor consumenten met pci-e 4.0-ondersteuning. Dat levert een verdubbeling aan bandbreedte op, maar in de praktijk zullen gamers daar vooralsnog niets van merken. De beschikbare bandbreedte van pci-e 3.0 is simpelweg nog geen beperking."

Raytracing is wel een functionerende gimmick, en eventueel nog in te zetten voor een beperkte vorm van raytracing. PCIE 4.0 doet dus helemaal niks. 0,0 meerwaarde.
hij is sneller als de 2070 en kost minder.
Waarom zou AMD hem nog goedkoper maken?

Wat maakt het uit of iets al wat langer op de markt is? Dat heeft werkelijk 0 effect op het koop gedrag van mensen die op dat moment een GPU kopen.

natuurlijk zie ik het graag goedkoper, maar ga nu niet doen alsof AMD het gaat afleggen terwijl ze een sneller en goedkopere kaart hebben.
Tja dat zien we dan toch anders. RTX heb je niks aan, fedelityFX en lag reductie zijn veel interessanter, en werken in elke game, en niet dat handje vol waar RTX in werkt.

En het gekozen lijstje met games ziet er heel redelijk uit, zeker geen parade van AMD's favorite titles. dat gaat in de praktijk niet wezenlijk anders uitpakken. de laatste 3 bijvoorbeeld verloor de radeon 7 nog met zo'n 10-13% van de 2080. terwijl de radeon 7 gemiddeld 8% langzamer was dan die kaart (1440p)

Als de 5700XT die titles nu nipt kan winnen, dan ben ik er vrij zeker van dat het gemiddelde positief uit gaat vallen voor AMD.
En die ~50 watt, met die paar uur gamen per dag gaat echt geen verschil maken.
fabrikant-benchmarkresultaten betrouwbaar zijn gebleken in het verleden?
Dan ging het altijd om een korter lijstje games, met games waarvan we al wisten dat ze in het voordeel waren van die fabrikant. zoals strange brigade voor AMD, die ze gebruikte op computex (waar ik dus ook geen conclusies aan verbond)

Dat leek echter eerder een sandbag actie te zijn. Deze list met games is allerminst in het voordeel van AMD, en het voordeel van AMD is niet veel lager.
Vergeet ook niet dat ook Nvidia niet stilzit.
nVidia zit dit hele jaar en het begin van volgen jaar vast op 16nm (12nm marketing naam)
Behalve rommelen in de marge kunnen die niet zo veel.
mochten ze bewegen op de prijs kan AMD makkeljik mee.

[Reactie gewijzigd door Countess op 13 juni 2019 11:29]

Nvidia heeft net zo goed veel aan R&D moeten uitgeven, die hadden een jaar geleden al GDDR6 en hardwarematige raytracing. Dat laatste ondersteunen kaarten van AMD pas over een jaar. Toen de RTX-kaarten uitkwamen zag ik een boel lauwe of zelfs zure reacties, met name als het over de prijs van de kaarten ging. Maar nu komt AMD een jaar met kaarten die grofweg hetzelfde presteren, met ondanks het gebruikte 7nm een hoger verbruik, tegen mogelijk zelfs een iets hogere prijs? Ja, daar worden veel mensen niet heel enthousiast van. Dat AMD geen RTX 2070 prestaties voor $250 zou bieden had geen zinnig mens verwacht, maar het zou fijn zijn als men ook voor AMD zou kunnen kiezen uit prijs-prestatie overwegingen en niet alleen om een Iets ethischere bedrijfsvoering als Nvidia of het bevorderen van de concurrentie door het steunen van de speler met het kleinere marktaandeel.

Ik vind het gewoon jammer, dit had een geweldige PR move van AMD kunnen zijn als ze zich ondubbelzinnig onder de prijzen van Nvidia hadden gepositioneerd, het had echt geen $100 of meer hoeven zijn, maar nu maken ze het de cynici wel heel makkelijk om te zeggen “een jaar later pas dezelfde prestaties als Nvidia, petje af hoor”.
De keuze om nu GDDR6 te gebruiken is niet omdat het een jaar geleden niet kon. Maar omdat ze toen ingezet hadden op HBM2. Wat later een foute (lees: zeer dure) keus was. Daarom zijn ze nu met de nieuwe serie overgestapt op GDDR6.
En raytracing is leuk als het niet zo'n grote impact op je game peformance heeft. Voor nu zet je raytracing een paar tellen aan om te kijken hoe mooi het er uit ziet. Maar je gaat er niet uren mee gamen omdat het gewoon te veel vraagt van je GPU, en het bijna niet speelbaar is.
Sorry maar dit is puur marketing van AMD en wordt ook klakkeloos overgenomen door tweakers en fanboys (geen verwijt naar jouw :D)
Huidige implementatie RDNA is nog steeds GCN (zie ook roadmap) het is een code naam voor de nieuwe implementatie van GCN want AMD weet heel goed dat GCN een slechte naam heeft. Het verschil met vega is dat deze soc overweg kan met gddr ipv hmb (dit is de opvolger van polaris) . Navi is nog steeds GCN, pas na Navi komt er een nieuwe architectuur dit is al jaren bekend aangezien dit al jaren op de roadmap staat.
Don't believe the hype je ziet het aan alles, de hogere tdp en de misleidende informatie over hogere snelheid (1440P en selectieve titels) is sowieso een indicatie dat ze nog steeds achter lopen op nV maar tevens ook een indicatie dat het verschil kleiner is geworden. Tijdens de vega release lieten ze een product los die niet eens een 1080 kon verslaan en die al 2 jaar op de markt was, nu is de 2070 nog geen jaar op de markt en komt amd met een vergelijkbaar product.

Na navi komt er een nieuwe architectuur.

Even nog ter verduidelijking de komende architectuur na Navi is nieuw en gaat waarschijnlijk de echte RDNA architectuur hebben, navi is dit nog niet, het is een hybrid op basis van GCN.
En dit hoeft ook niet slecht te zijn aangezien, samen met andere hardware (hardwarematige denoiser) sterke architectuur is voor raytracing. En GCN zal gebruikt blijven worden voor workstation hardware, want om de zelfde reden waarom hij sterk is voor raytracing.

[Reactie gewijzigd door D0gtag op 11 juni 2019 09:06]

Er zitten wel degelijk meer veranderingen in de architectuur dan alleen support voor gddr. Zoals de 8 shader engines ipv 4 en verbeteringen aan de CU's.
klopt er zit ook verschil in vega tav polaris of fiji, het resultaat blijft het zelfde. dit is feitelijk gcn 1.7. Zie fanboys score van -1 :+

Vega targets increased instructions per clock, higher clock speeds, and support for HBM2.[19][20][21]

AMD's Vega features new memory hierarchy with high-bandwidth cache and its controller

Support for HBM2 featuring double the bandwidth-per-pin over previous generation HBM. HBM2 allows for higher capacities with less than half the footprint of GDDR5 memory. Vega architecture is optimized for streaming very large datasets and can work with a variety of memory types with up to 512TB of virtual address space.

Primitive shader for improved geometry processing. Replaces vertex and geometry shaders in geometry processing pipelines with a more programmable single stage. The primitive shader stage is more efficient, introduces intelligent load balancing technologies and higher throughput.[22]

NCU: Next Compute Unit a Next-generation compute engine. The Vega GPU introduces the Next-Gen Compute Unit. Versatile architecture featuring flexible compute units that can natively process 8-bit, 16-bit, 32-bit or 64-bit operations in each clock cycle. And run at higher frequencies. Vega brings support for Rapid Packed Math, processing two half-precision (16-bit) in the same time as a single 32-bit floating-point operation. Up to 128 32-bit, 256 16-bit or 512 8-bit ops per clock are possible with the Vega architecture.[22]

Draw Stream Binning Rasterizer designed for higher performance and power efficiency. It allows for “fetch once, shade once” of pixels through the use of a smart on-chip bin cache and early culling of pixels invisible in a final scene.


Fanboys op tweakers: VEGA is compleet nieuw: was het niet, grote flop.
Navi is compleet nieuw: Leren nooit van hun fouten, zal geen flop zijn want is na een prijsdaling een prima midrange kaart.
je had iets beter onderzoek moeten doen. Vega64 liep kei hard tegen een bottleneck in het ontwerp aan met de ROP en/of geomatry pipeline. Daarom scored de vega56 en de vega64 vaak exact gelijk als je ze op gelijk klok zet, ondanks dat vega64 mere cores had. Dat was een limiet van GCN.

zoals Twanekel al zei, deze nieuwe kaarten hebben die limiet niet meer, er zijn nu 8 engines ivm de oude limiet van 4. dat betekend dat, ook met hogere CU aantallen er niet meer een ROP of geometry engine limiet is.
Niet ik, maar AMD!
Maar altijd weer een verweer: hoe er altijd wel iets anders of iemand anders de schuld heeft. Vega liep keihard tegen een bottleneck!!!, ja en Navi dus niet?
Nu we de (opegeven) prestaties vergelijken zie ik weinig tot geen verbetering anders dan een node switch en lichte prestatie verbetering. Dus door de node switch zitten ze nu iets boven de 2070 dan de polaris iets onder de 1070 zat.
Maar nee, nu is alles anders hoor, Navi is de grote verlosser. en is weer een compleet andere architectuur.
Dit is isa:GCN met GCN 1.7 uarch. Maar ik zal wel weer meer research moeten doen, lees je zelf een keer in, o.a. bij AMD zelf. Ze volgen gewoon hun eigen roadmap.
En als ik fout zit, en dit zijn de prestaties van RDNA dan moet je zelf afvragen wat er gaat komen van AMD als nV een veel geavanceerdere chip voor minimaal meer (op een relatief verouderd productie proces) kan afleveren en wat er gebeurd als nV op samsungs 7/5nm gaat produceren (ik voorspel gelijkblijvende tdp met veel hogere prestaties, en daarnaast afname in kosten, door hogere wafer yields) nV gaat dat simpel weg concurreren op prijs, weg is je prestatie overwicht en prijs verschil. En daarnaast heb je bij nV dan gratis raytracing en tensor cores, of je dat nou nuttig vind of niet, die keuze heb je bij AMD gewoon niet.

[Reactie gewijzigd door D0gtag op 11 juni 2019 12:51]

ja en Navi dus niet?
nee Navi niet. niet die bottleneck tenminste.

Navi haalt nu prestaties met 40 CU die veel beter zijn als vega met 64. Navi haalt bijna even hoge prestaties met 40CU's als Radeon 7 met 60CU's en vergelijkbare clocks.

Maar nee, aan het ontwerp is natuurlijk bijna niks veranderd /s.
En daarnaast heb je bij nV dan gratis raytracing en tensor cores
en wat ga je er mee doen dan? je 1080p framerates verlagen naar sub-30 voor een paar reflecties?
De blurry mess van DLSS accepteren?

fedelityFX en die latency mitigation zien er veel interstanter uit te meer omdat ze geen performance kosten, en ze werken in elke game, en niet die paar die nvidia heeft betaalt om hun crap te gebruiken.
Vega 64 is op 14nm, navi op 7nm, vega op 7nm is sneller dan navi, zie VEGAII met minder CU's dan vega64 maar meer dan navi, maar navi is dus een core verbetering tov van VEGAII en process verbetering waarbij de core snelheid waarschijnlijk ook hoger is.
Het nut van raytracing ga ik niet bij elke post uitleggen, blijf lekker geloven wat je wilt, er zijn genoeg gevallen waar raytracing zelfs met een 2070 iets te bieden heeft.
Sub 30 fps... toen AMD met vega kwam was het fanboy fine wine idee: het wordt beter over tijd, nu nV met raytracing is gekomen worden ze beoordeeld op de eerste iteraties. terwijl de prestaties binnen veel raytracing producties (bFV b.v.) spectaculair gestegen zijn.
Maar negeer lekker alle feiten en droom lekker verder over onwaarheden, de enige wie jij teleurstelt is je zelf.

[Reactie gewijzigd door D0gtag op 11 juni 2019 15:40]

Vega 64 is op 14nm, navi op 7nm, vega op 7nm is sneller dan navi, zie VEGAII met minder CU's dan vega64 maar meer dan navi, maar navi is dus een core verbetering tov van VEGAII en process verbetering waarbij de core snelheid waarschijnlijk ook hoger is.
Wat de fuck probeer je hier nu eigenlijk te zeggen?
Vega II heeft 60 CU's
Navi heeft er 40.
Vega II is bij lange na niet 50% sneller. en de core clocks verschillen zijn bij lange na niet genoeg om het verschil goed te maken. ergo: Navi is flink sneller per CU per clock als vega II.

Daarbij AMD kan nu, met slechts 40 CU's toch 64 ROP's aansturen en 8 Geometry engines hebben.
Eventuele 64CU Navi's later zullen ook weer verder kunnen schalen en eindelijke voorbij de 64 ROP's kunnen gaan, wat altijd de bottleneck was van GCN GPU's met hoge CU aantallen.
waar raytracing zelfs met een 2070 iets te bieden heeft.
Nee, zijn er niet. alles kost of te veel performance (reflecties), of er zijn betere efficientere alternatieve voor (global illumination), of het is gewoon ruk (DLSS).
terwijl de prestaties binnen veel raytracing producties (bFV b.v.) spectaculair gestegen zijn.
Ja, door de hoeveelheid rays, en daarmee de kwaliteit van het effect drastische te verlagen.

[Reactie gewijzigd door Countess op 11 juni 2019 16:05]

Voor mij als consument zijn er maar twee meetbare, onweerlegbare feiten. (aannemende dat de aangekondigde prestaties kloppen uiteraard)

De 5700XT biedt betere prestaties dan de 2070
De 5700 is goedkoper dan de 2070.

Of ze dat nu met Rdna of CGN behalen of met een high tech drol zal me aan m'n aars roesten. Prijs en prestatie telt.
Als ik als consument de keuze heb tussen deze twee heb, ga ik voor Navi.

Raytracing... Tsjah. Ik ga even een getal uit de hoge hoed trekken en zeggen dat 90 procent van de gamers er (nog) niet om maalt, laat staan het aanzet. In games, FPS is king.

Ja, ik zelf ben ook lichtelijk teleurgesteld. Een half jaar geleden had ik gejuichd met deze cijfers,maar nu? Too little, too late.
Dat wil niet zeggen dat navi nu niet de betere keus is.
Die score van je komt door je toon en door het gebruik van "fanboy" in je berichten.
Natuurlijk, mensen kijken naar toon en niet de inhoudt dat is makkelijker, en fanboy-isme benomen is kennelijk not done? Ik denk dat de score juist duidelijk aangeeft dat het zeer reëel is. Maar de score boeit me niet, mensen met enig verstand kunnen zelf inlezen en zelf inzien waar ik vandaan kom en eigen conclusies trekken.
Precies, de eerste Navi 10 gpu's in de RX 5000 serie is een hybride tussen GCN en RDNA, eigenlijk een GCN architectuur verbeterd met technieken uit de komende RDNA architectuur, maar zou voldoende nieuw zijn om het onder RDNA te scharen. De komende Navi 20 gpu zou volgens de geruchten dan wel een compleet nieuwe RDNA archtectuur zijn.
Bij de buren van HWI is dit ook voorbijgekomen:
https://nl.hardware.info/...komt-met-navi-20---update

Het verklaart ook nog het hoge verbruik van deze Navi 10 gpu, want ondanks alle verbeteringen in de architectuur en het 7nm procede verbruikt de Navi 10 nog meer vermogen dan de concurrent nVidia's Turing op 12nm bij vergelijkbare performance.
Een nVidia RTX 2080 verbruikt zo'n 230 Watt met het 12nm procede terwijl AMD's Radeon RX 5700 XT met Navi 10 XT gpu op 7nm zo'n 225 Watt verbruikt, maar als performanceconcurrent van de nVidia RTX 2070 wordt neergezet welke slechts 175 Watt verbruikt.
Bij de Vega VII op 7nm, als RTX 2080 concurrent, zagen we de nadelen van deze verouderde GCN architectuur ook al goed gezien de Vega VII 300 Watt verbruikt op 7nm maar als performanceconcurrent van nVidia's RTX 2080 gpu werd neergezet welke op 12nm dan slechts 230 Watt verbruikt. Dit verschil in verbruik, ondanks het 7nm ten opzichten van nVidia's gebruikte 12nm procede, was geheel aan de slechte en verouderde GCN architectuur te wijten.

Edit: Al zou deze Navi 10 gpu wel een echte volledig nieuwe RDNA architectuur hebben dan zou AMD goed gefaald hebben met RDNA, ik bedoel, een compleet nieuwe architectuur, 7nm procede, maar niet eens een jaar+ oude Turing architectuur welke nog op 12nm wordt gebakken op zowel performance als verbruik van tafel kunnen vegen.

[Reactie gewijzigd door Rudie_V op 11 juni 2019 11:29]

Sorry maar de goedkoopste rtx 2060/2070 is natuurlijk niet representatief, er zit enorm veel verschil in koelers, formaat, en kloksnelheden van geheugen en gpu.

de goedkoopste heeft waarschijnlijk een koeler voor een itx kast, dus erg slechte koeling en herrie, en ook nog een een lagere kloksnelheid, dus zal zo'n kaart nog minder presteren tov de nieuwe AMD kaarten.
Alsof deze referene blower style koelers bestempeld kan worden als goede koeler......
Volgens AMD wel.
Op de 3 fan cooler na waren alle AMD koelers van de laatste 6 jaar ondermaats.

225watt koelen met een enkele blowerstyle fan kan gewoon niet efficient zijn.
kan prima, alleen maakt het kapot veel herrie :D want die ene fan moet harder werken ;)

En AMD zegt dat deze manier van fan beter werkt in ALLE soorten kasten, dus als een kast slechte airflow heeft werkt dit beter, omdat de lucht de kast uitgeblazen word. dat is hun beredenering.

[Reactie gewijzigd door Jip99 op 11 juni 2019 18:59]

dan koop je toch lekker een 2060 of 2070? Waarom zou AMD meer prestaties moeten bieden EN een lagere prijs? Dit hebben ze met GCN al gedaan heeft ze ook weinig tot niks opgeleverd bij de gamers. Mensen bleven toch doodleuk die 1050(TI) en 1060 kaarten kopen ondanks dat de RX 480/570/580 gewoon betere prijs/prestaties verhouding hadden.
Uhm, omdat deze kaart bijna een jaar later komt?
GPU verkopen zijn niet geconcentreerd rond launches, mensen kopen het hele jaar door GPU's. dat is dus geen enkel argument.
Ik denk dat de meeste mensen die een GPU rond de 2070 wilde, deze al wel hebben in de vorm van een Vega 64, 1080 of 2070.
NVIDIA kan heel makkelijk de prijzen van de 2070 naar beneden halen gezien deze al bijna een jaar uit is en een groot deel van de kaarten al voor MSRP zijn verkocht.

[Reactie gewijzigd door DoubleYouPee op 11 juni 2019 11:47]

De die van de 2070 is gigantische. zo veel zakken kan nvidia dus niet.
En AMD kan prima mee zaken als ze willen, met een die maar iets meer als de helft is (445mm2 vs 251mm2). 7nm is al lang niet meer 2 keer zo duur per wafer.
Ik denk dat de meeste mensen die een GPU rond de 2070 wilde, deze al wel hebben in de vorm van een Vega 64, 1080 of 2070.
Als je dit zegt dat zeg je dus eigenlijk ook dat jij denkt dat er geen enkele vega64, 1080 of 2070 meer verkocht gaat worden vanaf nu.

Als het zo zou werken dan zouden ze meteen na de introductie van een nieuwe kaart al meteen de productie stop zetten. zo werkt het dus niet. zoals ik zei, de verkoop gaat het hele jaar door, en zijn niet geconcentreerd rond launches.

[Reactie gewijzigd door Countess op 11 juni 2019 14:50]

Heb je iets om dat te onderbouwen?
Persoonlijk ben ik vaak al maanden aan het oriënteren en koop ik juist vaak na launches of het nieuwe product of juist de generatie daarvoor (vanwege de prijsdaling). Ik zie hetzelfde gedrag om me heen, enige uitzonderingen zijn de (ex)miners en de kapotte kaarten.
Als niemand meer GPU zou kopen buiten de launches zouden ze de productie wel staken kort na de launch. Dat gebeurt echter niet. Er komen zelfs regelmatig nieuwe AIB modellen bij, soms zelfs vele maanden na de launch van de eerste AIB modellen. Als er geen vraag meer was zou dat nooit gebeuren.

je kan ook gewoon de GPU verkopen volgen, die worden bijgehouden per kwartaal. en die zijn cyclische, en concentreren zich rond de kerst, met slecht kleine peak rond de launch van nieuwe GPU series.

jij, en de mensen om jouw heen volgen waarschijnlijk het tech nieuws op de voet. het overgrote deel van de gamers doet dat helemaal niet.

[Reactie gewijzigd door Countess op 13 juni 2019 11:20]

volgens mij was GCN nog steeds competief in de midrange tot nu toe.
1650 - RX570
1660 - RX580
2060 - Vega 56
2070 - Vega 64
2080 - RAdeon VII

enige tegen ze is het stroom verbruik wat ik toch altijd negeer aangezien het bullshit argument is voor de consumer markt imo. Mensen hebben ook doodleuk Fermi gekocht en toen was energie verbuik ook niet spannen.... de 2080TI verbruikt ook doodleuk 350W.
Je bedoelt:
1070 (jun 2016) - Vega 56 (aug 2017, praktisch pas 2018)
1080 (mei 2016) - Vega 64 (aug 2017, praktisch pas 2018)
1080ti (mar 2017) - Radeon VII (feb 2019)
Grootste deel van de levensduur van die kaarten hadden ze helemaal geen betere prijs/prestatie... Daar mag je miners de schuld van geven maar dat zal in ieder geval een aanzienlijk aandeel gehad hebben in het voorkomen dat AMD meer marktaandeel kreeg bij gamers. Ik heb mijn 1060 2 jaar geleden in ieder geval gekocht omdat AMD kaarten veel te duur waren.
Mensen bleven 1050 en 1060 kaarten kopen omdat RX 480/570/580's niet aan te slepen waren door de mininggekte.
Ik begrijp die naamgeving ook niet. Waarom verandert AMD de naam van hun mid-range videokaarten van RX 580/590 naar RX 5700? Ze gaan opeens van drie naar vier cijfers en het eerste cijfer 5 blijft hetzelfde. Je zou toch minstens verwachten dat het eerste cijfer een 6 wordt voor een nieuwe generatie videokaarten?
Prijzen zijn idd redelijk hoog maar iig zit AMD met €480 voor de 5700XT onder de grens van €500 waar voor mij een videokaart moet onderblijven. En die €470 voor een RTX2070 die jij en Tweakers opgeven vind ik niet helemaal correct. Dat is de prijs voor een Inno3D en dat is een B-merk die mi weinig mensen kopen. Het eerste A-merk voor een RTX2070 die je tegenkomt in de pricewatch is Gigabyte voor €495. AMD is dus wel degelijk (veel) goedkoper, al valt het af te wachten wat de AIB's gaan vragen.

Eindelijk heeft AMD gekozen voor GDDR6-geheugen ipv het dure HBM2 waardoor ze eindelijk met de 5700XT op prijs kunnen gaan concurreren met Nvidia.
Het gaat hier om een laagste prijs vergelijking. Wil je een 2070, dan kan dat vanaf €470 voor die Inno3D. Dàt is waar het hier om gaat. Een Gigabyte of Asus 5700XT zal ook duurder zijn dan een simpelere, blower gekoelde 5700XT
Nee daar gaat het niet over. Het is niet omdat er één B-merk onder de €500 zit en ook nog een mini variant van de RTX2070 eronder zit dat je kan zeggen dat de 2070 al voor €470 te krijgen is. Niemand koopt dat B-merk en weinigen die mini-variant. Derde resultaat in de pricewatch is €495 voor de Gigabyte dus kan je zeggen dat de RTX2070 voor rond de €500 te krijgen is en dat is al een hele tijd het geval.
Een Gigabyte of Asus 5700XT zal ook duurder zijn dan een simpelere, blower gekoelde 5700XT
Dat is geen zekerheid. De goedkoopste blower koeler van de 2070 is de MSI Aero en die zit ook boven de €500(€514). En de 5700XT gaat nog in prijs dalen. De 2070 is al een hele tijd niet voor minder dan €500 te krijgen. De prijs daalt dus niet.
Omdat je product A kan krijgen vanaf prijs X kun je niet zeggen dan je product A kan krijgen vanaf prijs X. Juist ja. Oh en B merken worden wel degelijk gekocht, best veel zelfs
225W vind ik nog wel meevallen.
225watt is wat de top range kaarten van Nvidia doen. De 2070 zit daar een heel stuk onder.
Naast dat gaming laptops al jaren qua markt flink groeien is het voor een hoop gamers inclusief ikzelf wel belangrijk. Meer verbruik staat gelijk aan meer hitte, in de zomer maanden niet geweldig als je pc al kachel staat te werken.

[Reactie gewijzigd door Rin op 11 juni 2019 15:18]

Ik zei toch expliciet desktop.
en 50 watt verschil, niet honderde watts. Daar merk je echt niks van op je kamer hoor.
Omdat de desktop markt kleiner wordt is het gewoon belangrijk en ook voor desktops. Daarnaast merk je die 50watt echt wel,

Maar je bent toch altijd wel iemand die koste wat het kost AMD wilt verdedigen, terwijl dit gewoon een valide argument is voor een hoop gamers om er niet blij mee te zijn. Het zorgt er nou net voor dat je een grotere voeding, grotere kast etc nodig hebt om het te voeden en te koelen. Daarnaast is het weer een GPU waarmee AMD niet mee kan doen op de laptop markt.
Daarnaast is het weer een GPU waarmee AMD niet mee kan doen op de laptop markt.
Dat weet je helemaal niet. dat ligt helemaal aan de clock en voltage scaling. waar we nog helemaal niks over weten. AMD heeft, binnen wat ze hebben, voor de desktop de juiste keuze gemaakt door duidelijk meer performance te bieden voor een vergelijkbare prijs als de concurrent, ook al is het verbruik dan wat hoger.

En samsung denkt dat RDNA geschik is voor mobile, dus zo kommer en kwel kan het niet zijn zou je zeggen
Als ze met 225watt op 7nm pas net aan de 2070RTX kunnen overtreffen en dat zonder de energie slurpende RT cores van de 2070 kan je ervanuit gaan dat het geen energie zuinige chip is. Hoeveel extra power is er nodig om op 2080TI niveau te komen?

Volgens AMD hun eigen slides is het vooral BFV waar zij echt meer performance in bieden en de rest is vergelijkbaar met heel lichtjes in het voordeel voor de AMD GPU. Leuk dat het dan ook net wat goedkoper is (geen raytracing verder) maar dat er voor deze performance al 225 watt nodig is voorspelt gewoon niet veel goeds voor de architectuur op mobiel vlak. De chip die is ook nog eens kleiner dan de RTX GPU's, dus wat als zij de GPU meer compute units geven etc. Dit kan rustig een 300watt kaart worden zodra zij willen gaan concurreren met de echte high end kaarten van Nvidia. Dit alles duidt niet op veel speelruimte. Een Maxwell GPU was ook niet super energie zuinig maar zit ook in een Nintendo Switch, maar is enorm uitgekleed. Datzelfde kan Samsung met de RDNA architectuur doen natuurlijk.
Je mist het punt.

Ze zouden veel zuiniger zijn als ze bijvoorbeeld 200mhz minder hoog klokken. maar dan zouden ze de 2070 niet verslaan. dus op de desktop kiezen ze voor extra performance.
In de mobile markt zouden ze dat verleggen naar lager verbruik.
Vega op de desktop verbruik ook veel. toch zit die GPU ook in AMD's zuinige APU's en zelfs intel's NUC. omdat op veel lagere klokt hij wel zuinig kan zijn.

We weten nog niks over de scaling van Navi dus we kunnen gewoon nog niks zeggen over eventuele mobile varianten.
Ik mis het punt niet, het probleem is dat ze met deze middelmatige prestaties al een uitbundig energie verbruik hebben wat duidt op een niet efficient ontwerp/architectuur.

Dat het verbruik lager ligt zodra deze lager geclocked zit komt de curve natuurlijk ten goede. Maar een laptop 2070 verbruikt bijvoorbeeld maar 90watt en is 10~15% langzamer maar. Daar gaat met de data die wij nu hebben verwacht de nieuwe architectuur niet bij in d ebuurt komen.
zo simple werkt dat dus niet. Ze hadden ook zeg 48CU's erop kunnen plakken ipv 40, en dan 20% lagere kloks en dan zou het, afhankelijk van de clock/verbruik curve, even snel maar veel zuiniger geweest kunnen zijn. of niet.
Extra CU's verhoogt ook het verbruik. Er zal vast een andere balans gemaakt kunnen worden. Maar dat zij nu al het risico nemen om een kaart op de markt te brengen met zo;n hoog verbruik met de prestaties die het biedt zijn gewoon naar mijn mening geen goede signalen. Wat jammer is want ik zou best weer eens een AMD kaart willen aanschaffen als de prestaties+verbruik in balans is, dat terwijl ik zelfs een Gsync monitor heb.
Jaar te laat. Prijspunt is niet gunstig, precies hetzelfde als waar de nvidia tegenhanger op zitten. En de performance valt tegen. TDP niet bekend, maar het leek op een 8+6 pin op de kaart die Dr Su vast had. Niet goed.
Prijspunt niet gunstig? Ik heb sinds vorige maand een MSI RTX 2070 Armor voor €545, een van de goedkopere 2070 kaarten. De RX5700 xt presteert volgens AMD beter dan de 2070 en is goedkoper. Wat is daar niet gunstig aan en wat is daar hetzelfde aan? Hoezo valt de performance tegen? Het os volgens mij ook nooit goed. Komt AMD eindelijk met iets nieuws, gaan mensen alsnog klagen. Of begrijp ik je nu geheel verkeerd?

[Reactie gewijzigd door johan501 op 11 juni 2019 10:36]

Omdat die €545 voor je mid-range 2070 ook al belachelijk is. Daarom.
Voor dat bedrag kreeg je 4 jaar geleden nog de top-end ti kaart (980ti). Veel mensen hoopten dat AMD de markt eindelijk weer een beetje terug zou trekken. De 5700XT is maar een 250mm² chip, bijna de helft van een 2070. Deze kaart is eigenlijk nog meer overpriced dan een 2070 :/.
Misschien wel, wat maakt het uit? Als mensen Nvidia kaarten te duur vinden en klagen dat AMD weer langzamerhand terug komt, ga dan bij hun klagen. Hier klagen en andere de schuld geven lost niks op en helpt niks. ;)

Overpriced? We hebben het toch ook over prestaties? Wees blij dat AMD langzaam terug komt i.p.v. klagen of wacht eerst alle reviews af voor je gaat klagen. Waarom overpriced als die, volgens AMD, beter presteert dan een 2070? Je kan niet alles voor max. €100 krijgen. Laten we eerst alle onafhankelijke reviews afwachten en ga dan bij AMD klagen als het echt nodig is. Ik blijf bij mijn mening dat het ook nooit goed is, komt AMD eindelijk terug en hup: klaag modus aan. Want men wilt natuurlijk dat AMD gelijk in het diepe springt en misschien wel dingen verkeerd doet en wat gebeurd en dan? Mensen klagen.
> Waarom overpriced als die, volgens AMD, beter presteert dan een 2070?

Nogmaals, omdat de NVIDIA ook al overpriced was. Ze zijn beide overpriced. En dat terwijl de AMD chip nog eens bijna 2x kleiner is (en dus goedkoper om te produceren).

[Reactie gewijzigd door DoubleYouPee op 11 juni 2019 11:45]

Omdat de Nvidia kaarten overpriced zijn zijn die van AMD ook overpriced? Dat is geen goede reden. Dat je een reden geeft als dat de chip kleiner is, die begrijp ik wel. Maar zomaar dingen roepen als: het is gewoon overpriced en het is overprices omdat Nvidia.. in mijn ogen zijn dat geen redenen, maar dat is meer klagen. Maar als die chip dus kleiner is snap ik het wel.
Nog een reden: hij komt bijna een jaar later dan de 2070.
En ja, ik klaag inderdaad over de GPU markt in het algemeen ;).
Ja dat weet ik, maar iedereen verwacht maar dat fabrikanten met nieuwe producten komen wanneer men dat wilt en niet wanneer het product klaar is. Maar gaan we ook nog klagen dat Ryzen gen 1, 2 en 3 ook tig jaar te laat zijn?
Daar werd ook zeker over geklaagd in de Bulldozer tijd.
Het verschil is dat Ryzen daarna de prijzen t.o.v. Intel in sommige segmenten (8-core) bijna halveerde, of op z'n een verbetering gaf in prijs/perf. Dat zie ik bij de 5700 XT niet.
Ik heb over sinds Ryzen aangekondigd was om beter te vergelijken nu de nieuwe GPU'S aangekondigd zijn. Ja daar heb je wel gelijk in inderdaad. Maar wat AMD nu doet is een stap.

Ze kunnen of gelijk in het diepe springen met alle gevolgen van dien of langzaam terug komen op de GPU markt. Wat kies jij? Ik het tweede. Ik weet niet hoe groot AMD en Nvidia zijn qua mensen en afdelingen, maar vergeet niet dat AMD dektop cpu's, server cpu, professionele GPU, consumenten GPU's en APU's voor consoles doet. Ik zou zeggen: wacht eerste de reviews af en misschien gaan de prijzen nog dit jaar omlaag.
Ben zeer benieuwd naar de beschikbaarheid en custom kaarten, die zullen snel op 500 euro uitkomen. En Nvidia heeft 'super' klaarstaan. Geruchten zijn dat prijzen flink omlaag gaan van huidige modellen en zelfs de 'super' in prijs omlaag gaan.
De meeste willen een tegenhanger voor de 2080ti en met overclock mogelijkheden voor €25,-.
met €25,- cash-back mogelijkheid. Heb alleen een gevoel dat die er niet gaat komen.
Jouw reactie begrijp ik even niet. Jij beweert dat mensen een gratis kaart willen?
In een notendop: ze zijn nooit tevreden en zitten het liefste voor een dubbeltje op de eerste rij.

[Reactie gewijzigd door Knijpoog op 11 juni 2019 13:22]

De meeste 'gamers'willen helemaal geen 2080Ti, zij willen het misschien wel, maar willen absoluut niet het geld ervoor uitgeven. Het is maar een kleine groep die daadwerkelijk dergelijke kaarten koopt. Het midden en mid-high is vele malen interessanter en daar kan AMD over het algemeen prima meekomen. Ook nu weer zo lijkt het.
Zo duur is die 2080ti niet. in het jaar 2000 was een geforce 2 ultra 1600 keiharde guldens
Wat is je punt nou precies? Ik zie een heel verhaal over oudere kaarten en prijzen uit het verleden terwijl we hier in het heden leven.

Wat vergelijkbaar met een RTX 2070 van nu? De kaarten uit het verleden of de nieuwe AMD kaarten?
Precies is daar iets mis mee? Ik ben gewoon het verleden met nu aan het vergelijken. Dat is je blijkbaar niet ontgaan.

Ik bedoelde dus dit eigenlijk:
RTX2080 (Rond de €800-€900) -> GTX280 (kwam in 2008 uit voor rond de €500-€550)
RTX2070 (rond de €600) -> GTX275 (rond de €275)
RTX2060 (rond de €400) -> GTX260 (rond de €200)

Dat is dan even nVidia van nu tegen nVidia van 10 jaar terug, alleen naar de prijzen gekeken.
Ik snap je wel, maar dat is het verleden. Kan je dat nog wel voor 100% correct vergelijken? Dat was toen en dit is nu. Dingen worden nou eenmaal duurder, of goedkoper. Dat is niet alleen bij Nvidia.
Dat komt omdat de euro 2x minder waard is onderhand ;)
Iemand die het geld heeft en een MSI RTX 2070 Armor wilde terwijl de andere dezelfde kaart voor maximaal €50 euro wilt.
Bedankt. Door jou en vele anderen worden de hoge prijzen die Nvidia vraagt in stand gehouden. ;( €545 voor een RTX 2070 is veel te veel. Die prijs moest al lang onder de €500 gezeten hebben. Ik vertik het van een videokaart boven de €500 te kopen.
Oh, dat is mijn schuld? He, bedankt dat ik de schuld van je krijg he ;).

Ik vind het bedrag redelijk, voor wat je ervoor krijgt. Prima, das toch jouw keuze.
8 en 6 pin inderdaad. Tdp komt er zo aan in een uitgebreide preview (na afloop van de stream). Dat staat nog onder embargo nu.

Update: tdp's toegevoegd.

[Reactie gewijzigd door Xtuv op 11 juni 2019 01:29]

Heb je de benchmarks al gezien om dit te kunnen stellen?
Ze hebben de delta toch laten zien in de slides? Haal er de AMD filter af en er blijft niet veel over. Gepaard met het verbruik en de prijs gaan ze hier echt geen slag tegen nVidia mee winnen.
Ze hebben de delta toch laten zien in de slides? Haal er de AMD filter af en er blijft niet veel over. Gepaard met het verbruik en de prijs gaan ze hier echt geen slag tegen nVidia mee winnen.
Onafhankelijke benches! Daar gaat het om.
het is de desktop. ~50 watt zal mij, en veruit de meeste andere echt een rotzorg zijn.

Tot die mythische 7nm nvidia kaarten er zijn heeft AMD in dit prijs punt gewoon de beste kaarten.

En het is niet alsof AMD niet meteen kan reageren als nvidia besluit de prijzen te verlagen.
slechts ~50 watt (in ruil voor meer prestaties),met een paar uur gamen per dag? nee dat zet geen zode aan de dijk.
Als ze willen concurreren met de RTX 2060 moet de prijs toch nog wat omlaag. Bij NVidia krijg je voor minder ook nog raytracing er bij.
fidelity + lag reduction > RTX/DLSS.

nvidia's features werken maar een een handje vol games, kosten veel te veel performance (ray tracing), zijn gewoon ronduit slecht (DLSS), of hebben betere efficiëntere alternative (global illumination)

[Reactie gewijzigd door Countess op 11 juni 2019 11:56]

en jij gebruikt Ray tracing? in welke games? draait dat ook op redelijke FPS? iemand die een 2060 of 2070 koopt voor ray tracing is gestoord. Wil je effectief ray tracing pak je toch minstens een 2080 TI (de 2080 is amper genoeg voor de huidige games laat staat nieuwere).
Trouwens AMD heeft er klaarblijkelijk genoeg van om kaarten goedkoper in de markt te zetten om dan alsnog niet gekocht te worden omdat NVidia.
Die je kan gebruiken om silky smooth 30 fps raytracing op 720p resolution in Quake 2 te spelen? :+
Echt, de raytracing mogelijkheden van de 2060 stellen niets voor en is echt nergens momenteel voor te gebruiken zonder je FPS compleet onspeelbaar laag te maken. Als het je om de raytracing te doen is moet je echt een paar segmenten hoger gaan zitten.
Dat mag zo zijn, maar het heeft Nvidia wel silicon gekost en blijkbaar kon het er alsnog vanaf. Als AMD die kosten niet heeft en toch de prijs (relatief) hoger houdt, dan laat dat geen goede indruk achter :P
Het is gewoon silicon dat niet als een 2080ti, 2080 of 2070 verkocht kon worden maar goed genoeg was om als een 2060 verkocht te worden. Die RT cores krijg je niet als een cadeautje van Nvidia maar omdat het goedkoper is om die RT cores erop te laten dan een compleet nieuw PCB te maken zonder RT cores. De geen RT cores silicon hebben ze bewaard voor de niet-RTX 1660Ti.

[Reactie gewijzigd door Tim2010 op 11 juni 2019 01:07]

Het is gewoon silicon dat niet als een 2080ti, 2080 of 2070
De 2080 en 2080 ti hebben beide een andere die-size, die ook nog eens afwijkt van de 2060/2070... gelul dus..
Zo gaat dat ja, als een chip niet door de inspectie komt wordt hij gewoon verkocht als een lager geschaalde chip. Er worden gewoon dingen uitgezet op de chip waardoor hij weer verkoopbaar is.
30fps 720p dat is geen optie. Sorry zolang Raytracing niet op 1440p/60fps loopt is het een nutteloze gimmick. Onder het motto: kijk eens raytrwacing wat mooi (waardeloos).

Alles onder de 1440p/120-144 fps is gewoon niks. En het hoeft ook niet mooi te zijn zolang ik de framerate maar hoog genoeg kan hebben.
Met RTX op medium waarbij het aantal global illumination rays echt sterk verminderd is. Zet je de settings op high dan kan slechts de 2080Ti boven de 60 fps komen op 1080p.
Je hebt helemaal gelijk. Ik heb me verkeken op 1440p resultaten. Excuus.
Hele toffe GPU's en CPU's. Kan iemand me dan wel vertellen waarom AMD eigenlijk nooit 600$ kaarten maakt die tegen bijv de gtx 2080 kunnen op boxen? Ik snap dat er meer geld in midrange zal zitten, maar mensen met uitgebreide budgetten of dikke pc builds hebben daardoor altijd Nvidea?
De Radeon VII is momenteel de "600$ kaart". Deze wordt volgend jaar (als alles goed gaat) vervangen door een nieuwe model gebaseerd op een nieuwe architectuur.
Te kleine markt denk ik. Zoals je zelf al aangeeft, is het mid range segment het meest interessant en dat is waar het meeste geld valt te verdienen.
Wat bedoelde ze nou met gameclock?
De algemene clock-snelheid die gebruikt worden in-game.
Dat is de clock waar de kaart op loopt tijdens het gamen.
Het schijnt de gemiddelde kloksnelheid te zijn waarop een game speelt. Het wordt na de presentatie iets meer uitgelegd.
Hoopte dat ze ook in het lagere segment een kaart zouden uitbrengen, concurrentie voor de GTX1160 (ti), maar helaas.
Natuurlijk blijft het niet bij deze twee kaarten en zullen ze vast t.z.t. nog een 5600-serie uitbrengen.
Weet ik, maar daar kan ik niet op gaan wachten.
Ja, ondanks dat ik gehoopt had op Kaarten welke beter presteren dan de RTX2080Ti zijn dit opzicht geen slechte kaarten en focussen op de mainstream.

Helaas blijft stroom verbruik wel een serious dingetje bij de Radeon kaarten, 8+6 pin.

De nieuwe low latency & anti-aliasing technieken zonder een echte performance hit zijn wel cool.

Ontbreken van real time raytracing vind ik vooralsnog geen probleem, kijk hoe het bij Nvidia heeft uitgepakt, vrijwel direct na release flink de techniek moeten terug schroeven en ging het om ray tracing op bepaalde objecten en niet volledig ray tracing zoals velen verwacht hadden, ze hadden beter een jaar kunnen wachten hiermee. Ben echter wel zeer benieuwd hoe Navi voor console RayTracing gaat ondersteunen.

[Reactie gewijzigd door Jonathan-458 op 11 juni 2019 02:49]

225watt valt best nog wel te doen hoor voor de rx 5700xt
De vorige generatie was bij de launch ook tussen de 200 en 300 dollar. Dankzij de Mining gekte werden de prijzen opgeblazen naar 400+- per kaart en toen pas verkochte ze super goed.

Gezien we altijd mensen op de verkeerde plekken hebben zitten in het bedrijfsleven, kan ik me voorstellen dat ze denken( het verkocht toen ook voor 400 euro, dan kan dat nu ook ) zonder rekening te houden met de waarom het toen zo goed verkocht.
AMD veranderd van strategie. niet langer de zelfde performance bieden voor minder geld (en dus het eeuwige 'budget' merk zijn), naar meer performance bieden voor de zelfde prijs.

Ik denk eigenlijk dat dat voor hun marktaandeel heel goed zal zijn.

[Reactie gewijzigd door Countess op 11 juni 2019 11:53]

Als je games wilt streamen (naar extern), heb je dus waarschijnlijk de 3900X (12 core) nodig met de 5700XT. Samen met het nieuwe X570 moederbord heb je dan een goedkoper alternatief dan een Nvid/Intel RTX2070/i9900K setups.

[Reactie gewijzigd door XuPrX op 11 juni 2019 01:21]


Om te kunnen reageren moet je ingelogd zijn


OnePlus 7 Pro (8GB intern) Microsoft Xbox One S All-Digital Edition LG OLED C9 Google Pixel 3a XL FIFA 19 Samsung Galaxy S10 Sony PlayStation 5 E3 2019

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True