Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD plaatst mogelijke hint naar RX 6000-videokaarten in Fortnite-map

AMD lijkt een teaser voor zijn mogelijke RX 6000-videokaarten te hebben gepubliceerd. Dat doet het bedrijf in een eigen, custom Fortnite-map, waar gebruikers de code '6000' kunnen invullen om een verwijzing naar 'iets groots' te zien. Mogelijk verwijst dat naar Big Navi.

De mogelijke verwijzing naar de RX 6000-serie werd ontdekt door een streamer die MissGinaDarling heet. Zij plaatste een afbeelding van de melding op Twitter. De vice president en general manager van AMD's Radeon-divisie feliciteerde de streamer vervolgens met de vondst van deze easter egg.

De easter egg zit in de AMD Battle Arena-map in Fortnite, die het bedrijf maakte in samenwerking met MakaMakes, een Fortnite Creative-modder. In die arena zit een soort terminal, waar gebruikers een viercijferige code kunnen invullen. Wanneer spelers daar de code '6000' invullen, verschijnt de melding dat er 'iets groots' naar de 'AMD Battle Arena' gaat komen. Hiermee lijkt het bedrijf te hinten naar een mogelijke RX 6000-serie. De chipfabrikant refereert ook wel naar zijn komende videokaarten als 'Big Navi'. De huidige op Navi gebaseerde videokaarten zijn uitgebracht in de RX 5000-serie.

De teaser in kwestie. Afbeelding via MissGinaDarling op Twitter

AMD heeft zelf nog weinig concrete specificaties bekendgemaakt over zijn komende RDNA 2-videokaarten, hoewel het bedrijf in maart claimde dat de prestaties per watt met 50 procent worden verbeterd ten opzichte van de huidige generatie Navi-gpu's. Tegelijkertijd heeft de chipproducent bevestigd dat zijn Big Navi-videokaarten in 2020 op de markt verschijnen, hoewel daarvoor nog geen concrete releaseperiode is aangegeven. In juni stelde de chief financial officer van AMD echter dat de komende Big Navi-videokaarten 'de eerste RDNA 2-producten' zullen zijn. Dat doet vermoeden dat deze videokaarten eerder uitkomen dan de next-genconsoles, die ook gebruikmaken van de RDNA 2-architectuur. Microsoft heeft eerder bevestigd dat de Xbox Series X in november op de markt verschijnt.

Door Daan van Monsjou

Nieuwsposter

05-09-2020 • 14:57

242 Linkedin

Submitter: 33Fraise33

Reacties (242)

Wijzig sortering
Ik gun AMD wel mijn geld maar ik ben heel enthousiast geworden over de 3070. Mooie prijs en goede prestaties (even de reviews afwachten natuurlijk).
Je hebt nog niet eens 1 review gezien? Ik zou het 'gelijk aan 2080ti' met een korreltje zout nemen.

De 2080ti is al bewezen memory bandwidth starved met een 352-bit bus en 14Gbps geheugen goed voor 616.0 GB/s. Door het overklokken van het geheugen op deze kaarten verbeterd de performance aanzienlijk, duidend op een memory bandwidth bottleneck.

Nu claimt nVidia met de 3070 met 8GB 256-bit bus en 14Gbps (448 GB/s) sneller dan een 2080ti te zijn..

Het is waar dat de 3070 verbeterde memory compression heeft maar zelfs in het beste geval gaat de 3070 het niet denderend doen op hogere resoluties en met grotere textures vergeleken met de 2080ti. becuz.. MATH....

Iedereen die zijn 2080ti nu voor €500 dropt kan daar nog wel eens van terug komen als de 3070 uitkomt...

(Ik ben geen 2080ti bezitter die zijn aankoop hier probeert te bevestigen, gewoon simpele rationaliteit)

[Reactie gewijzigd door Cidious op 6 september 2020 15:30]

Ik ben wel een 2080ti eigenaar die het helemaal niet erg vind dat de 3080 schijnbaar de 2080ti "vernietigd", maar uit de slides te zien van nvidia zet ik toch mijn twijfels bij hun claims.
Iedereen weet dat de 2080ti een 4k kaart is en toch zetten ze de 3070 neer (die volgens hun sneller is) als een 1440p kaart. De 3080 zou flink sneller zijn dan een 2080ti, maar op de slide zetten ze de 3080 op 4k 60fps met dlss aan. Dit doet de 2080ti al, give or take 5fps. Daarom vergelijken ze de 3080 met de 2080, ookal is de 3080 hun 'flagship'. Waarom niet 3xxx tegen de 2xxx flagship als de sprong zo fantastisch is?
Als je de 3080 als een 4k kaart op de markt brengt, vergelijk hem dan met de vorige 4k kaart.
Denk dat het meer te maken heeft met de prijsklasse. Voor $800 had je vorige generatie een 2080, nu een 3080.

De 2080ti zou vergeleken moeten worden met een "3080ti", en als we kijken naar het gat tussen de 3080 en 3090 is daar zowel qua performance en prijs aardig wat ruimte voor. Ik verwacht dat we over een paar maanden wel zo'n kaart zullen zien.

Wat Nvidia's claims betreft, de video van DigitalFoundry lijkt het aardig te bevestigen, in ieder geval voor de 3080. Uiteraard wacht ik op tests van GamersNexus en andere publicaties, maar ik geloof niet dat DF heeft lopen knoeien.
DF hoeft ook niet te knoeien. Hij heeft het immers over de games waar de claims van NVdia op gebasserd zijn. Als dat niet zou kloppen zou het helemaal raar zijn.
Iedereen weet dat de 2080ti een 4k kaart is en toch zetten ze de 3070 neer (die volgens hun sneller is) als een 1440p kaart.
Games evolueren ook gewoon mee hoor. Ik kan op een GTX980 bij wijze van spreken ook Deus Ex: HR op 4k draaien, maar die kaart was zeker niet in de markt gezet als een "4k kaart" . Daarbij heeft een 2080 Ti een tikje meer geheugen beschikbaar, wat je ook wel nodig hebt bij hogere resoluties.

[Reactie gewijzigd door Tokkes op 7 september 2020 14:32]

Ik snap je, vandaar dat ik ook eindigde met ‘ even de reviews afwachten’.
Ik zit met mijn 2070 met een goede OC al op stock 1080Ti zal wel kloppen hoor

https://www.pcgamesn.com/...ti-performance-benchmarks
Als de 2080ti al bandwide starved is dan is HBM juist betere keuze aangezien dat juist tdp efficient is en goed past bij een 700 €$ kaart en al helemaal 1500 kaart.
Ik hoop dat mits AMD voor kleinere chip gaat ergen tussen GA104 en GA102 in dat ze HBM mijden maar voor een bijna GA102 of ietje groter met HBM kan TDP voordeel hebben met veel memory om ook op die 8K en VR markt te richten.
Maar ja ik denk dat ondertussen AMD bang is om HBM in consummenten productlijn toe te passen. En al helemaal als geen weet heb wat concurrent met conventioneel vram met de straatprijzen doet. Dat weet je pas ver na de ontwikkel keuze. En slechte ervaring daarmee hadden ze met Vega.


Daarnaast als budget zo ook mijn rond die €500 600 zit.
Maakt niet wat big navi doet er zal wel iets van RX6000 in die 3060 en 3070 klasse vallen met concurrerende prijs kaart.
Dat de performance verbeterd dankzij het overclocked van het geheugen duidt niet op een bottleneck, maar dat geheugen snelheid invloed heeft op de rendersnelheid, dit is bij veel GPU architecturen het geval.
ik ben meer benieuwd naar de 3060, ik vind 500 euro alsnog een hoop geld voor een gpu, en een 4k 144hz monitor kost nog een stukje meer dan dat, dat wordt een dure aangelegenheid. Ik ben benieuwd of de 3060 1440p op 144hz kan doen in grafisch veeleisende games. Ik denk dat met de komst van deze krachtige gpu's de 4k 144hz monitors het komende jaar ook flink in prijs gaan zakken, door veel hoger volume.
Hier dus ook iemand die meer geinteresseerd is in wat de 3060 gaat brengen, want ik vind 500+ nog steeds erg veel geld voor een freaking GPU, zelfs 400+..
Eens,de 970 was indertijd €350,-. Nu €500,- dat is meer dan de inflatie is geweest.
Dat is het ook, want feit is dat dat een aantal jaren geleden high end was, mensen die jou daarvoor -1 geven leven in een bubbel. Processors zijn ook veel sneller geworden de laatste jaren, en die zijn juist in prijs gedaald, het feit dat Nvidia nu met deze '' goede'' prijzen komt geeft gewoon aan hoeveel teveel de consument heeft betaald voor de vorige series.
Zit zeker een verschil in maar sluit inflatie,cryptomining en gebrek aan concurrentie niet uit.

[Reactie gewijzigd door biggydeen2 op 6 september 2020 07:17]

Nou, teveel betalen geloof ik ook niet, ik zie wel in dat het steeds moeilijker wordt om zoveel sneller en beter te maken is als de vorige generatie, en de R&D daarvoor kost nu eenmaal veel geld.
Ja dieshrinks en baten die het brengt gaan ook moeizamer voor ook nog eens hogere kosten. Dus die scheinbaar dubbele vooruit gang van RTX30 is ook een van tdp verleggen van 250watt naar 350watt naast dieshrink 12nm naar 8nm
ik zie wel in dat het steeds moeilijker wordt om zoveel sneller en beter te maken is als de vorige generatie, en de R&D daarvoor kost nu eenmaal veel geld.
Dat is natuurlijk waar, maar voor het overgrote deel van het ontwikkel traject (sinds de jaren '80) is de prijs van 'high end' min of meer constant gebleven (gecorrigeerd voor inflatie) - pas de afgelopen jaren wordt het steeds duurder. Blijkbaar is er iets veranderd waardoor het relatief steeds moelijker wordt om een nieuwe generatie sneller en beter te maken.
Ja, het wordt dus steeds moeilijker om nog meer transistoren in zo'n kleine verpakking te stoppen.
Ik weet niet of er een 3060 gaat komen. Maar het lijkt mij dat NVIDIA deze dit keer overslaat omdat dit type kaart meer in het budget gebied valt. Mij lijkt het logischer dat er een complete nieuwe line-up van de huidige 16 serie komt waarin een soort van 3060 gelijke kaart gaat komen. Aangezien ze met het huidige aanbod erg veel verwarring schepten met een 1660, 1660 super, 1660 Ti, en de 2060
Die 3060 gaat er zeker wel komen, tot nu toe is de x60 variant altijd pas enkele maanden later geintroduceerd.
Ik snap wat je bedoeld, ik zit zelf ook te twijfelen en wil een quad hd spel computer in elkaar zetten, maar als je nu een iets meer betaald voor een pc die het ook goed op 4k gaat doen, dan kan je er in de toekomst toch er weer iets langer mee gaan doen, dat is ook nog wel het afwegen waard.
3080 is toch maar performance per dollar?
Zelfde hier, ik heb nu nog een 1070 en die bevalt opzich nog prima maar de 3060 kijk ik toch wel naar uit voor een betaalbare upgrade :o
Gaat het hier om NVIDIA of om AMD ;)
Ja concurrentie is goed, maar ze mogen met big navi wel eens afkomen...
krijgt de navi 6000 dan ook raytracing capaciteit? Dan is er pas écht weer concurrentie met Nvidia.
Zeker RDNA krijgt DirectX tracing! https://youtu.be/eqXeM4712ps hier een demo waar AMD een preview geeft
Ik vraag me nu af hoe dit precies werkt. Betekent dit dat AMD alleen raytracing in DirectX krijgt, en dat het dus compleet onbruikbaar is in Linux? Ik ben nog niet overgestapt maar ik zou het jammer vinden als dit de groei van gamen op Linux weer zou vertragen.
Zover ik weet probeert men directX tracing naar vulkan te krijgen https://www.phoronix.com/...m&px=NVIDIA-DXR-To-Vulkan
Interessant. Ergens had ik het ook moeten weten dat er mensen zijn die hier al aan werken :P
Ik hoop dat het iets wordt, bedankt voor de info!
Misschien inderdaad erg jammer voor Linux. Maar het marktaandeel voor Linux is gewoon te klein om hier veel tijd en development in te steken.
De keuze tussen DirectX en Vulkan heeft wel meer om het lijf dan alleen of het voor Linix beschikbaar is. Vulkan is lastiger maar kan potentieel meer grafische kracht uitpersen dan DirectX. Kijk maar naar de nieuwste Doom-games. Er zijn dus meer redenen dan alleen 'Linux' om de Vulkanroute te kiezen. Overigens draait Google Stadia ook op Linux, dus qua marktaandeelpotentie zou ik het als bedrijf niet zomaar willen negeren.
Als het via DirectX gaat kan het ook op Linux dan is het gewoon software.
Misschien inderdaad erg jammer voor Linux. Maar het marktaandeel voor Linux is gewoon te klein om hier veel tijd en development in te steken.
Grapjas.

Weet zeker niet dat Google Stadia op Linux servers draait. Die gebruikt Linux games anders Windows games o.b.v Wine. Dat laatste is enorm verbeterd dankzij Valve, Zou me niets verbazen als Apple een vergelijkbare game service opzet voor IOS. Hun CPU en GPU is immers lang niet krachtig genoeg voor zware games. En game servers draaien op IOS of Android gaat niet lukken en voor Windows servers moet je aftikken bij ome Bill. Dus wat draai je dan op je servers? (Het begint met een L).

Natuurlijk kan MS dat proberen te saboteren, maar dan zal Google, Valve, Apple wel genoeg druk op game-makers kunnen uitoefenen op native Linux ports te maken en komt de zaal alleen maar in stroomversnelling. Ik denk dat er echt wel genoeg belanghebbenden zijn om Vulkan een succes te maken en te zorgen dat Linux gaming op eigen benen kan staan.

[Reactie gewijzigd door Elefant op 6 september 2020 02:21]

Waarom zou ms dat proberen te saboteren? MS is een platinum member van de Linux foundation.
Ik denk dat het gros wel een Windows machine heeft voor gamen. Linux en gamen is te klein. Maar echt te klein.
Allen is dat volgensmij niet op dedicated cores zoals de rt cores van nvidia, ook vraag ik me af of big navi iets heeft als tensor cores.

Als bijde missen dan moet die performance dus ook uit de main gpu komen.
de xbox series x slides hadden het over 3-10x ray tracing acceleration in a 'small area cost'.
That kan niet anders zijn als met hardwarematige ray tracing.
Het is anders geïmplementeerd als bij nvidia, en het kan zijn dat er hardware gedeeld word (met de texture mapping unit in dit geval), maar op de slides lijkt het er op dat elke CU 4x texture mapping of ray tracing kan doen (of een combi van).
En zo'n keuze klinkt heel logische want elk deel van het scherm dat ray traced is, hoef je niet te texture mappen.

Het is speculatie maar zeker bij games die helemaal ray traced zijn kan AMD's implementatie nog wel eens sneller zijn omdat ze een hogere peak throughput hebben.

En voor machine learning/AI hadden de slides het over 3-10x acceleration in een 'tiny area cost'. ik heb nog geen idee of ze dat doen met een combinatie van async compute, rapid packed math en de nieuwe 4bit en 8bit FP instructies, of dat ze meer gedaan hebben. maar op zich hoeft dat helemaal geen nadeel te zijn in vergelijking met nvidia's oplossing.
Niet echt een goeie demo trouwens.. ziet eruit als als een PS3 game
Nee de Quake 2 demo was oogstrelend. Gaarne appels met appels vergelijken.
Mooi is anders natuurlijk, maar je moet nagaan dat alle opverlakken moeten weerkaatsen..
Ik vind dat niet zo relevant als het resultaat er niet uit ziet, vooral bij een tech-demo.
Geeft nu het idee dat het alleen werkt in hele oude games omdat anders de FPS onder 20 komt.

Zelfs de reflecties zien er overigens niet uit, kijk bijv. bij 0:31 bovenin...

[Reactie gewijzigd door DoubleYouPee op 5 september 2020 19:37]

dat artikel is alleen maar speculatie zonder enige vorm van feiten ,
Zonder enige form van feiten?

Lisa Su heeft letterlijk het volgende gezegt.

I’ve said in the past that ray tracing is important, and I still believe that, but if you look at where we are today it is still very early. We are investing heavily in ray tracing and investing heavily in the ecosystem around it – both of our console partners have also said that they are using ray tracing. You should expect that our discrete graphics as we go through 2020 will also have ray tracing.”


Dus het zijn wel degelijk feiten. En geen speculatie.

En anders https://www.tomshardware....ig_navi-rdna2-all-we-know

The one thing we know for certain is that RDNA 2 / Big Navi / Navi 2x GPUs will all support hardware ray tracing. That will bring AMD up to feature parity with Nvidia. There was some question as to whether AMD would use the same BVH approach to ray tracing calculations as Nvidia, and with the PlayStation 5 and Xbox Series X announcements out of the way, the answer appears to be yes.
will also have ray tracing
software support is ook gewoon ray tracing er staat geen enkel feit in dat het hier om hardware accelerated raytaccing op dedicated silicon gaat.
will all support hardware ray tracing
Ja dat is een ander artikel wat je nu aanhaalt, maar goed goed om te weten, enige punt is dat de implementatie op shared hardware lijkt te zijn dus ben benieuwed naar de prestaties
yep gezien de consoles het ook doen en deze gebruiken beide een variant van de komende generatie kaarten van AMD
Ik hoop zo dat AMD het een keer gaat winnen. Ik gun het de competitie en ook een keer de kant van amd.

Ik kijk uit naar de 3080 maar ik zou het erg leuk vinden om mijn geld aan de rode kant te kunnen besteden. Alleen al om de concurrentie. AMD werkt er hard voor.
Ze werken heel hard aan hun verhaal, maar vrees dat de markt van de GPU's net iets te hardcore is. Er gaat werkelijk niets boven Cuda Cores. Ik schat dat het weer eens een verhaal van "willen maar niet kunnen" gaat worden. Wat niet weg neemt dat ze op de CPU markt een prachtig staaltje werk hebben kunnen afleveren (zelf ook overgeschakeld van Intel naar AMD).

De vraag is of ze het gaan volhouden en of ze dit op twee markten tegelijk gaan kunnen doen. Hun concurrenten (Intel & Nvidia) focussen zich vooral op waar ze goed in zijn, AMD wil in beide markten meespelen.
Hoop dat de 3070 level kaart en lager van AMD al 'een pak' beter zijn dan NVIDIA varianten zodat meer mensen AMD gaan kopen en ze dat geld in R&D kunnen steken en zo stilletjes terug naar het hogere segment kan kruipen.

Maar denk dat mensen gewoon NVIDIA gaan blijven kopen.
Op de marketing slides van deze nieuwe serie van nvidia zit een groot gapend gat in die prijsklasse ,die ik eigenlijk veel interessanter vind. Zeker met de huidige economische onzekerheid, kan ik deze duur, duurder, duurst kaarten gewoon niet meer voor mezelf verantwoorden, onafhankelijk van de prijs/prestatie verhouding.

En dat is van iemand die indertijd vooraan in de rij stond bij de Radeon 9700pro.
ATI / AMD heeft vaker nV moeilijk gemaakt. De kroon is oo rauwe performance een kwestie van hoe groot durf je chip . Nv gebruikt de bigchip beleid al heel lang en ook ATI. Het is door AMD CPU ramp jaren dat de executie van Radeon tak krepel maakte. En zij de bigchip taktiek had moeten laten varen en daarmee soms ook nV hard maakte omdat de kleinere highend soms op TDP en bangfor tha buck niet veel onderdeed voor nv bigchip met tdp en ASP prijs manco.

Die kans voor AMD zit er nu ook in met TDP van 350watt is waarschuwing dat zo een periode weer kan aankomen. Zonder super bigchip beleid. Geeft dat dus kansen voor AMD. Als zij voor 275wat 3080 -/+ kunnen leveren. Al helemaal 3080++ tot 3090- performance.
Door on/of RTX /DXR en hoe gevarieerd games op architectuur RTX / RDNA2 kunnen reageren maakt het net wat complexer.
Ik gun het vooral mezelf. Mijn budget is straks max €850,- en daarvoor wil ik de beste performance krijgen die dat bedrag mij kan leveren. Het boeit mij vrij weinig of dat groen of rood is. Fanboism is een droevig iets.
Het is absoluut niet fanboism. Ik hou van een gezonde concurrentie. Hoe meer ze aan elkaar gewaagd zijn hoe meer profijt wij hebben.
Dit met de prijs maar ook qwa ontwikkeling.

AMD heeft minder budget dan Nvidia. Als zij een evengoede concurrent neerzetten gun ik hun mijn aankoop alleen om te zorgen dat zij meer budget krijgen voor toekomstige ontwikkelingen.

Nvidia hangt achterover en laat echt niet zijn achterste van zijn tong zien als ze aan de top staan als enige.
Mag hopen dan dat die 850 voor GPU is, want voor een compleet systeem ga je daar niet heel veel voor krijgen.
Hoop dat AMD snel komt met zn videokaarten voordat ik een 3080 aanschaf.
Ik denk dat je sowieso het beste nog even kan wachten, verwacht dat de prijs (in ieder geval iets) omlaag gaat als AMD ook zijn laatste kaarten heeft uitgebracht.
Of omhoog als Big Navi toch tegen blijkt te vallen en veel mensen daardoor toch 3080 gaan aanschaffen. Ik hoop het niet hoor. Hoop dat er eindelijk weer concurrentie gaat plaatsvinden en wij als consumenten weer betere prijzen gaan krijgen.
De Navis vorig jaar waren best veelbelovend. Het waren alleen best kleine chips (minder transistors dan de RTX2060). Als AMD nou chips uitbrengt die een beetje een vergelijkbaar formaat hebben als die van NV, dan is de kans aardig dat het goed zit met Big Navi. NV haalt ook nagenoeg alle prestatiewinst gewoon uit het gebruik van grof meer transistors (2080 Ti@18.6 ~= 3070@17.4 en 3080@28, alles in miljard transistors uiteraard) en iets betere clocks (2080Ti@1545 ~= 3070@1730). De veranderingen aan de architectuur zijn echt bijzaak wat dat betreft. Dat Ampere zuiniger en sneller is is dus vooral aan Samsung te danken (en TSMC omdat die met hun 7nm AMD GPUs aardig druk op NV hebben gezet)

Als je bedenkt dat de 5700XT ongeveer even snel is als de 2060 (Super) maar minder transistors heeft, dan moet het voor AMD niet zo ingewikkeld zijn om met Big Navi en een pakweg 3x grotere chip ook de 3080 en mogelijk de 3090 een stevige concurrent tegenover te zetten. Het heet ook niet voor niks Big Navi. Problematisch wordt als AMD ermee had gerekend dan NV rond de 20 miljard transistors blijft steken (2080Ti niveau) en nu ook alleen rond dat formaat levert, want dan zijn we terug bij af met een AMD topmodel die eigenlijk niet meer dan midrange haalt.

[Reactie gewijzigd door Darkstriker op 5 september 2020 15:46]

Alleen is een 3x zo grote navi een wijkcentrale aan stroomverbruik en hitte productie.
De 5700 gebruikte al 225 watt en dan zitten ze ook nog eens op een duidelijk al een betere node dan 8nm Samsung. Als ze dus opschalen naar de grootte van een 3070 chip hebben ze een behoorlijke hitte productie en stroomverbruik.

Ze moeten dus ergens wel flink verbeteringen vandaan halen. Veel verder dan ergens tussen de 3070 en 3080 denk ik dan ook niet dat ze komen.
En dan is er nog rtx prestaties.

@Vlizzjeffrey Daar klopte idd geen hol van. Was op de telefoon getypt en deels copy paste en werkte voor geen meter... Was zelf al onderweg naar de pc voor een fix. Typen in deze text vakken op een website blijft een regelrecht drama op telefoons en tablets.

[Reactie gewijzigd door computerjunky op 5 september 2020 17:01]

De RX 5700XT verbruikt hetzelfde als de RTX 2070 Super met dezelfde prestaties.

Verbruik:
https://nl.hardware.info/...resultaten-stroomverbruik

Performance:
https://nl.hardware.info/...gpu-prestatiescore-2019-1

Dus dat valt wel mee.
Navi 7nm < - > 2070 12nm...

nu nvidia naar 8nm is is dat dus een heel ander verhaal dus tenzij AMD 5nm gaat gebruiken hebben ze daar toch een probleem.
Nope, de Samsung “8nm” dat Nvidia gebruikt is een “verbeterde” 10nm-proces van samsung.
Precies. In mijn eigen ervaring was de 5700xt zelfs nog iets zuiniger.

Heb een gigabyte gaming 5700xt gehad en momenteel een gigabyte gaming 2070super.

De 5700xt verbruikte zo’n 30/40watt minder dan de 2070s in de games die ik speel.

(Gebruik gemaakt van mei afterburner en hwinfo om het verbruik te bekijken ingame.)

Misschien ook slim om aan te geven. De rest van de pc was hetzelfde en uiteraard ook dezelfde settings.

[Reactie gewijzigd door TheHeavySoldier op 5 september 2020 17:19]

Nouja NV boast met een 1.9x efficiency gain maar daar lijkt het totaal niet op (al in hun eigen data). De 3070 (220W) verbruikt maar een paar watt minder dan de 2080Ti (260W) en de 3080 (320W) laat staan de 3090 (350W) zitten daar flink overheen. En dat zijn dat nog de cijfers van NV zelf, dus hoe dat in de realiteit uitpakt zal nog moeten blijken. Maar uiteindelijk bewijst Intel die jaar indrukwekkend dat efficiëntie op de PC enthusiast markt geen hol uitmaakt met hun 8 en 10 core CPUs die meer stroom verbruiken dan AMDs 16 core. Dus "so what" als een Big Navi 10 of 20% meer stroom vraagt dan zijn NV counterpart?
Klopt, maar als je een 260W 2080Ti met een crappy 2-fan design kan koelen, dan is er nog prima rek om ook 520W te halen.

En Intel, dat het vooral te maken met de monolithische chips en de nu al (voor een CPU) enorme die-size van die Intel chips. Het is gewoon voltrekt onrendabel voor hun om meer dan 10 cores in zo'n design te stoppen.
Het probleem is niet zo zeer het koelen zelf. Maar de overdracht van warmte op de chip zelf naar de koeler. Daar zit hem het "probleem". En dat los je niet op met 1 2 of 3 fans meer.
Zit daar het probleem? Niet met een naakte chip volgens mij. Bij een CPU met heatspreader is het een ander verhaal maar daar doen GPUs niet aan en dus is die transfer bijna perfect. Mijn 2080Ti met flinke OC loop consistent veel koeler dan mijn R5 3600 die alleen PBO aan heeft staan terwijl ze allebei in dezelfde waterloop zitten. Zelfs idle zit daar wel 15 graden tussen. Onder load loopt dat op richting de 30 graden.

[Reactie gewijzigd door Darkstriker op 6 september 2020 10:46]

Zover ik weet kan water veel sneller veel meer warmte opnemen als koper en het gas wat er in zit.
Je haalt hier twee dingen door elkaar. Koper is pakweg 1000x beter bij het transporteren van warmte dan water. Sowieso zijn vaste stoffen algemeen duidelijk beter in het vervoeren van warmte dan vloeistoffen en gassen. Vuistregel is: hoe dichter het materiaal, hoe sneller de warmte wordt verplaatst. Phase-change systemen (waar je dus van vloeistof naar gas en weer terug gaat) zijn nog beter in het verplaatsen van warmte en daarom zie je in koelers doorgaans heatpipes. De enige reden wat waterkoelingen de warmte kunnen afvoeren is de pomp. De beweging voert de warmte af.

Water kan wel veel warmte absorberen (pakweg 10x meer dan koper), maar dat is een heel ander verhaal en vooral van voordeel doordat het pieken in de warmteontwikkeling opvangt waardoor je niet ineens je fans veel harder moet laten draaien.
Het feit dat Nvidia al tot 350Watt gaat betekent denk ik dat AMD ze op de hielen zit en hen pusht zover te gaan.
Tja het is afwachten wat de rendering kaart gaat doen op tsmc 7nm. Dat zal een mooie indicatie worden van de kwaliteit van de samsung node. Ik denk dat het verschil best groot kan zijn.
Gebruikt een rx5700 225 watt meer dan een 3070? Wat verbruikt die rx5700 dan wel niet? 400 watt? Dat klopt toch niet wat je zegt?
Ja ik denk ook dat de Big Navi niet zo efficiënt wordt als Ampere, maar men verwacht wel een grote verbetering vergeleken met de 5000 serie, ik ben zeer benieuwd.
die 225 watt die jij noemt van de 5700xt is natuurlijk van de vorige(huidige) generatie van AMD.
De goal van RDNa architectuur is juist om energie efficiënter te worden. Misschien is RDNA3 nodig , maar met wat geluk brengt RDNA2 al wat efficientie.zou ook helpen als AMD niet al te hoog inzet met chip Vcc voltages.
Wanneer ik kijk wat mijn Powercolor Red Devil in OC mode trekt dan zal een 3x5700XT die gewoon tegen de 800W trekken. Hij tikt bij mij (na OC) 288W bij piek.
3x?
2x5700XT is al gelijk aan een 3080
Deze chips waren kleiner omdat de RTX2060 uiteraard de tensor cores etc had.
Microsoft zegt van ray tracing acceleratie en ML acceleratie dat het respectievelijk een 'small area cost' en 'tiny area cost' was.

Die RT en tensors cores nemen dus helemaal niet zo veel ruimte in beslag als veel mensen lijken te denken.

De 5700XT verslaat de 2070, maar gebruikt 0.5 miljard transistors minder. Zelfs als al die transistors voor RT en tensor cores gebruikt worden zou dat nog steeds minder als 5% van het totale aantal transistors zijn.
De 5700XT presteerd soms beter, soms minder. De 2070 SUper zit er een flink stuk boven qua prestaties terwijl het dezelfde maar beter geklokte GPU is.

De Tensort/RT cores waren juist de reden waarom de GPU's bij launch zo prijzig waren want ze chipdie's werden er relatief groot door.

Wat Microsoft er over zegt is niet zo relevant.
De 2070 SUper zit er een flink stuk boven qua prestaties
'flink stuk'... ~7% (@1440p).
Nee, dat zou ik niet een flink stuk noemen.
terwijl het dezelfde maar beter geklokte GPU is.
niet dus. De 2070 is de full-die TU-106 (10.8milard transistors). Voor de 2070S moesten ze de veel grotere TU-104 die (13.6 miljard transistors) gebruiken om AMD (met 10.3 miljard transistors) voor te blijven. Waar ze dan wel ~17% van de cores van uitschakelde.

https://en.wikipedia.org/wiki/GeForce_20_series
De Tensort/RT cores waren juist de reden waarom de GPU's bij launch zo prijzig waren want ze chipdie's werden er relatief groot door.
Dat was het excuse that de nvidia fans gebruikte om het te rechtvaardigen, maar daar is nooit hard bewijs voor geweest, en de 5700xt met 10.3 miljard transistors die net iets beter is als de 2070 met 10.8 miljard op aardig vergelijkbare clocksnelheden bewijst eigenlijk meteen al dat dat niet zo is.
Wat Microsoft er over zegt is niet zo relevant.
Aangezien Microsoft letterlijk de enige is die er ook maar IETS over gezegd heeft, is wat Microsoft er over zegt veruit het meeste relevante wat we er over weten.
'flink stuk'... ~7% (@1440p).
Nee, dat zou ik niet een flink stuk noemen.
Ik vermoed da tje hierbij refereerd naar het filmpje van Hardware Unboxed die een comparison deed? 7% vind ik anders zeker wel noemesnwaardig. Dat is bijna het verschil tussen de 2070 super en de 2080 super.
niet dus. De 2070 is de full-die TU-106 (10.8milard transistors). Voor de 2070S moesten ze de veel grotere TU-104 die (13.6 miljard transistors) gebruiken om AMD (met 10.3 miljard transistors) voor te blijven. Waar ze dan wel ~17% van de cores van uitschakelde.
Dat is een oprechte error van mijn kant, was vergeten dat ze wel iets met de gpu hadden gedaan.
Dat was het excuse that de nvidia fans gebruikte om het te rechtvaardigen, maar daar is nooit hard bewijs voor geweest, en de 5700xt met 10.3 miljard transistors die net iets beter is als de 2070 met 10.8 miljard op aardig vergelijkbare clocksnelheden bewijst eigenlijk meteen al dat dat niet zo is.
Totdat je raytracing functionaliteiten inschakelt. Dan blaast zelfs een 2060 de stuk snellere 1080ti weg. Ik denk dat je het vooral erg pro AMD ziet en ontkent dat er een hoop op de GPU aanwezig is wat de chip groter maakt. Prima dat je deze generatie Raytracing nog niet ziet zitten (doe ik overigens wel met games als Control), maar dat betekent niet dat het er niet is.

Denk je nou echt dat alle RT functionaliteit in 0.5miljard aan transistors passen? Helemaal omdat de 10XX series welke in drivers RT enabled kregen extreem langzaam er in zijn?
Aangezien Microsoft letterlijk de enige is die er ook maar IETS over gezegd heeft, is wat Microsoft er over zegt veruit het meeste relevante wat we er over weten.
De chip architectuur is gepresenteerd en toont geen enorme dedicated RT hardware, maar qua performance heeft Epic meer inzicht getoond dankzij de UE5 demo en deze draait sneller op een 2070 super volgens een medewerker van Epic. Op dit moment zouden zij de GPU die in de PS5 zit 200% groter moeten maken qua transistoren om de moderne 30XX GPU's bij te benen. Ik weet niet of die jump reeel is met de huidige staat van AMD op GPU gebied.
Dat is bijna het verschil tussen de 2070 super en de 2080 super.
Dan zou de 2080super NOG schandalig meer overpriced zijn als dat hij was. Maar ik kom uit op 14% performance verschil tussen die 2 @1440p.
Totdat je raytracing functionaliteiten inschakelt. Dan blaast zelfs een 2060 de stuk snellere 1080ti weg.
Wat totaal niet relevant is voor de vraag hoeveel extra transistors/die space ray tracing kost op de 20 series. Wat de vraag was die we daar probeerde te beantwoorden.
Dat dedicated hardware sneller is in een specifiek taak als general purpose hardware staat niet ter discussie lijkt me.
Denk je nou echt dat alle RT functionaliteit in 0.5miljard aan transistors passen? Helemaal omdat de 10XX series welke in drivers RT enabled kregen extreem langzaam er in zijn?
Makkelijk. Daar is het fixed function hardware voor. Het is efficient en klein, maar kan letterlijke alleen maar dat en niks anders.
Op dit moment zouden zij de GPU die in de PS5 zit 200% groter moeten maken qua transistoren om de moderne 30XX GPU's bij te benen. Ik weet niet of die jump reeel is met de huidige staat van AMD op GPU gebied.
Of ook de kloksnelheid opvoeren, wat de PS5 GPU bewijst dat prima mogelijk is met RDNA2.

Daarbij kom ik niet aan 200% extra om de 3080 bij te houden.

de 2080 is 16% sneller @1440p als de 5700XT. en de 3080 is maximaal 80% sneller als de 2080 (in cherry picked 4k benchmarks, terwijl we weten dat de 2080 geen 4k aan kan in die games).

Kom ik uit op maximaal 109% sneller. (1.16 * 1.8)

Aangezien de huidige 5700XT slecht 250mm2 is, en het enhanced 7nm process opnieuw betere dichtheid heeft zou een GPU van 500-550mm2 al voldoende kunnen zijn nog voor ik een eventuele hogere clocksnelheid meereken.
maar qua performance heeft Epic meer inzicht getoond dankzij de UE5 demo en deze draait sneller op een 2070 super volgens een medewerker van Epic.
Dat is niet helemaal wat er gezegd is. Ik kan alleen vinden dat de 2070 super de demo ook zou kunnen draaien. Maar niks over dat hij sneller zou zijn op die 2070 super.
Dan zou de 2080super NOG schandalig meer overpriced zijn als dat hij was. Maar ik kom uit op 14% performance verschil tussen die 2 @1440p.
Ik kijk niet alleen niet naar alleen 1440P en al helemaal niet bij alleen 1 source. Dat de 2080Super obsolete was binnen de lineup tussen de 2070Super en 2080TI is denk ik wel een gegeven.
Wat totaal niet relevant is voor de vraag hoeveel extra transistors/die space ray tracing kost op de 20 series. Wat de vraag was die we daar probeerde te beantwoorden.
Dat dedicated hardware sneller is in een specifiek taak als general purpose hardware staat niet ter discussie lijkt me.
Hoe kan je dan vergelijken wat jij deed dat de 5700XT in dezelfde ballpark ligt qua performance als de originele 2070 maar met minder transistors? Zodra we specifieke functies gaan aanspreken kan de 5700XT het niet eens. De ene vraag die jij kan stellen dan is vindt je het belangrijk om RT functies te hebben? Ik persoonlijk wel, daarom geen 5700XT gekocht.
Dat is niet helemaal wat er gezegd is. Ik kan alleen vinden dat de 2070 super de demo ook zou kunnen draaien. Maar niks over dat hij sneller zou zijn op die 2070 super.
Er staat letterlijk dat de demo op 40+frames draait vs de 30frames op de PS5. Kan niet meer clear dan dat lijkt mij.

Er is een reden voor dat Radeon GPU's nu relatief zeldzaam zijn in de machines van gamers, en dat heeft echt niet veel te maken met het marketing apparaat van Nvidia. Daa rprikken hedendaagse gamers echt wel doorheen.
Hoe kan je dan vergelijken wat jij deed dat de 5700XT in dezelfde ballpark ligt qua performance als de originele 2070 maar met minder transistors? Zodra we specifieke functies gaan aanspreken kan de 5700XT het niet eens. De ene vraag die jij kan stellen dan is vindt je het belangrijk om RT functies te hebben? Ik persoonlijk wel, daarom geen 5700XT gekocht.
Maar dat was de vraag niet! De vraag was hoeveel transistors die extra functies kosten.
Er staat letterlijk dat de demo op 40+frames draait vs de 30frames op de PS5. Kan niet meer clear dan dat lijkt mij.
een laptop met een 2080.

en er staat ook
Sweeney then explained in the Twitter thread that VSync was holding back some of the PS5 performance and that some frame times behind the scenes would offer "much higher" than 30fps.
Dus daar valt nog wel wat op af te dingen.
Daa rprikken hedendaagse gamers echt wel doorheen.
duidelijk niet, want ook toen AMD 3 generaties lang onbetwist de betere GPU's had konden ze maar net 50% marktaandeel aantikken kortstondig.

[Reactie gewijzigd door Countess op 10 september 2020 01:19]

Maar dat was de vraag niet! De vraag was hoeveel transistors die extra functies kosten.
Genoeg om bij een 1070 van 7.2miljard transistors een jump te maken voor de 2070 naar 10miljard transistors terwijl de architectuur naast de tesnor/RTX kant voor grootste gedeelte hetzelfde is gebleven (300cuda cores erbij maar dat verklaard de jump niet).
een laptop met een 2080.

en er staat ook
Een laptop 2080 draait nauwelijks sneller dan een desktop 2060 :D.
duidelijk niet, want ook toen AMD 3 generaties lang onbetwist de betere GPU's had konden ze maar net 50% marktaandeel aantikken kortstondig.
De enige GPU in recent memory dat sterk was van AMD was de 290 en deze was fors heter. Tijdens de 680 era waar je denk ik naar refereerd met de 7970 was het stuivertje wisselen totdat de drivers beter werden van de 7970.l Wat hebben gamers daar bij launch aan?

Maar je staat toch al bij mij in het geheugen bekend als een AMD fanboy die er niet erg realistisch tegen aan kijkt.
Genoeg om bij een 1070 van 7.2miljard transistors een jump te maken voor de 2070 naar 10miljard
|:( o god....
De 2070 is 46% sneller als de 1070 (1440p), en dat is ondanks dat de 1070 hoger base and boost clocks. En bij de 1070 25% van de SM's uitgeschakeld.

Het punt dat je hier probeert te maken slaat werkelijke helemaal nergens op. het raakt echt kant nog wall.
Een laptop 2080 draait nauwelijks sneller dan een desktop 2060 :D.
*zucht* laptop met een 2080. punt. dus niet een 2080 max-q

Echt, wat denk je hier eigenlijk? Dat een PS5 met 36CU, even veel als de 5700, met een veel hogere clock snelheid als de 5700, en een veel hogere geheugen bandbreedte als de 5700, en een nieuwere architectuur als de 5700 veel langzamer gaat zijn als een de 2060 die al langzamer is als een 5700?

Kan je echt niet ff IETS langer nadenken voor je iets eruit flapt?
De enige GPU in recent memory dat sterk was van AMD was de 290 en deze was fors heter. Tijdens de 680 era waar je denk ik naar refereerd met de 7970 was het stuivertje wisselen
Ik refereer naar de hd4000 t/m hd6000. Bij de hd7000 was nvidia eigenlijk weer ongeveer langs zij gekomen (3 maanden na de launch van de HD7970).
Maar je staat toch al bij mij in het geheugen bekend als een AMD fanboy die er niet erg realistisch tegen aan kijkt.
En jij bij mij nu als iemand die werkelijk geen idee heeft waar hij het over heeft, of gewoon een domme trol is.

[Reactie gewijzigd door Countess op 10 september 2020 14:01]

|:( o god....
De 2070 is 46% sneller als de 1070 (1440p), en dat is ondanks dat de 1070 hoger base and boost clocks. En bij de 1070 25% van de SM's uitgeschakeld.

Het punt dat je hier probeert te maken slaat werkelijke helemaal nergens op. het raakt echt kant nog wall.
IPC upgrades, memory bandwidth upgrades etc dat bereikt zijn door de process verkleining verklaard dat. Jouw hele beredenering dat de tensor cores nauwelijsk ruimte in zouden nemen en dus de 5700XT een efficientere GPU zou zijn vanwege het aantal transistors is juist wat kant noch wal raakt. 8)7
*zucht* laptop met een 2080. niet een 2080 max-q
Ook de Max-P versie draait fors langzamer dan de desktop versie. Ben je wel op de hoogte van de GPU markt?
https://youtu.be/a6YLNXAgmwY < de verschillen voor de 2070 versie)
Ik refereer naar de hd4000 t/m hd6000. Bij de hd7000 was nvidia eigenlijk weer ongeveer langs zij gekomen (3 maanden na de launch van de HD7970).
2 jaar aan GPU's zo'n 10 jaar terug aanhalen en projecteren naar de huidige markt 8)7
En jij bij mij nu als iemand die werkelijk geen idee heeft waar hij het over heeft.
Dat blijkt inderdaad uit de bovenstaande comments van jou. :O
Als je bedenkt dat de 5700XT ongeveer even snel is als de 2060 (Super) maar minder transistors heeft, dan moet het voor AMD niet zo ingewikkeld zijn om met Big Navi en een pakweg 3x grotere chip ook de 3080 en mogelijk de 3090 een stevige concurrent tegenover te zetten.
De 5700XT is een echter pak sneller als de 2060 super hoor (de 5600XT is meer vergelijkbaar met de 2060), dus als je het idd zo bekijkt zou een veel grotere chip nog een leuke concurrent kunnen vormen voor nVidia

https://youtu.be/45Q8TVmzHI8?t=424

Ook als je bedenkt wat de nieuwe consoles allemaal gaan kunnen en denkend dat de Desktop versies vele malen groter en beter gaan zijn, heb ik goeie hoop

[Reactie gewijzigd door Sinester op 7 september 2020 13:49]

Jij denkt dat AMD die kaarten voor meer gaat verkopen als die slechter presteren?
Ik denk toch echt het omgekeerde

Daarnaast denk ik nog steeds dar amd dicht bij de 3080 kan komen qua prestaties. En wellicht verrassen ze ons met iets meer. Maar 3090 blijft denk ik te hoog gegrepen

[Reactie gewijzigd door Astennu op 7 september 2020 02:08]

Shaflic bedoelt waarschijnlijk dat de RTX kaarten duurder zullen worden als Big Navi tegen blijkt te vallen.
Ik heb kog niet echt eerder gehoord dat de msrp omhoog gaat na launch.
En gezien de nieuwe consoles moet nVidia ook geen hogere prijs willen.

Wat wel kan is dat prijzen gaan stijgen door te weinig aanbod en te veel vraag. Maar dat geld komt dan bij winkels en leveranciers terecht en niet bij nVidia.
How will pricing shake out? According to Twitter user @coreteks (who also posts technology analysis videos on YouTube), there will be a version of Big Navi with 16GB of memory priced at $549. If true, the part will have more memory (+6GB) and cost less (-$150) than the GeForce RTX 3080.
beetje vervelend misschien, maar je bedoeld waarschijnlijk verrassen, niet verassen want dat is iets verbranden tot er as overblijft.
Zomaar gratis tip!
Denk eerder dat AMD nu zijn prijzen zodra rtx30 gebenched is gaat setten met iets betere bang for tha buck. En dan komt nV miracle driver zoals gewoonlijk. NV gaat hun prijzen aanpassen als AMD Iets boven een RTX variant prsteren en met iets kleiner prijsje. En miricle driver na de miracle driver.

Om die reden is beter om te wachten tot nV en AMD g-kaarten de straatprijzen stabiliseren. Vooral de 3070 daar kan ‘n RX6000 variantboven vallen de prijs seting is dan belangrijk. Ook de 3080.
Misschien verrast AMD ons en vult het gat met beter prijsje tussen de 3080 en 3090.
Gezien de geheimhouding kan het alle kanten op.
Het gaat allemaal afhangen van de prestaties. Ik hoop dat AMD in staat is iets vergelijkbaars als de 3080 op de markt te zetten, dat zal voor de concurrentie en dus de consument goed zijn. Maar ik vrees dat NVIDIA door diverse inside info aan zag komen dat de nieuwe Radeons een flinke boost zouden gaan worden, en dus zelf hun GPU's competatief gelanceerd hebben om zo AMD uit de markt te (blijven) prijzen.

De verhalen gingen immers dat de Big Navi de 2080 zou gaan verslaan; dat heeft NVIDIA nu zelf ook ruimschoots gedaan. En aangezien de 3070 ongeveer vergelijkbaar is als de 2080Ti vrees dus dat de hoogste Big Navi tussen 3070 en 3080 in gaat hangen, en we alsnog niet echt concurrentie in het high end segment kijgen (en dan hebben we ook de 3090). Maar goed, het blijft allemaal speculatie natuurlijk.
De prestaties van RDNA2 zijn al voor een dele uitgelekt door de next gen consoles en die lopen qua prestaties ongeveer rond de 2070 en 2080RTX kaarten. De 30XX serie is veel sneller dan dat. Dus vermoed niet dat Nvidia daar bang voor zou zijn. Zoals vele analysten zeggen, zij zien de consoles als de concurrentie en zijn deze nu voor.

Er wordt usit gevreesd dat Big Navi net zo duur gaat worden maar qua prestaties net wat achterloopt en dus de RD weer te prijzig is voor wat het gaat bieden. Vergelijkbaar met de Radeon VII.
De prestaties van RDNA2 zijn al voor een dele uitgelekt door de next gen consoles en die lopen qua prestaties ongeveer rond de 2070 en 2080RTX kaarten.
Volgens mij is er alleen naar buiten gebracht dat de makers van gear 5, met een in 2 weken tijd in elkaar geflanste port waarbij ze ook nog een ray tracing based global ilumination hebben toegevoegd, ze ongeveer 2080 prestaties kregen. en daarna zeiden ze nog dat er veel untapped potential over was

gevonde:
https://www.usgamer.net/a...eries-x-gears-5-port-2080
"I think relative to where we're at and just looking at our experience with the hardware with this particular game, I think we're really positive to kind of see how this thing is performing, especially knowing how much untapped performance is still there in the box based on the work we've done so far,"
Een medewerker van epic china verklaarde dat de UE5 demo op een 2070 super sneller draaide dan de ps5.

https://www.google.com/am...tech-demo-pc-performance/

Alleen sprak Tim dit later tegen al is wat hij zegt erg vreemd.

Denk dat qua architectuur er niet veel te porten valt voor gears5. Helemaal omdat de engine toolset al klaarlag.
Wie zegt dat in de consoles dezelfde GPU's zitten als AMD gaat verkopen voor de PC markt? Het is vrij normaal dat in consoles minder stevige GPU's zitten dan in de PC.
Het gaat om de architectuur en gebasseerd daarop kan je inschatten wat de prestaties gaan zijn en hoe schaalbaar het is.
Het gaat allemaal afhangen van de prestaties. Ik hoop dat AMD in staat is iets vergelijkbaars als de 3080 op de markt te zetten, dat zal voor de concurrentie en dus de consument goed zijn. Maar ik vrees dat NVIDIA door diverse inside info aan zag komen dat de nieuwe Radeons een flinke boost zouden gaan worden, en dus zelf hun GPU's competatief gelanceerd hebben om zo AMD uit de markt te (blijven) prijzen.

De verhalen gingen immers dat de Big Navi de 2080 zou gaan verslaan; dat heeft NVIDIA nu zelf ook ruimschoots gedaan. En aangezien de 3070 ongeveer vergelijkbaar is als de 2080Ti vrees dus dat de hoogste Big Navi tussen 3070 en 3080 in gaat hangen, en we alsnog niet echt concurrentie in het high end segment kijgen (en dan hebben we ook de 3090). Maar goed, het blijft allemaal speculatie natuurlijk.
Hoop ook dat AMD eindelijk bijna gelijk komt is een keer met Nvidia, zo dat er ook met prijzen woord geknokt tussen die twee, en ik ben echt benieuwd hoe snel de Radeon RX 6000 series woord, hoop dat ze dicht in de buurt zijn als die van Nvidia, en hoop dat ze nu eindelijk zuiniger zijn dan Nvidia.

Ach als de snelste Radeon RX 6000 series tussen de 3070 en 3080 in gaat hangen en een stuk minder kosten dan de GeForce RTX 3080, ga ik zeker deze keer voor de Radeon RX 6000 series, als upgrade over mijn GeForce GTX 1080.

[Reactie gewijzigd door AmigaWolf op 5 september 2020 15:26]

3070 is instap highend of sub highend. Als er een RX6000 daarboven valt dan heeft AMD een high-end. Halen ze 3080 dan hebben ze de high-end behaald. High-end jalen metbig chip is niet zo moeilijk voorbij de 3080 richting 3090 is lastigere opgave.
Naast DXR performance.
AMD zal alleen zijn wanneer ze een model hebben welke zelfde performance hebben als een 3080 voor de zelfde prijs, of iets er onder, maar wel met een competitieve prijs. Het is heel simpel, NVidia heeft zo veel performance winst gemaakt dat een AMD Low budget moet concurreren tegen een 3070 welke al sneller is dan een 2080Ti. Heeft AMD geen kaart voor pak hem 350 euro, die de 2080Ti overtreft, dan is het gewoon gedaan met AMD. Door de 3000 serie van NVidia liggen de kaarten heel anders.

Was het eerst de 2070, 2080 to beat, is het nu op 2080Ti to beat in een prijsklasse van onder de € 400,00 en dat gaat AMD niet redden. Hun huidige top kaarten zitten boven de prijs van een 3070 en halen nog niet eens de helft van de performance.

Nee, met pijn in mijn hart, ga ik gewoon weer naar NVidia terug na 8 jaar AMD.
Nou ik zoe het zo. AMD zat in heel diep dal net niet te diep dat zij de overgebleven ruimte voor R&D naar hun core busnes CPU , dat houd in dat in de dark AMD ages Radeon Afdeling om strakke hand tem moest. En de oorzaak aan de ellende in de Radeon afdeling het voormalige ATI is dat AMD foundry het moesten doen met langdurig achterlopende procede. Waar ATI en nV samen met zelfde foundry afhankelijk waten dus geen kwa foundry zijn ze gelijk nu komt er nog samsung bij .
Het is dus de vraag of ze voldoende uit het daal waten ongeveer 2 jaar om radeon afdeling en executie van aangomende producten op te schalen.

Ik weet het niet maar AMD is niet zo lang uit dal. Of bij deze gen Big navi het sucses van zen al invloed heeft op slag kracht van Radeon tak ? Ik hoop van wel . Ergens voel ik dat het nog te vroeg is. Een teken dat `radeon team vol ertegen in gaat is als hun highend chip kwa grote die van nV Evenaren. En dus weer net als nV en oude ATI de bigchip stratiegie toepassen. Dus is bignavi stuk kleiner dan GA102 dan heeft AMD niet genoeg kapitaal binnengeharkt om naastde belangrijkere server en ook belangrijkere mobile markt de discreet gpu tak vol mee te Laten draaien. Het is iig goed teken dat er big chip aan komt van AMD. Dat Radeon Tak nu stuk beter opgeschaald mee doet. Maar mogelijk nog niet op oude niveau van onder ATI. Daarnaast nV bigest chip is de pro markt gerichte GA100. Denk dat AMD pas goed mee komt met als hun CRDNA uitgerold wordt en dit ook enorme bakbeest wordt. Iig groter dan GA102.
Je kan ook overdrijven. Vorige week zondag zaten ook alle topkaarten van NVIDIA boven de prijs van een 3070 en ook die haalden vaak niet de helft van de performance ;).
Ik weet niet waar je het vandaan haalt, maar de geruchten duiden er gewoon op dat een Big Navi 50% sneller wordt dan de 2080Ti.
Kortom, als dat nog een tikje hoger ligt dan deze geruchten (net zoals alle geruchten over de 30xx serie uiteindelijk de 30xx te laag inschatten) dan zit die big Navi gewoon netjes rond 3080 performance.

Het enige punt dat ik wilde maken is dat je wel heel stellig zegt dat AMD het nooit gaat redden. En we kunnen er nu een hele welles/nietes van maken, het blijft toch allemaal speculatie. We gaan het zien over een paar weken :)
Ik hoor de laatste 5 jaar dat AMD op par komt met Nvidia, maar iedere keer is het weer een teleurstelling.

Heb er geen vertrouwen meer in dat AMD iets competitief tegenover Nvidia kan zetten.
Dat kan maar dat gevoel sluit simpelweg niks uit, het is maar een gevoel.

De tijd zal het leren maar zelfs als je gelijk blijkt te hebben is dat omdat dat gewoon is wat het is niet omdat jij dat gevoel hebt...

[Reactie gewijzigd door watercoolertje op 6 september 2020 09:26]

Zou zomaar kunnen dat de prijzen ook omhoog gaan na de amd lancering, dat is mijn verwachting.

[Reactie gewijzigd door govie op 5 september 2020 15:19]

ik verwacht dat de 3000 series prijzen omhoog gaan na de launch, gewoon omdat er geen voorraad is, want daar heeft nvidia al voor gewaarschuwd.
Dat ook en net zoals dat de geheugen prijzen deinzen op de grondstofprijzen, zal dat voor dddr6miljaar-miljoen ook wel gelden. Zeker met 10gb geheugen+andere chips. :+
Wanneer heeft nvidia de prijzen verlaagd omdat AMD met een nieuw product kwam? Denk dat je daar niet veel van moet verwachten, het is juist AMD die, volgens de geruchten, nu hun prijs naar beneden hebben moeten aanpassen om nog mee te kunnen met de 30x serie, dus dat geeft wel een beetje idee van de big navi (hopelijk natuurlijk dat we verrast worden door AMD, maar het verleden zegt toch anders, daar werd ook telkens gedacht dat AMD met iets 'groots' kwam, maar bleek toch een 'telleurstelling'.
ja ik kan niet meer wachten, heb mn nieuwe built staan zonder videokaart.
oude pc met videokaart anderhalve week geleden verkocht. O-)
Het Show je Build! Topic
beetje voorbarig niet? zeker omdat nvidia nu al waarschuwt dat de voorraad zeer beperkt zal zijn bij launch.
Jawel maar kreeg de goede prijs, komende twee weken ben ik met vakantie dus had ik mn pc toch niet kunnen gebruiken. }:O

En die voorraad ben ik niet zo bang voor. Nvidia wil verkopen dus als ze niet genoeg produceren snijden ze zichzelf in de vingers. Daarnaast wachten heel veel mensen op wat AMD gaat brengen. 2080ti gebruikers zullen deze generatie gaan overslaan ivm enorme prijsdrop. En dan heb je nog een club mensen die voor een nieuwe console gaan en niet beide kunnen veroorloven.

[Reactie gewijzigd door sn3lders op 5 september 2020 22:00]

En die voorraad ben ik niet zo bang voor. Nvidia wil verkopen dus als ze niet genoeg produceren snijden ze zichzelf in de vingers.
Maar zij produceren niet zelf. Ze krijgen ze van samsung, en yields bij samsung zij niet geweldig. En in plaats van dat ze dan wat langer wachter met launchen om voldoende voorraad op te bouwen launchen ze als nog met wat ze van te voren al weten dat ruim onvoldoende voorraad is.

En de retailers en webshops weten dit. Dus ik betwijfel ten zeerste of je überhaupt een kaart kan vinden voor MSRP.
MSRP?

17e wordt het een F5 dag/nacht 8-)
Manufacturer Suggested Retail Price.

Dus de prijzen die nvidia in de presentatie noemde.
Nja Verwacht wel dat de msi 3080 gaming x trio misschien wel €150 duurder zal zijn. Maar als er amper aanbod is en daardoor de prijzen de pan uit stijgen, kan ik ook nog wel even wachten. nee verkoop is slecht zaken doen voor nvidia.
Ja of omhoog omdat alles uitverkocht is.
Nee, want wanneer AMD kaarten de snelheid en specs niet halen van een 3080 voor de prijs van een 3080FE dan zullen de NVidia prijzen omhoog gaan, want er is toch geen concurrentie.

Daarom ga ik zelf zo snel mogelijk naar een 3080FE nog voordat AMD uit komt met een nieuwe kaart.
Amd komt wanneer ze komen. Niks houd jou tegen te wachten.

Sterker nog, gezien de al door nvidia voorspelde schaarste aan het begin en de daardoor vast hogere prijzen is het waarschijnlijk sowieso wijs even te wachten met de aanschaf van een 3080.
Hoezo hogere prijzen, gewoon via nvidia zelf bestellen dan.
Ik zou wachten tot de RTX 3090 tbh
Zelfde, verleiding voor zo'n reference kaart is groot! Maar m'n Freesync1.0 scherm zegt,"wacht!'.
In welk opzicht? Hoop je dat de prijs van de 3080 dan zakt of dat AMD iets goeds in huis gaat hebben? Kwestie van wilskracht, toch, jezelf even bedwingen? Mag niet moeilijk zijn. 😉
nou beide eigenlijk. en dan heb ik wat te kiezen :)
maar kan nu niet echt meer wachten, tot 17 september geen pc gebruiken is al een hell.

''ja ik kan niet meer wachten, heb mn nieuwe built staan zonder videokaart.
oude pc met videokaart anderhalve week geleden verkocht. O-)
Het Show je Build! Topic

[Reactie gewijzigd door sn3lders op 5 september 2020 15:12]

Haha, tja, dan heb je je wel in een hoekje gewerkt. Ik ga weer lekker gamen op mijn Switch, Vita, 3DS, DS of toch de Switch Lite. Handheld gamer, hier. 😉
haha lekker, over een week of twee/drie hoop ik weer te kunnen :9
Maar, je hebt je pc dus verkocht voordat er uberhaupt nieuwe kaarten zijn en je zegt dat je niet kunt wachten tot 17 september, terwijl de 30x0 serie dan ook nog niet uit is.
De 3080 is een bizarre vooruitgang qua performance vergeleken met de 2080.
Wel als je test op 4k in moderne games die de 2080 helemaal niet aan kan op 4k en dan niet sneller is als een 1080Ti, en soms zelfs langzamer. Ja, dan ziet de 3080 er in vergelijking heel goed uit.

Wat nvidia eigenlijk heeft gedaan is je max 80% meer performance geven op 4k voor de zelfde prijs als 2 generaties geleden. dat is slecht 35% per generatie. En met een 30% hoger verbruik.
Ik zie persoonlijk de achterstand alleen maar groter worden.
De enige manier waarop dat kan gebeuren is als AMD opnieuw alleen maar een kleine GPU gaat maken. maar dan hadden ze hem geen big navi genoemd.
Van de consoles weten we al de RDNA2 kan yielden, hoog kan klokken, en een redelijke verbruik heeft.
Dat denk ik persoonlijk ook. Verwacht de concurrentie op het midden segment.

3080 is wat mij betreft high end.
Ben benieuwd of ze kunnen concurreren met team groen.
ja, ik verwacht op het midden segment eigenlijk. Het zou me verbazen als ze ineens met een kaart komen die de 3090 gaat overtreffen.
Ik denk niet dat veel mensen zitten te wachten op kaarten van €1500+, dus een 3090 overtreffen is niet zo heel interessant. Maar ik denk eerder dat men heel benieuwd is naar wat AMD doet tov. de 3080 qua prestatie en prijs.
Haha, inderdaad. Ik zal niet eens zo snel €1500+ neerleggen voor een hele PC vandaag de dag. Ben wat dat betreft erg benieuwd wat middensegment gaat doen / kosten. Ik wil een 49 inch super ultrawide kopen met 5120x1440 resolutie, dus moet waarschijnlijk een upgrade van mijn huidige RX580 gaan doen om daar een beetje van te kunnen genieten :+ . Hoeft allemaal geen top of the line te zijn, maar op die resolutie zal hij het wel moeilijk gaan krijgen denk ik. Al even getest hier op eyefinity met 3840x1200, dat gaat nog redelijk, maar met nieuwere games niet bijster hard. Mijn PC steeg letterlijk op toen ik flight sim 2020 even opstartte. Wel prima te spelen verder, daar niet van, maar PC moest heel hard werken.
De enige reden die ik kan bedenken waar bignavi terecht komt is hoe groot zal de chip zijn. Kleiner gelijk of groter dan GA102.
Daarnaast de 350watt 320watt van de GA102. Zal AMD ook zover gaan of vinden zij 300Watt limiet zat ook dan zit er lagere goal in.
Het zou energie zuiniger zijn dan de voorganger.
Architectuur IPC nog onbekend.
Zal verrassing worden.
Als ik de 5700 XT en de 2060 en 2070 super vergelijk zie ik dat er vooral op prijs de concurrentie komt.

Vind mijn 5700XT niet krachtig genoeg (vr) dus hoop dat er een sterkere kaart voor een zacht prijsje komt. De echte powerhouse zal de 3090 zijn. Big navi gaat niet winnen.


Edit waarom meteen een -1?

[Reactie gewijzigd door tailfox op 5 september 2020 15:23]

Big navi gaat niet winnen.
Wist niet dat er een wedstrijd gaande was..?

Maar kun je even de resultaten delen van RDNA2 gezien je al weet hoe die gaat presteren?
Omdat de 3090 wel zeer veel power heeft en de geruchten bij big navi zijn dat het een 150 procent performance is vergeleken met de 5700XT

Dan kom je niet op de 3090.
Misschien moet je dan duidelijk zijn dat je alleen vergelijkt met een 3090. En niet met een 3070/380 en eventueel later de 3060.
De chip is 2x zo groot en een van een nieuwe generatie. Dan is hij echt niet maar 1,5x zo snel als de 5700XT. Want dat is wat je zegt met je 150%.
Maarja, AMD heeft dan nu wat beteft prijs ook geen tegenhanger van de 2080ti, en schijnbaar hebben ze de prijs al naar beneden moeten stellen omdat ze niet hadden verwacht dat de 30x0 serie zo'n vooruitgang was voor de introductieprijzen van de 20x0 generatie.
3070 is degene die je moet hebben prijs/kwaliteit wordt dat de beste
Hoe kan je dat nou weten, de nieuwe amd kaarten zijn nog weinig over bekend. AMD kennende zullen ze met modellen komen die voor net iets minder geld dezelfde of meer prestaties zullen leveren, is toch altijd zo geweest?
Nvidia maakt deze keer wel echt een sprong voorwaarts, ik moet nog zien of AMD 't kan bijbenen
Daarom, we moeten het inderdaad gaan zien, ik ben ook benieuwd, maar ik zie het niet gebeuren dat AMD een hogere prijs gaat vragen voor dezelfde of minder performance tegen Nvidia, dat zou gewoon dom zijn, dan kunnen ze beter nu de verlies nemen en geen of minder winst, hoger zitten dan Nvidia met prijzen voor zelfde performance zou veel meer schade aanrichten vcoor AMD.
Het is in iedergeval al dat volgens de geruchten AMD hun 'top' kaart met 50 euro naar beneden hebben moeten aanpassen want hier hadden ze niet op gerekent. Maar we zullen zien.
Volgens mij is al duidelijk dat de 3080 meer performance per euro gaat geven toch? :)
Weet je niet. Als er een big navi komt met ongeveer die specs kan de prijs mooi nog verder naar beneden.
voor 300 euro ipv 550 voor alike 3070 performance gaat dat wel lukken.
De mogelijke verwijzing naar de RX 6000-serie werd ontdekt door een streamer die MissGinaDarling heet. Zij plaatste een afbeelding van de melding . De vice president en general manager van AMD's Radeon-divisie de streamer vervolgens met de vondst van deze easter egg.
Noem mij achterdochtig, maar dit riekt toch wel naar vooropzet. Hoe groot is de kans dan een keurig opgemaakte dame met mooi gezicht dit twittert ipv een slonzige tienerjongen? Ik hoop natuurlijk dat gaming zo mainstream is geworden dat ik het misheb, maar ik heb mijn twijfels. Slim van AMD natuurlijk, daar niet van.
Ze wordt gesponsord door AMD, maar tijdens deze stream toonde ze haar sponsors niet.
Oh, dat is dus in veel gevallen helemaal niet toegestaan meer, met behoort transparant te zijn.. maar klopt hoor, is gewoon pure marketing, dat vrouwtje heeft het echt niet zelf gevonden, en zeker niet bij toeval.

[Reactie gewijzigd door SuperDre op 5 september 2020 21:02]

De mogelijke verwijzing naar de RX 6000-serie werd ontdekt door een streamer die MissGinaDarling heet. Zij plaatste een afbeelding van de melding op Twitter. De vice president en general manager van AMD's Radeon-divisie feliciteerde de streamer vervolgens met de vondst van deze easter egg.
En toevallig staat op haar profiel:
Powered by @AMDgaming
Moet echt een flinke zoektocht zijn geweest.

[Reactie gewijzigd door NotSoSteady op 5 september 2020 17:06]

Juust ja, is gewoon pure marketing, niets meer, niets minder..
Ik hoop dat AMD niet te lang wacht met de aankondiging en lancering van de RDNA2 videokaarten. Nvidia heeft deze week hun aankondiging en je ziet dat mensen al een beetje hyped worden, ook al zijn er nog geen onafhankelijke benchmarks beschikbaar. Ik moet toegeven dat ik ook een beetje in die bubbel zit, omdat mijn build enkel nog een videokaart, processor en moederbord nodig heeft. Als AMD te lang wacht, heeft Nvidia de komende maanden (bijna) vrij spel op de markt.

Zelf hoop ik eigenlijk op een aankondiging in september en een lancering in eind september of de eerste helft van oktober. Als AMD dit doet in combinatie met Zen 3, dan zou dit helemaal mooi zijn!
Nou ik niet. Doet mij denken aan de GTX480. De kroon meer performance maar een kachel. De refresh verbeterde dit. RTX30xx vermogen gaat duidelijk ver grenzen over.
Dat komt mee met manie voor bigchip taktiek klokken wilt wel maar de tdp gaat gretiger mee.
Het is dus wachten op AMD en of die bijna die performance kan evenaren met gelijk waardige TDP.
Als AMD onder de 300 watt blijft met performance bijna aan 3080 of er net over of rond.
Het kan daar dus ook twee kanten op bignavi kan met 300++ watt niet mee komen tegen 3080. Of bied 3080 performance met lagere TDP.
Gezien de verkrijgbaarheid rtx30 langzaam op gang komt dus met hoge introductie prijzen zou ik naast verkrijgbaarheid ook op custom versies wachten.
Ondertussen is er meer bekend van big navi. En de invloed daarvan op straatprijzen.
Ik heb m'n keuze ook nog niet helemaal gemaakt. Als AMD wat beters kan bieden wat echt in de buurt komt van de RTX 3080, dan overweeg ik het natuurlijk. Ik volg het nieuws van Big Navi ook op de voet, zover dat kan. Op een bepaald moment moet je gewoon een aankoop doen, anders blijf je wachten.
deze code schijnt ook wat te doen:

8651-9841-1639
https://nl.hardware.info/...ir-videokaart-in-fortnite
Het groene kamp gebruikte de game eerder om RTX Ray tracing te promoten. Mocht je zelf op zoek willen gaan naar de easter egg, schakel dan naar de creative mode en vul de volgende code in: 8651-9841-1639.
Ik zie dat sommige comments het best erg vinden als AMD wel met de 3070 en 3080 kunnen concurreren maar niet met de 3090.

Een heel kleine minderheid zal voor de 3090 gaan dus die is nog het minst relevant imo.
Vraag me voor mezelf ook af los van het geld wat de 3090 voor meerwaarde heeft t.o.v. 3080 op mijn 1440p 165hz paneel. ben benieuwd naar die benchmarks.

3090 kan je 8k gamen, maarja wie heeft er een 8k beeldscherm?
Wat ik zoal opvang van de verschillende tenten die zich met de 3090 bezig houden en theory-craften aan de hand van de verschenen details is de verwachting dat die kaart -net- niet goed genoeg is voor 8K 60FPS (want de hardware is niet daadwerkelijk 4x zo krachtig als de 3080, en dat is een vereiste).

De generatie er na. Maar goed, 1500 is toch te prijzig voor mij. Overigens verwacht ik niet dat AMD ook maar in de buurt van de 3090 gaat komen. De specs van de chips op de consoles lijken onder de 3070 te eindigen. Maar goed, misschien persen ze er nog meer uit want in een PC interesseerd de hitte niet zoveel als in een console. Dus wie weet, 3080. We zullen zien.

Maar AMD moet wel opschieten, want vanaf de 17e gaan ze verkopen verliezen aan NV.
Ik denk dat je er zeker vanuit mag gaan dat bignavi sneller is als de chips in consoles.
De consoles bevatten een apu, de kaarten voor pc een dedicated chip. Consoles moet het geheugen gedeeld met de cpu. En dan zijn er nog koelingen en tdp maars aan consoles.

Ik zeg niet dat big Navi beter gaat zijn als wat Nvidia nu presenteert, maar ik denk niet dat de performance te vergelijken gaat zijn met de chip in de consoles.

En maanden wachten zal wel meevallen, de consoles komen als ik me niet vergis in november, big Navi daarvoor.

Ik ben overigens wel een amdfanboy, Nvidia kaarten na m'n tnt2 hebben me niks dan ellende gegeven. Maar de bekende feiten geven nog geen reden om te denken dat AMD niks in te brengen heeft.
Mijn voorkeur gaat ook naar AMD en voor de RTX30 zijn de feiten grotendeels beschikbaar. Op de onafhankelijke reviews na. Van BigNavi is de enige harde feit dat het dit jaar er aan komt. Gezien de GPU merken op redelijk gelijke procede concureren kan je dat zien als constante. Een andere grote factor is hoe groot kiezen ze de chip die size. Hoe groter hoe groter en sterker de concurrentie naar de kroon.
Wie de kroon heeft is meer belangrijk voor de merken zelf als prestige investering. Wel genoeg oelewappers die low budged kopen van wie de kroon heeft.
Voor andere groep die prioriteit heeft aan top high-end at all cost is het relevant en dan doet die 350wat met OC al gauw 0.5KW ook niet toe.
Daarnaast als de bang for tha buck lineair zou zijn tussen 3080 en 3090 , zou het voor lange gebruiksduur nu top-end voor 5 jaar ook te overwegen zijn. Maar 2x prijs is de bang for tha buck van de 3090 tov 3080 niet zo goed. Als bignavi meer bied dan 3080 voor betere of zelfde bang for tha buck . Een € 800,- 3080+ bignavi tegenhanger voor de komende 5 a 7 jaar ipv bignavi €500,- voor 3 a 5 jaar. Is er ook groep high-end gebruikers die wel gevoelig zijn voor scheve prijs . En dus wel stapje terug doen.

Ja de igpu in console APU is grote igpu maar tov dgpu is middel grote en dgpu kunnen ze zoals nV laat zien helemaal wild gaan zie de pro GA100.
Bignavi dgpu kan zo 1,5 tot 3x size zijn van igpu ik ga uit van 2x

Ik ga 1st voor PS5 en pas begin 2021 voor RX6000 als Vega 56 upgrade


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True