Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD toont ontwerp van Radeon RX 6000-videokaart

AMD heeft een afbeelding van een videokaart uit de Radeon RX 6000-serie getoond. De kaart is voorzien van een heatsink met drie fans en heeft twee 8pins-aansluitingen. Zoals eerder aangegeven krijgen de referentiekaarten geen blower-koeler meer.

AMD heeft een render van een RX 6000-videokaart op Twitter gezet, nadat de kaart eerder op dinsdagavond in Fortnite was te zien. Spelers hebben daarvan screenshots geplaatst. Concrete details over de videokaart geeft AMD nog niet. Het gaat om een videokaart op basis van de RDNA 2-architectuur, die gpu-architectuur wordt ook gebruikt in de PlayStation 5 en de Xbox Series X.

Op die screenshots uit Fortnite is te zien dat de videokaart een usb-c-aansluiting krijgt. Scott Herkelman, topman van de Radeon-afdeling, bevestigt dat. Mogelijk is die bedoeld als VirtualLink-aansluiting, voor het koppelen van vr-headsets met één kabel. De VirtualLink-standaard lijkt echter opgeheven. Nvidia, een van de mede-oprichters, gebruikt de usb-c-poort niet meer op zijn RTX 3000-kaarten. De website van het consortium is niet meer dan een redirect naar Wikipedia.

De koeler is uitgerust met drie ventilatoren. AMD kiest niet meer voor een blower-ontwerp, zoals het bedrijf dat wel deed bij recente videokaarten, waaronder de RX 5000-serie. Begin dit jaar bevestigde AMD al dat de nieuwe kaarten geen blower-koeler meer zouden krijgen. Toen was ook al een teaser van het ontwerp te zien.

Vorige week maakte AMD bekend dat de officiële presentatie van de RX 6000-videokaarten op 28 oktober zal plaatsvinden. Vanaf wanneer de 'Big Navi'-kaarten in de winkels liggen, is nog niet bekend. In maart claimde AMD dat de prestaties per watt met 50 procent worden verbeterd ten opzichte van de huidige generatie Navi-videokaarten.

Door Julian Huijbregts

Nieuwsredacteur

14-09-2020 • 23:51

193 Linkedin

Reacties (193)

Wijzig sortering
Dit is puur marketing, wetend dat er woensdag reviews te voorschijn komen van de nieuwe generatie videokaarten van Nvidia. AMD probeert kopers te ontmoedigen om nu direct naar Nvidia over te stappen, met als verzoek om te wachten op hun aankondiging. Ik snap oprecht niet waarom AMD niet deze week met een presentatie online komt, als ze oprechts echt denken dat ze betere videokaarten hebben. Mijn gedachte is dat ze geen antwoord hebben op de nieuwe generatie kaarten en daarom heen haast hebben met het presenteren van hun nieuwe vlaggenschip en dat ze echt moeten hebben van de kopers die Nvidia kaarten te duur vinden.

[Reactie gewijzigd door Xieoxer op 15 september 2020 00:04]

Drivers die niet helemaal ready zijn. Wat is zo erg aan nog een 1,5 maandje wachten na 2 jaar gewacht te hebben op een nieuwe generatie? Waarom zou je uberhaupt gelijk een 3070 of 3080 kopen als je weet dat AMD met iets competetiefs zal komen en Nvidia zal erop gaan reageren met super versies van de 3070 en 3080...
Omdat de voorraad wellicht mager zal zijn en wellicht invloed gaat hebben op de prijzen. AMD heeft nog steeds last van driver problemen. Nvidia heeft leuke bestaande en nieuwe functies, bij AMD nog weinig bekend.

En wat voor mij voornamelijk speelt is dat je nu nog je huidige kaart voor een redelijke prijs kunt verkopen. Over 1.5 maand kun je dat vergeten. De marge die ik nu pak zal groter zijn dan de prijsverschillen over 1.5 maand. Of de prestaties moeten al enorm tegenvallen maar daar ga ik niet vanuit.

De supers waren maar 10% sneller en moest je een half jaar op wachten. Als je dan nog even een jaar wacht kun je een 4080 kopen voor $500. Je moet gewoon een keuze maken. Wachten is niet altijd de beste optie.
Ik weet niet waarom AMD de 3080 moet verslaan om goede kaarten te hebben. Als de custom kaarten van de 3080 €800 gaan kosten en ik een 6xxx kaart kan kopen die 80% daarvan doet voor €450 dan is het voor mij snel klaar.

De prestatie-kroon is heel leuk, maar 99% van de mensen koopt die niet. De "oude" 1x60 van NVIDIA is hun best verkochte product van het afgelopen jaar. Met een factor 5-10(!) tov van de 2xxx reeks. Daarna de 2060 en iets van 2% van de kaarten zit in de hoogste klasse.

Als AMD komt met een echte 1060/2060 "killer" dan doet dat NVIDIA meer pijn dan het verslaan van de 3080.

Fanboy kopen is dom. Je hebt een budget en je koopt daar de beste kaart bij. Met eventueel je voorkeur als tie-breaker als het dicht op elkaar zit.
Klant: Ik wil een NVidia kaart, want die is sneller dan die van AMD.
Verkoper: Ok dat is dan € 1599 voor een 2080 Ti
Klant: Nee ik heb maar € 500
Verkoper: Dan wordt het dus een AMD
Klant: Nee NVidia is sneller
Verkoper: Ok dan in plaats van een 5700XT wordt het een 2060 Super.
Klant: Gaaf
Verkoper: Helaas is die wel trager, maar dat is een keuze.
Nvidia lanceert hun kaarten nu op het 499 price point omdat Turing sales tegen vielen en om pc gamers ervan te ontmoedigen om een ps5 / series x te halen eind dit jaar. Zo blijft alles marketing :p :+
Als het echt zo slecht voor AMD is dan hadden ze allang de presentatie gehad. Ze zijn niet bang. Mensen moeten gewoon wachten om een "volwaardige" concurrent te kopen.

Ben zelf ook benieuwd.
Ik ben er ook een die oprecht vindt dat Nvidia kaarten te duur zijn. En niet omdat ik het geld er niet voor heb, maar wel wat ik ervoor terug kreeg. De laatste Nvidia-kaart waar ik echt mee tevreden ben geweest was de GTX 1070. Ik heb ook naast een RX 5700XT van XFX ook een RTX 2070 gehad een aantal maanden geleden. Raytracing heb ik geen moment de moeite waard gevonden. Ik heb gelukkig die RTX 2070 van de hand kunnen doen, want kwa performance vond ik het echt onderdoen voor de 5700XT, waar ik er nu twee van heb. En geen last van driver-issues die tot den treure worden aangehaald in dit soort posts. Alleen al om deze redenen wacht ik op waar AMD mee gaat komen, naast het feit dat ik Freesync met een AMD-kaart nog steeds stabieler vnd dan dat G-sync compatible gedoe. (En ja, het zal wel aan mijn "inferieure" monitor liggen dat niet op de VIP-list van Nvidia voorkomt en niet aan de "superieure" drivers van Nvidia)

[Reactie gewijzigd door conces op 15 september 2020 07:29]

Onzin. Ze willen nvidia gewoon zo min mogelijk tijd geven om te reageren. Hoe langer niemand iets weet hoe minder nvidia kan voorbereiden.

Daarnaast zijn ze nog niet klaar dus hebben ze nog niet eens de uiteindelijke performance cijfers om te presenteren zelfs al zouden ze het willen.

maar met wat ze nu weten, zoals 50% betere perf/watt (echte praktijk waarde van AMD, en niet de 90% onzin cijfers van nvidia) en dat de kaart een 8+8 aansluiting heeft zoals we hier kunnen zien, en daarmee een TDP van rond de 300 watt, kunnen we al een aardige schatting maken. en dan kom je al uit rond de 3080 met een lager verbruik.
En wat zat er in de huidige generatie consoles... Juist ook AMD.
want alle huidige informatie en de houding van AMD toont aan dat ze zeer waarschijnlijk minder goed presteren
over 'biggest navi' weten we nu alleen dat hij 50% betere perf/watt moet hebben, en omdat op deze render hij er met een 8+8 pin staat, een TDP van minimaal rond de 300 watt. Dat samen kom je al aan 3080 performance met een lager TDP.

en nee die perf/watt cijfers zijn niet zoals die onzin 90% van nvidia, AMD's vorige claim van 50% werd gewoon in de praktijk gehaald, reference kaart vs reference kaart.

En wat de houding van AMD betreft (wat dat ook precies mag betekenen) daar lezen mensen echt veel te veel in, en vooral wat ze zelf willen. Ten eerste is AMD nog niet klaar dus hebben ze nog niet eens final performance cijfers om te delen, en ten 2de willen ze nvidia zo min mogelijk tijd geven om te reageren. Hoe langer mensen niks weten hoe langer het zal duren voor nvidia kan reageren (als ze dat überhaupt kunnen deze generatie).

Daarbij, als AMD nu al wel veel lawaai zouden maken, zouden mensen toch alleen maar zeggen 'weer een poor volta'. Een aantal mensen hebben al besloten dus wat AMD wel of niet doet lijkt weinig uit te maken, ze zetten het toch wel naar hun hand om hun besluit te rechtvaardigen.

[Reactie gewijzigd door Countess op 15 september 2020 11:15]

Weet je wat ik nou niet snap, waarom het niet heel makkelijk te berekenen is hoe deze kaart gaat presteren.

De 5700XT bijvoorbeeld, gebruikt 240 watt, deze kaart gaat 50% extra performance per watt geven (dus met 240 watt, 50% sneller). Als deze kaart dus net zo snel wilt zijn als een 3080, dan moet deze kaart dus echt 300 watt of iets gaan gebruiken, dat wordt dus niet de zuinigste kaart, maar komt dan wel prima (en makkelijk) in de buurt van de 3080.

[Reactie gewijzigd door GoT.Typhoon op 15 september 2020 00:00]

Info over de stroomvoorziening:
6+6pin = max 225Watt
6+8pin = max 300Watt
8+8pin = max 375Watt

Op de 5700XT zit een 6+8 pin, en gebruikt volgens de spec 225Watt, waarschijnlijk was de 6+6 net te krap. Bovendien was er een een anniversary versie die 235Watt gebruikte.

De GPU van het plaatje heeft 2x 8pin, aan te nemen is dat deze dus toch minstens 300Watt gaat gebruiken dan.

Volgens de geruchten is er een i.p.v. de geclaimde prestatiewinst van 50% perf/watt meer richting 60% behaald. Ofwel verder rekenend met de gegeven van @P3TER_ (AMD rekende ook zo met hun prestatiewinst tussen 5700xt en Vega64 zie: https://www.hardwaretimes.../01/image-93-1536x599.png)
5700 @ 225W = 100%
6000 @ 225W = 160% *
6000 @ 300W = 213% **
3080 = 182% (iets lager denk ik zelf)
2080ti = 135% (mee eens)

* Dit getal zou aardig moeten kloppen
** Dit is lineair geschaald, dus zal ofwel de prestatie lager liggen, ofwel ze moeten nog meer dan 300Watt verbruik toelaten

Ofwel: waarschijnlijk kan AMD behoorlijk goed meekomen dit keer. Dit verklaard ook de 'lage' prijzen van nvidia.

[Reactie gewijzigd door mbr01 op 15 september 2020 00:27]

Info over de stroomvoorziening:
6+6pin = max 225Watt
6+8pin = max 300Watt
8+8pin = max 375Watt
Dat is wel inclusief 75 watt uit het pcie slot.

6 pin = 75 watt
8 pin = 150 watt
pcie slot = 75 watt
2 x 8 pin kan ook een esthetische reden hebben. Heb te veel kaarten gezien die je build verzieken met 6+8 pin.
Nou ze verzieken niet je build toch? Je hebt wel het nadeel dat die 1x2 pins los erbij hangt.
Koop toch liever bvb cablemod kabels waar een certificaat van compatibiliteit bij zit.

Als zo'n ali kabel niet gemaakt is volgens de juiste pinout of kabel dikte en iets schiet in brand of kortsluit dan sta je daar.

Zelfs goodkope kabels en opladers voor een gsm is not done bij mij.
Het is niet dat ze niet werken, het is voor als ze niet werken, kabels die niet voor een product gecertificeerd zijn bij een garantieclaim = weg garantie.

Bij corsair voedingen staat het zelfs in grote letters als ik me niet vergis.

Dus dat goedkoop kabeltje kan plots een heel duur kabeltje worden.

Corsair manual:

Do not modify the cables and/or connectors included with this power supply. If this power supply uses modular cables, use only manufacturer supplied cables. Other cables might not be compatible and could cause serious damage to your system and power supply.

[Reactie gewijzigd door SynthaxError op 15 september 2020 14:33]

Ik zou me bij SynthaxError willen voegen.
Pas heel erg op met die goedkope power-kabeltjes.
Cheapo molex connectors stonden erom bekend brand te veroorzaken.
Dan worden goedkope kabeltjes ineens heel duur.
Met signaalkabels kun je dit risico wat makkelijker nemen.
Mja bij kortsluiting van zo'n power kabel wil(de) het nog weleens gebeuren dat er een component in de voeding de pijp uit gaat. In het geval van een capacitor heb je dan een kamer vol witte rook, maar ik heb ook wel vernomen dat in sommige gevallen daar dan toch een korte steekvlam bij kwam kijken. Bijv. de klassieke ophoping van stof in de PSU dat al brandende eruit geblazen wordt; stof brandt echt fantastisch. In dat laatste geval hoop je dan maar dat je PC niet tegen een gordijn of je papieren behang aan staat.

Maargoed wel veel toeval enzo, en tegenwoordig wel iets betere beveiligingen.
Maar toch... ik ben altijd voorzichtig met alles wat met kracht te maken heeft.
Ook laag-voltage dingen zoals elektrische dekens en accu's.
Nadeel inderdaad, maar makkelijk op te lossen met een paar mooie extension kabels. Als je toch al zo met de looks van een build bezig bent, zijn zulke kabels mijns inziens sowieso al essentieel.
Performance per watt figures kun je op twee manieren bereiken: ofwel heeft de nieuwe architectuur voor dezelfde performance 50% minder vermogen nodig, ofwel levert de nieuwe architectuur 50% meer performance voor hetzelfde vermogen. Aangezien performance nooit lineair schaalt met vermogen doelen de fabrikanten doorgaans op de eerste variant, dus RDNA2 kan 5700XT performance halen voor 50% minder vermogen. De vraag is alleen of dat in dit geval met of zonder ray tracing meegenomen is...
Het is allemaal nog koffiedik wachten aangezien we van geen van de kampen betrouwbare benchmarks hebben en het bij de 6000 serie ook nog wel even 1.5-2 maanden gaat duren. Althans hoop ik dat AMD niet op 28 oct. aankondigt dat ze het pas volgend jaar uitbrengen want dat is echt te laat.
5700XT -> 2080 Ti = 135%
2080 Ti -> 3080 ≈ 135%
1.35 * 1.35 = 182%

240W RDNA2 is dus 150%
1.82 / 1.5 = 1.21
Dus deze kaart moet grof gezegd 240 * 1.21 = 291W zijn om gelijk te zijn aan een 3080.
Performance/watt schaalt nooit lineair.
Dat moet je echt uitleggen... Ik kan mij voorstellen dat er ergens een sweet-spot is, maar ik neem aan dat performance/watt gewoon om peak-performance gaat.

[Reactie gewijzigd door GoT.Typhoon op 15 september 2020 00:22]

Ben geen expert, verre van, maar goed.

Er is inderdaad een "sweet spot" voor alle hardware wat betreft stroom verbruik, de perfecte balans waar de prestaties inderdaad bijna gelijk staan aan het stroom dat gegeven word. Maar na dat punt word er meer en meer stroom verbruikt voor minimale prestatie verbetering.

Als voorbeeld moet je kijken naar de Radeon 290X. Die verbruikte behoorlijk wat stroom om aan het prestatie niveau te komen, dus daarnaast ook hitte, en geluid van de cooler. Een ouder voorbeeld is de GTX 480, dat was de eerste "hot 'n loud" meme. Deze kaarten werden ver buiten de sweet spot geduwd.

1 Watt staat nooit gelijk aan 1% prestatie verbetering. Er is veel dat onderweg naar de chip verloren gaat, en veel dat naar andere onderdelen gaat. Hoe verder de chip geduwd word om het laatste beetje prestaties er uit te halen, hoe meer stroom het ook nodig heeft om dat doel te bereiken. Het is een curve die steeds steiler omhoog loopt tegen over prestatie.

Hoop dat het iets geholpen heeft. :)

[Reactie gewijzigd door Galaxydj op 15 september 2020 06:11]

geforce fx 5800 was de oorspronkelijke meme voor zover ik weet. Verder heb je gelijk, kaarten hebben een hoger minimum gebruik afhankelijk van zaken als het proces van de die en de geheugen en vrm, boven de prestatie/verbruik sweetspot heb je steeds meer vermogen nodig voor dezelfde prestatieverhoging.
Ben geen expert, verre van, maar goed.
een expert had t wellicht technisch dieper onderlegd met berekeningen en termen waarvan geen leek begrijpt wat ie bedoelt. maar dit is duidelijk voor iedereen....kudo's

je ziet het ook erg goed terug in bv server cpu's. die liggen veel meer rond de sweetspot omdat verbruik/performance per watt met honderden/duizenden van deze cpu's erg veel uitmaakt als deze 24/7 draaien.

een epic bv heeft vaak een baseclock van maar rond de 2ghz, terwijl dit dezelfde chiplets zijn die in de desktop modellen vaak dubbel zo hoog zijn geclockt.
ik neem aan dat performance/watt gewoon om peak-performance gaat.
En zo werkt marketing dus. In deze Nvidia-slide zie je het precies gebeuren:
https://tweakers.net/i/Ha...vaz6rM=/i/2003833652.jpeg
1.9 x performance per watt op 60fps (+90%), maar op gelijk verbruik van 60 naar slechts 90 fps (+50%). Zeggen ze.

[Reactie gewijzigd door DataGhost op 15 september 2020 00:36]

De perf/watt graph van nvidia is pure marketing en slaat werkelijk nergens op. Als ik hun performance cijfers even voor waar aan neem een de TDP's gebruik kom ik nog niet aan de 15% hogere perf/watt.

AMD daarin tegen heeft de vorige 50% perf/watt verbetering uit de zelfde slide al in de praktijk laten zien. Ik ga er dus even vanuit dat ze de tweede 50% verbetering op de zelfde manier berekenen. En dan is het dus niet puur marketing maar iets dat gebruikers in de praktijk zullen ervaren.

[Reactie gewijzigd door Countess op 15 september 2020 12:28]

en mensen vergeten voor het dooie gemak dat er ook ngo eens IPC verbeteringen zijn bij een nieuwe architectuur en dat in het geval van de 3080 de GPU niet zoveel emer verbruikt maar het geheugen dat wel doet. Teveel variabelen.
IPC verbeteringen vallen toch gewoon binnen die verbeterde performance per watt, niet nogeens erbovenop?
Dat staat min of meer los van de performance per watt.

IPC

Performance Per Watt

De performance per watt toont aan hoeveel stroom er verbruikt word voor de berekeningen of cycle. Maar de IPC is de hoeveelheid instructies er gedaan worden per cycle of clock. Dit is waarschijnlijk niet helemaal on point maar het geeft een grof idee hoop ik.

Bijv; Neem een standaard processor, zet de clock speed vast op de stock waardes, en probeer het te undervolten. De een gaat het beter af dan de andere, maar vaak zal je dan minder watt verbruiken voor dezelfde prestaties. Je kan het ook andersom proberen. Zet de voltage vast en probeer een paar extra Mhz eruit te vissen. Meer cycles voor de zelfde wattage. Maar een cycle heeft een bepaalde instructie hoeveelheid die bepaald is door het design/architectuur van de ontwikkelaar.

Als iemand het beter weet hoor ik dat graag want de details zijn mij ook niet helemaal zuiver nog denk ik ;)
Hoe hoger de kloksnelheid, des te hoger moet de spanning zijn, en des te hoger wordt de stroom die uit je voeding gehaald wordt. Als je IPC omhoog gaat, heb je voor dezelfde berekening minder clockcycli nodig, en ben je dus sneller klaar, of kan de kloksnelheid en dus spanning/stroom omlaag. Netto effect in ieder geval is dat voor diezelfde berekening, je ineens minder energie hebt verbruikt.

Nuance, het is natuurlijk niet zo simpel als "2x zoveel IPC, dus 2x zo weinig stroomverbruik." IPC wordt doorgaans verhoogd door pipelines toe te voegen, meerdere execution units toe te voegen, etc. Dat zijn toch extra transistoren die energie kosten. Het ding is alleen dat het schakelen van de transistoren stroom vreet, en het verhogen van de spanning versterkt dat effect ook nog eens. Het is dus helemaal niet zo aantrekkelijk om hoge kloksnelheden te hebben. De extra transistoren die toegevoegd worden om de IPC te verhogen, zullen dus altijd minder vermogen moeten vragen dan het kost om diezelfde performance te halen met simpelweg kloksnelheid verhogen.

[Reactie gewijzigd door CykoByte op 15 september 2020 07:49]

Nou nee IPC is win als er techniek toepast die efficienter met task omgaat.
Als int32 task niet fp32 blocked binnen SM dan houd in dat IPC stijgt maar fp32 unit zijn actief dus IPC is hoger maar gaan dus ook meer verstoken.
Er worden dus transistoren budged wordt nu veel beter concurrent benut dit houd in meer transistoren zijn gelijktijdig actiever dus meer vermogen verbruik.
Andere verbeteringen is dat units vetter uitgebouwed worden dus zijn krachtiger kwa ipc maar meer transistoren meer vermogen.
Grotere caches extra transistoren meer vermogen.
De dieshrink moet dus die extra transistoren compenseren.
Maar dat is ook niet lineair die shrink geef je meer transistor budged en hogere klokken als je voor beide gaat is de maximale winst ook met meer TDP
De reden dan Chips 30 jaar terug passief gekoel waren nu zwaar koelblok nodig hebben.
Toen 200watt voeding genoeg is en nu 750watt.
Kan prima door meer cores toe te voegen. Clocksnelheid en voltage verhogen maakt dat er niet meer lineair geschaald wordt.
Buiten dat het niet 1:1 schaalt is dit ook een andere architectuur als ik me niet vergis. Dan zegt het dus niets.
Nice, dat is een top berekening! :) Dat zijn hele mooie resultaten dan, want de 3080 heeft al een TDP van 320, dus het zou dan simpelweg heel dichtbij elkaar liggen. :)
Omdat er nog helemaal niks bekend over is, dit ongetwijfeld (net als bij NVidia) gebaseerd is op een bepaalde benchmark en het nog maar helemaal de vraag is wat ze ermee bedoelen. Stel je voor dat de 5700XT 100 performance heeft op 100 watt, dus 1 performance/watt. De nieuwe kaart heeft dan 1.5 performance per watt. Echter, dit kan je bereiken met 150 performance op 100 watt (hier hoopt iedereen op), maar ook met 100 performance op 67 watt. Ook hoopt iedereen dat het een constante is maar dat is helemaal niet gezegd. De marketingboys zijn ook niet gek, dan hadden ze gewoon 50% meer performance gezegd en het "per watt" weggelaten. Met de 100/67 kan het best zo zijn dat het ook 110/100 is dus dan is de kaart eigenlijk maar 10% sneller (op max performance) met wel 50% performance/watt verbetering. Dat geldt overigens net zo hard voor NVidia en dat kan je zelfs in hun marketing-slides (want dat zijn het, marketing-slides) bekijken. En dan is nog maar de vraag naar welke workload/game is gekeken. Pas als de benchmarks er zijn kan je de performancewinst in de praktijk zien.
Hoewel je gelijk hebt in je punt is het erg onwaarschijnlijk wat je zegt.
50% meer performance per watt had ook gekund door de 5700xt te undervolten en underclocken.
Ik rekende met fictieve getallen om een ander punt te maken. Zeg anders 120/175 als je die +75W zo graag wilt zien :P.
Don't get me wrong, ik heb zelf een 5700XT, ik kijk uit naar de 6000-serie en ik wil dat die zo goed mogelijk zijn voor een competetieve prijs, maar zo ongeveer elke voorgaande release van AMD, Nvidia, Intel, noem maar op, gaan gepaard met marketing-"benchmarks" die op meerdere manieren uit te leggen zijn, waar altijd het gunstigste plaatje uit gepakt wordt en waar het liefst claims gedaan worden die waar zijn, maar iets heel anders insinueren dan wat er werkelijk aan de hand is. Natuurlijk kan het best zo zijn dat de 6000-serie straks op 225W 50% performancewinst heeft over de 5700XT en daarna zelfs nog doorkan tot 300W, maar dat neem ik nog even met een korreltje zout totdat de benchmarks er zijn. Het bekt namelijk veel beter om te zeggen dat 'ie 66% beter presteert, dus dan lijkt me dat ze dat wel gedaan zouden hebben. In de klasse van high-end videokaarten zijn er maar erg weinig mensen die het ook maar een flying fuck boeit hoeveel vermogen dat ding verstookt, die willen gewoon rauwe FPS, dus dat vind ik in die klasse een vreemde metric om mee te adverteren.
50% performance per watt zegt niet zoveel als je niet weet bij welke clocks dit is.
NVIDIA claimed ook 1.9x tenopzichte van Turing, maar daar klopt natuurlijk niks van als je bekijkt dat de RTX 3080 een TDP heeft van 320W. Ter vergelijking, de RTX 2080 heeft een TDP van 215W.
Zelfs als bij de 3080 een groot deel komt door het gebruik van GDDR6X kun je als nog vrij weinig zeggen hoe een nieuwe GPU gaat zijn op basis van TDP.

[Reactie gewijzigd door DoubleYouPee op 15 september 2020 00:33]

Kloks zijn al onderdeel van het performance deel van perf/watt.

En de vorige claim van 50%, uit de zelfde slide, heeft AMD al in de praktijk laten zien, ref clock VS ref clock. Lijkt me heel sterk dat ze 2 verschillende betekening gebruiken voor het zelfde in de zelfde slide.

Het zou me niet verbazen als nvidia die extreem misleidende perf/watt vergelijking bewust erin heeft gestopt zodat mensen AMD's claim in twijfel gaan trekken.

[Reactie gewijzigd door Countess op 15 september 2020 10:39]

Een rtx 3080 heeft ook een rated tdp van 320w..
Performance per watt berekent de efficientie niet de snelheid. Oftewel RDNA2 is 50% efficienter in het draaien van 60 fps in game x vs RDNA1. Dat wil niet zeggen dat RDNA2 50% sneller is. Nvidia claimed 90% performance per watt maar is zeker niet 90% sneller dan de vorige generatie.

Het is meer een marketingpraatje.

Daarnaast lopen de reference kaarten van de 3080 tegen een powerlimiet aan van 320w. Volgens geruchten hebben de non-reference borden geen powerlimit en kunnen al richting de 370w gaan. Dat wil niet per definitie zeggen dat er meer performance uit komt. Maar goed om rekening mee te houden. Daarnaast zijn de drivers ook nog niet optimaal en kan zeker op lange termijn nog eens 10% performance schelen. Valt weinig over te zeggen dus.
Wat ik mij persoonlijk afvraag is waarom moet de kaart concurreren met de 3080 of 3090 ? Natuurlijk zijn dat de nieuwe kaarten van NVIDIA, maar is de markt niet veel groter voor de 3070 of eventueel 3060 ? Als ik producent was zou ik toch ook zoveel mogelijk willen verkopen. Dus misschien eerst de main stream markt voorzien en daarna de high end ? Dus zou ik het logischer vinden als ze zich daarop focussen.

Persoonlijk heb ik liever een kaart die met minder vermogen (waarschijnlijk ook koeler) die goede resultaten haalt. Maar goed ik ben dan misschien niet de standaard gamer en heb altijd gezocht naar een kaart met de beste prijs/prestatie verhouding.

Het zijn in ieder geval mooie tijden als consument, natuurlijk je moet even geduld hebben. Maar er is genoeg keuze :)
De 3080 is ook niet zuinig, snap niet waarom ze altijd maar de snelste moeten zijn.
Heb liever een zuinige kaart, de kamer is al zo warm.

[Reactie gewijzigd door Flooperke op 15 september 2020 07:08]

Over 6 tot 12 maanden komen kaarten zoals de 3050's en 3060's, geen zorgen.
Ik hoop het, ik zit allemaal te wachten voor een snelle low power vervanger voor mijn 1050ti voor aan de tv in men mini pc komen ze weer met 250+ watt kaarten aan kakken.
Ik allemaal denken dat we goed voor het milieu moeten zijn.
800w psu is niets meer tegenwoordig.
Hoe lang zou het duren voordat er een "korte" videokaart van Big Navi komt? Zo'n lange kaart past niet in mijn Kolink Rocket Mini-ITC kast.

[Reactie gewijzigd door Redsandro op 15 september 2020 00:00]

Ik heb het idee dat de mini PC’s te niet worden gedaan met de nieuwe generatie van GPU’s. Ze zijn tot nu toe erg groot en zeker met de koeling ziet het er niet uit dat het snel gaat gebeuren.

Laptops hebben vaak het voordeel dat ze custom koeling hebben van de producent (HP, Razer, Asus, enz) en Max-Q natuurlijk.
Ik heb sinds kort een NR200, daar past nog best wat airflow in dus die zal nog gaan. Maar ik denk dat het daar ergens ook wel ophoudt. En eigenlijk heb je dan alsnog een klein towertje. Niet een machine die je echt zo even oppakt en in je rugzak duwt.

Voorheen had ik een Kolink Satellite, en daarin was een 200W GPU al niet meer te doen. Ik had daarvoor nog speciaal een blower style koeler gekocht.

[Reactie gewijzigd door Amanoo op 15 september 2020 03:23]

Tja, de trend is volgens mij aan langer dat, terwijl de performance per watt omlaag gaat, het verbruik van de top-GPUs toch elke generatie groter wordt. Dus inderdaad voor kleine PCs wordt het steeds lastiger om zo'n top GPU te installeren. Aan de andere kant kan je met een middensegment GPU toch steeds betere prestaties krijgen bij hetzelfde verbruik.
31 cm is echt niet klein hoor! Reken maar dat er varianten komen <28.
Ik vind het toch wel jammer dat blower-stijl kaarten toch wat minder lijken te worden. Ik heb momenteel een blower-style. Expres gekocht vanwege mijn mITX behuizing, omdat airflow niet echt goed gaat in die kast.
zelfde, in mijn phanteks shift behuizing werken eigenlijk alleen lange blower kaarten met goed fatsoen. Dus vindt het jammer dat ze geen verbeterd blower ontwerp proberen. Misschien dat ze het nog voor een low end model doen.
Met een beetje mazzel komt MSI met een nieuwe Aero kaart (blower style).
Bij nvidia waren er altijd wel een paar blower style koolers van AIB partners. Dat zou bij AMD dus ook wel het geval gaan zijn. Moet je misschien alleen iets langer op wachten.

Voor de meeste mensen is niet een blower style koeler een betere optie, vanwege lagere temperaturen en minder lawaai.
Ze moeten toch echt met een benchmark komen willen ze 3080 kopers gaan tegenhouden. Het gerucht is dat Big Navi tussen de 3070 en 3080 uit komt.
Waarschijnlijk 16GB en prijs/prestatie goedkoper. Echter, zonder DLSS, minder goede drivers en RT performance is nog onduidelijk. Daar komt nog bij de Nvidia's prijzen wel eens omhoog kunnen gaan vanwege populariteit en/of miners.
Hoe DLSS gepresenteerd word mag je ook wel met een berg zout nemen. Native 4k ziet er bij verre niet zo slecht uit als dat zij voordoen.
Nou, Nvidia zou het inderdaad wel wat overdreven hebben gepresenteerd. Ik baseer mijn mening meer op digital Foundry die enthousiast waren over dlss 2.0 in Control en Death Stranding. Hoewel ik gisteren ook een goede video heb gezien over dlss 2.0 in andere games met flinke closeups ter vergelijking: https://youtu.be/eS1vQ8JtbdM
Ik zit op een 4k 40" monitor en kan de extra dlss 2.0 performance goed gebruiken. Vooral met raytracing.
Dat zeggen de meeste mensen die het nooit zelf gebruikt hebben. Ik was er ook een van, tot ik het zelf eens kon proberen en nu snap ik niet waarom er geen grotere marketing omheen hangt. Het is wat mij betreft magic.
Een beetje classy, maar niet onaardig.

De 3 fans doen mij vermoeden dat deze kaart ook wel de 300W gaat aantikken of daar in ieder geval dicht bij in de buurt komt. En voor mensen die wachten op een 3080 alternatief is dat goed nieuws. 50% betere performance per watt, dus als het tgp ook nog aardig omhoog gaat, heb je een beest van een kaart.
De 3 fans doen mij vermoeden dat deze kaart ook wel de 300W gaat aantikken of daar in ieder geval dicht bij in de buurt komt.
Anders de 8+8 pin wel.
Dat doe je niet als je niet minimaal rond de 300 watt zit. (als je beduidend lager zit is 6+8 ook genoeg namelijk)
De design lijkt op iets wat Sapphire wel zou maken. Klein vermoeden dat ze een handje hebben geholpen.
Sapphire maakt eigenlijk altijd AMD's reference designs, dus dat is niet een hele riskante gok zeg maar.
Ik vraag me af hoe deze kaarten zich gaan houden kwa temparatuur. De huidige generatie kan makkelijk boven de 80 graden uitkomen. Ookal beweert AMD dat dat prima temp's zijn om een gpu te runnen vind ik het nog steeds te warm .
hotspot vs gemiddelde.

AMD's 5700XT word niet beduidend warmer als nvidia's tegenhangers, maar AMD geeft je wel de hotspot (tjunction) temperatuur en nvidia alleen de edge temps. nvidia heeft gewoon die zelfde hoge hotspot temperaturen, ze durven ze alleen niet aan gebruikers te tonen.

Heel jammer dat AMD word afgestraft voor het geven van meer informatie.

[Reactie gewijzigd door Countess op 15 september 2020 12:21]

Mooi! Ik ben geen fan van Nvidia als bedrijf zijnde, met dat hele GPP en geen freesync gebeuren. Niet echt klantvriendelijk. Ze beginnen een beetje op Apple te lijken. Ja, ondertussen is GPP weg en ondersteunt het freesync, maar ik ben voorlopig klaar mee. :9
Kijk er naar uit met wat AMD op de proppen komt :)
Voor Turing weigerde iNvidia gsync te activeren op schermen die niet hun (dure) hardware gebruikte (dus alle freesync schermen ook). Na jaren te weigeren is het standpunt veranderd om weer een mes te steken in de competitie.
Gsync hardware in een scherm is wel een stuk anders dan freesync op gsync compatible. Meestal is de range veel groter op gsync, en kan nvidia bijv ook backlight strobing gebruiken bij variable refresh rate. Mijn huidige gsync compatible scherm is maar 60hz tot 240hz variable, terwijl mijn vorige met een module van 1hz tot 144hz kon.
Eindelijk geen blowers meer. Hopelijk is deze beter dan bij de Radeon VII en hoeven we niet per se te wachten op derde partijen.

[Reactie gewijzigd door DoubleYouPee op 15 september 2020 00:08]


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True