Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD toont ontwerp van Radeon RX 6000-videokaart

AMD heeft een afbeelding van een videokaart uit de Radeon RX 6000-serie getoond. De kaart is voorzien van een heatsink met drie fans en heeft twee 8pins-aansluitingen. Zoals eerder aangegeven krijgen de referentiekaarten geen blower-koeler meer.

AMD heeft een render van een RX 6000-videokaart op Twitter gezet, nadat de kaart eerder op dinsdagavond in Fortnite was te zien. Spelers hebben daarvan screenshots geplaatst. Concrete details over de videokaart geeft AMD nog niet. Het gaat om een videokaart op basis van de RDNA 2-architectuur, die gpu-architectuur wordt ook gebruikt in de PlayStation 5 en de Xbox Series X.

Op die screenshots uit Fortnite is te zien dat de videokaart een usb-c-aansluiting krijgt. Scott Herkelman, topman van de Radeon-afdeling, bevestigt dat. Mogelijk is die bedoeld als VirtualLink-aansluiting, voor het koppelen van vr-headsets met één kabel. De VirtualLink-standaard lijkt echter opgeheven. Nvidia, een van de mede-oprichters, gebruikt de usb-c-poort niet meer op zijn RTX 3000-kaarten. De website van het consortium is niet meer dan een redirect naar Wikipedia.

De koeler is uitgerust met drie ventilatoren. AMD kiest niet meer voor een blower-ontwerp, zoals het bedrijf dat wel deed bij recente videokaarten, waaronder de RX 5000-serie. Begin dit jaar bevestigde AMD al dat de nieuwe kaarten geen blower-koeler meer zouden krijgen. Toen was ook al een teaser van het ontwerp te zien.

Vorige week maakte AMD bekend dat de officiële presentatie van de RX 6000-videokaarten op 28 oktober zal plaatsvinden. Vanaf wanneer de 'Big Navi'-kaarten in de winkels liggen, is nog niet bekend. In maart claimde AMD dat de prestaties per watt met 50 procent worden verbeterd ten opzichte van de huidige generatie Navi-videokaarten.

Door Julian Huijbregts

Nieuwsredacteur

14-09-2020 • 23:51

193 Linkedin

Reacties (193)

Wijzig sortering
Dit is puur marketing, wetend dat er woensdag reviews te voorschijn komen van de nieuwe generatie videokaarten van Nvidia. AMD probeert kopers te ontmoedigen om nu direct naar Nvidia over te stappen, met als verzoek om te wachten op hun aankondiging. Ik snap oprecht niet waarom AMD niet deze week met een presentatie online komt, als ze oprechts echt denken dat ze betere videokaarten hebben. Mijn gedachte is dat ze geen antwoord hebben op de nieuwe generatie kaarten en daarom heen haast hebben met het presenteren van hun nieuwe vlaggenschip en dat ze echt moeten hebben van de kopers die Nvidia kaarten te duur vinden.

[Reactie gewijzigd door Xieoxer op 15 september 2020 00:04]

Drivers die niet helemaal ready zijn. Wat is zo erg aan nog een 1,5 maandje wachten na 2 jaar gewacht te hebben op een nieuwe generatie? Waarom zou je uberhaupt gelijk een 3070 of 3080 kopen als je weet dat AMD met iets competetiefs zal komen en Nvidia zal erop gaan reageren met super versies van de 3070 en 3080...
Omdat de voorraad wellicht mager zal zijn en wellicht invloed gaat hebben op de prijzen. AMD heeft nog steeds last van driver problemen. Nvidia heeft leuke bestaande en nieuwe functies, bij AMD nog weinig bekend.

En wat voor mij voornamelijk speelt is dat je nu nog je huidige kaart voor een redelijke prijs kunt verkopen. Over 1.5 maand kun je dat vergeten. De marge die ik nu pak zal groter zijn dan de prijsverschillen over 1.5 maand. Of de prestaties moeten al enorm tegenvallen maar daar ga ik niet vanuit.

De supers waren maar 10% sneller en moest je een half jaar op wachten. Als je dan nog even een jaar wacht kun je een 4080 kopen voor $500. Je moet gewoon een keuze maken. Wachten is niet altijd de beste optie.
Dat is het m dus juist. De supers zullen er nu veel sneller sankomen om te kunnen resgeren op wat AMD op tafel brengt.
Zal afhankelijk zijn van wat AMD op tafel brengt. Als AMD toch een stuk minder prestaties heeft is er geen noodzaak om een super uit te brengen. De vraag is of je daar op gaat gokken (door te wachten) of pak je nu je winst. Ik denk ook niet mocht er wel een super komen dat ze deze voor hetzelfde geld gaan aanbieding als de 3080 binnen 1.5 maand tijd. Maar goed aannames, we zullen zien :)
Idd, is al bekend dat deze super/ti kaarten bestaan. 16gb 3070 en 20gb 3080. Als AMD competetief is en vooral voor lagere prijs zullen de supers/ti’s zelfde prijs hebben als de reguliere ampere kaarten denk ik. Ik heb veel interesse in een 3080 maar ik weet dat ik me echt rot zou voelen als binnen een paar maanden een super/ti versie uitkomt voor niet veel meer geld. We shall see
Dat betwijfels ik ten zeerste. Supers / refreshes komen doorgaans na ongeveer een jaartje als het productieproces beter loopt, de yields beter zijn en er net iets meer uit de chips te persen valt. Not all silicon is created equal en aangezien de geadverteerde specs gehaald moeten worden, zit je altijd aan de onderkant. Als je na verloop van tijd de onderkant van de specs hoger hebt liggen, is het de tijd voor een refresh; je kan de belofte van een 10% sneller waarmaken en je kan weer iets "nieuws" leveren terwijl je hetzelfde doet tegen dezelfde of inmiddels lagere kosten.

Als er snel gereageerd moet worden op de concurent, zal eerder de prijs naar beneden bijgesteld worden waar dat nodig is.
Voordat 3000 series was aangekondigd wist men al dat er een 20gb kaart uit zou komen , dat wordr dus de 3080 super
Heb je daar een bron voor? De afgelopen weken / maanden was vooral geruchten in het nieuws.
Als in de zelfde leaks de 24gb kaart en 10gb kaart naar voren is gekomen is het toch niet raar om te denken dat de andere kaarten ook bestaan?
1,5 maand wachten? Wie zegt dat je 1,5 maand moet wachten.... Je kunt helemaal geen Nvidia kaarten kopen hoor. En misschien weet amd dat de voorraad van de 3000 series zeer matig is. Iedereen denkt dat de komende 1,5 maand iedereen een nvidia kaart gaat kopen en dat amd achter het net vist. maar er is een grote kans dat het nog wel 2-3 maand duurt voordat de 3000 series kaarten uberhaubt op voorraad zijn.
Heb zelf een paar 5700 XTs gezien. En oh boi, de hoeveelheid driver problemen die ik daarmee heb meegemaakt, zou me durven weghouden van AMD GPUs als ik geen hackintosh wou draaien...

Neen echt, de 5700XT in windows was een regelrechte ramp, black screens, white screens, bepaalde settings die zichzelf aanzetten, ... en ik kan blijven doorgaan.

Ik weet dat de drivers ondertussen "min of meer" al beter zijn, maar als ik een 400 / 500 / 600 euro GPU koop wil ik deze niet 2 maanden laten stof vangen voor ze belissen een deftig driver te gaan uitbrengen...
Ik weet niet waarom AMD de 3080 moet verslaan om goede kaarten te hebben. Als de custom kaarten van de 3080 €800 gaan kosten en ik een 6xxx kaart kan kopen die 80% daarvan doet voor €450 dan is het voor mij snel klaar.

De prestatie-kroon is heel leuk, maar 99% van de mensen koopt die niet. De "oude" 1x60 van NVIDIA is hun best verkochte product van het afgelopen jaar. Met een factor 5-10(!) tov van de 2xxx reeks. Daarna de 2060 en iets van 2% van de kaarten zit in de hoogste klasse.

Als AMD komt met een echte 1060/2060 "killer" dan doet dat NVIDIA meer pijn dan het verslaan van de 3080.

Fanboy kopen is dom. Je hebt een budget en je koopt daar de beste kaart bij. Met eventueel je voorkeur als tie-breaker als het dicht op elkaar zit.
Klant: Ik wil een NVidia kaart, want die is sneller dan die van AMD.
Verkoper: Ok dat is dan € 1599 voor een 2080 Ti
Klant: Nee ik heb maar € 500
Verkoper: Dan wordt het dus een AMD
Klant: Nee NVidia is sneller
Verkoper: Ok dan in plaats van een 5700XT wordt het een 2060 Super.
Klant: Gaaf
Verkoper: Helaas is die wel trager, maar dat is een keuze.
eh ja? Als je je niet laat informeren gaat niets je helpen. Maar het is heel gevaarlijk om je succes van je bedrijf daar aan op te hangen.

Intel zit in dezelfde situatie. hoop mensen blijven braaf intel kopen, maar langzaamaan begint de omslag te komen dat intel "te duur is". AMD hoeft maar een paar jaar de kroon in handen te hebben in het juiste segment en je zit met hetzelfde probleem.

Niet dat ik NVIDIA speciaal iets slechts toewens oid. Het doodstaren op de snelste kaart is iets fragiels. Iedereen kan een opinie hebben over Mercedes vs Porsche vs Ferrari, maar rijden lekker zelf gewoon in een volkswagen of toyota.
Het is gewoon de marketing. Mensen lezen: Nvidia heeft snelste kaart.... Dat is het probleem een beetje voor AMD.
Nvidia lanceert hun kaarten nu op het 499 price point omdat Turing sales tegen vielen en om pc gamers ervan te ontmoedigen om een ps5 / series x te halen eind dit jaar. Zo blijft alles marketing :p :+
Dezelfde prijs als turing dus.
Die FE van 499 ga je gewoon niet krijgen en de kaarten van anderen worden gewoon flink duurder.
Of ze weten dat ze nu omlaag moeten omdat AMD een antwoord heeft op de 3070 en 3080. Op de 3090 misschien niet. Maar daarom is die kaart ook 1499 eurotjes.
Dat kan zeker een rol spelen. Dit was ook de reden dat de 1080ti zo'n idioot fantastische kaart was voor een relatief lage prijs, omdat de geruchten waren dat AMD met een relatief goedkoop antwoord zou komen. Helaas bleek daar niet veel van waar, maar toen had Nvidia de 1080ti al gereleased :+
Als het echt zo slecht voor AMD is dan hadden ze allang de presentatie gehad. Ze zijn niet bang. Mensen moeten gewoon wachten om een "volwaardige" concurrent te kopen.

Ben zelf ook benieuwd.
Ze zijn bij AMD gewoon nog niet klaar, er is gewoon geen andere reden om te wachten tot nadat je grote concurrent zijn kaarten al leverbaar heeft. Dat scheelt per definitie omzet voor AMD.
Als je kaarten klaar zijn en je bent er van overtuigd dat je beter bent dan de concurrentie ga je niet opzettelijk een paar maanden later zijn. Of je bent niet klaar, of je bent er niet van overtuigd dat je beter bent dan de concurrentie, dan wil je juist niet presenteren want dan geef je de concurrentie nog een extra boost.
Ik ben er ook een die oprecht vindt dat Nvidia kaarten te duur zijn. En niet omdat ik het geld er niet voor heb, maar wel wat ik ervoor terug kreeg. De laatste Nvidia-kaart waar ik echt mee tevreden ben geweest was de GTX 1070. Ik heb ook naast een RX 5700XT van XFX ook een RTX 2070 gehad een aantal maanden geleden. Raytracing heb ik geen moment de moeite waard gevonden. Ik heb gelukkig die RTX 2070 van de hand kunnen doen, want kwa performance vond ik het echt onderdoen voor de 5700XT, waar ik er nu twee van heb. En geen last van driver-issues die tot den treure worden aangehaald in dit soort posts. Alleen al om deze redenen wacht ik op waar AMD mee gaat komen, naast het feit dat ik Freesync met een AMD-kaart nog steeds stabieler vnd dan dat G-sync compatible gedoe. (En ja, het zal wel aan mijn "inferieure" monitor liggen dat niet op de VIP-list van Nvidia voorkomt en niet aan de "superieure" drivers van Nvidia)

[Reactie gewijzigd door conces op 15 september 2020 07:29]

Lijkt me ook. Als AMD's kaarten sneller zijn dan de 3080 laten ze dat echt wel voor de 17e weten. Dat ze dat niet doen betekent simpelweg dat ze de 3080 niet bijhouden.
Onzin. Ze willen nvidia gewoon zo min mogelijk tijd geven om te reageren. Hoe langer niemand iets weet hoe minder nvidia kan voorbereiden.

Daarnaast zijn ze nog niet klaar dus hebben ze nog niet eens de uiteindelijke performance cijfers om te presenteren zelfs al zouden ze het willen.

maar met wat ze nu weten, zoals 50% betere perf/watt (echte praktijk waarde van AMD, en niet de 90% onzin cijfers van nvidia) en dat de kaart een 8+8 aansluiting heeft zoals we hier kunnen zien, en daarmee een TDP van rond de 300 watt, kunnen we al een aardige schatting maken. en dan kom je al uit rond de 3080 met een lager verbruik.
Performance per watt is leuk maar de rx480 werd ook neergezet als 50% meer performance per watt. En van een stroom plugje ga ik geen framerates proberen. bij elkaar te toveren.

Amd heeft officieel nog niets concreet gezegd en de enige rede die ik kan bedenken is omdat ze geen directe concurrent hebben. Als ze die hadden is het in hun eigen voordeel om nu met cijfers te komen en zo degene die met het vingertje boven de bestel knop aan het zweven zijn overtuigen te wachten.

Wat ze nu doen is teasen om aandacht te houden, mogelijk eem paar mensen geïnteresseerd te houden. Maar als het puntje op paaltje komt hopen ze degene die de 3000 boot gemist hebben net aan te overtuigen toch maar een 6000 kaart te kopen.

Na de laatste keren vertrouw ik amd marketing niet meer.Met hun driver geschiedenis zou ik ook liever geen early adopter van ze willen zijn. Dus tot nu toe zweeft mijn vingertje boven die bestel knop van de 3000 serie
Performance per watt is leuk maar de rx480 werd ook neergezet als 50% meer performance per watt.
bron? Ik kan hier niks over vinden behalve wat onzinnig geruchten van 3 maanden na de launch dat AMD dat achteraf ging verkrijgen met bios aanpassingen ofzo.

De eerste 50% perf/watt verbetering uit hun slide heeft AMD gewoon geleverd, in de praktijk, en de TSMC 7nm node kan heel zuinig zijn (bewijst AMD's eigen Ryzen) dus ik ze geen reden om zwaar te twijfelen aan AMD's claims hier.

En AMD zal echt niet voor de lol 2x8pins op de kaart stoppen.
Amd heeft officieel nog niets concreet gezegd en de enige rede die ik kan bedenken is omdat ze geen directe concurrent hebben.
Ik kan anders meerdere redenen bedenken.

Als was het maar om te voorkomen dat nvidia opnieuw 2 dagen na de launch van hun nieuwe GPU al een 'super' lanceert die nipt sneller is zoals met de 5700xt.
Als ze die hadden is het in hun eigen voordeel om nu met cijfers te komen
Moeten ze die cijfers wel al hebben. Aangezien ze nog niet klaar zijn hebben ze nog geen definitieve cijfers.

en even de echte benchmarks afwachten ipv nvidia's cherrypicked en misleidende voorbeelden* proberen af te troeven lijkt me ook geen slecht idee voor AMD.

(*zoals digital foundries alleen laten vergelijken met een 2080 op 4k in games waarbij die 2080 zwaar bottlenecked is door de gebruikte resolutie en settings)
Na de laatste keren vertrouw ik amd marketing niet meer.Met hun driver geschiedenis zou ik ook liever geen early adopter van ze willen zijn.
Wat hebben ze niet waar gemaakt van hun 5700xt beloftes dan? En zelf heb ik 0 driver problemen gehad, vriend van me ook niet (beide wel problemen met moederborden die dachten PCIe 4.0 aan te kunnen of andere PCIe compatabilty problemen, opgelost met een moederbord bios... zou zo maar kunnen dat nvidia daar nu ook tegenaan gaat lopen)
Dus tot nu toe zweeft mijn vingertje boven die bestel knop van de 3000 serie
success. maar ik vermoed dat de scalpers met hun geautomatiseerde scripts meestal sneller gaan zijn om het handje vol beschikbare 3000 series GPU te gaan kopen.

[Reactie gewijzigd door Countess op 15 september 2020 15:23]

Je weet wat er in fe nieuwe ps5 zit....right AMD.

dus er zal echt wel iets in de buurt of beter zijn dan nvid.
En wat zat er in de huidige generatie consoles... Juist ook AMD.
En wat dacht je van de Xbox series X en ehh de huidige consoles... dude, argument van niks :)

Prestaties zullen mogelijk op sommige vlakken in de buurt komen, zoals bijvoorbeeld in Ashes of the Singularity wat over het algemeen nogal PRO AMD is. Ik denk niet dat AMD een slechte videokaart zal lanceren maar ik geloof ook niet dat ze sneller zullen zijn dan de tegenpartij want alle huidige informatie en de houding van AMD toont aan dat ze zeer waarschijnlijk minder goed presteren. In hoeverre deze generatie een goeie prijs/prestaties zal leveren moet nog blijken, want ook zonder de beste prestaties kan AMD nog wel een goeie optie zijn. Het nadeel is voornamelijk dat ze altijd achtaan lopen en zelfs als ze WEL voorop lopen en ze hebben daadwerkelijk de betere videokaart in handen, dan koopt nogsteeds het meerendeel nVidia. Dit is al meerere malen gebeurt. Het is maar goed dat ze goeie deals hebben op de consolemarkt, anders hadden we Big Navi mogelijk nooit gezien. Het is marketing technisch wel jammer dat ze hun logo niet groot mogen presenteren op de consoles, want zoals jijzelf al aan lijkt te geven, weten de meeste mensen helemaal niet dat er AMD hardware in zeer populaire consoles zit. Nee niet alleen de PS5 dus :P

[Reactie gewijzigd door BruT@LysT op 15 september 2020 09:21]

want alle huidige informatie en de houding van AMD toont aan dat ze zeer waarschijnlijk minder goed presteren
over 'biggest navi' weten we nu alleen dat hij 50% betere perf/watt moet hebben, en omdat op deze render hij er met een 8+8 pin staat, een TDP van minimaal rond de 300 watt. Dat samen kom je al aan 3080 performance met een lager TDP.

en nee die perf/watt cijfers zijn niet zoals die onzin 90% van nvidia, AMD's vorige claim van 50% werd gewoon in de praktijk gehaald, reference kaart vs reference kaart.

En wat de houding van AMD betreft (wat dat ook precies mag betekenen) daar lezen mensen echt veel te veel in, en vooral wat ze zelf willen. Ten eerste is AMD nog niet klaar dus hebben ze nog niet eens final performance cijfers om te delen, en ten 2de willen ze nvidia zo min mogelijk tijd geven om te reageren. Hoe langer mensen niks weten hoe langer het zal duren voor nvidia kan reageren (als ze dat überhaupt kunnen deze generatie).

Daarbij, als AMD nu al wel veel lawaai zouden maken, zouden mensen toch alleen maar zeggen 'weer een poor volta'. Een aantal mensen hebben al besloten dus wat AMD wel of niet doet lijkt weinig uit te maken, ze zetten het toch wel naar hun hand om hun besluit te rechtvaardigen.

[Reactie gewijzigd door Countess op 15 september 2020 11:15]

Je typt teveel dude.
Je slaat de plank totaal mis ;)
AMD loopt altijd achter de feiten aan als het om grafische kaarten gaat.
Weet je wat ik nou niet snap, waarom het niet heel makkelijk te berekenen is hoe deze kaart gaat presteren.

De 5700XT bijvoorbeeld, gebruikt 240 watt, deze kaart gaat 50% extra performance per watt geven (dus met 240 watt, 50% sneller). Als deze kaart dus net zo snel wilt zijn als een 3080, dan moet deze kaart dus echt 300 watt of iets gaan gebruiken, dat wordt dus niet de zuinigste kaart, maar komt dan wel prima (en makkelijk) in de buurt van de 3080.

[Reactie gewijzigd door GoT.Typhoon op 15 september 2020 00:00]

Info over de stroomvoorziening:
6+6pin = max 225Watt
6+8pin = max 300Watt
8+8pin = max 375Watt

Op de 5700XT zit een 6+8 pin, en gebruikt volgens de spec 225Watt, waarschijnlijk was de 6+6 net te krap. Bovendien was er een een anniversary versie die 235Watt gebruikte.

De GPU van het plaatje heeft 2x 8pin, aan te nemen is dat deze dus toch minstens 300Watt gaat gebruiken dan.

Volgens de geruchten is er een i.p.v. de geclaimde prestatiewinst van 50% perf/watt meer richting 60% behaald. Ofwel verder rekenend met de gegeven van @P3TER_ (AMD rekende ook zo met hun prestatiewinst tussen 5700xt en Vega64 zie: https://www.hardwaretimes.../01/image-93-1536x599.png)
5700 @ 225W = 100%
6000 @ 225W = 160% *
6000 @ 300W = 213% **
3080 = 182% (iets lager denk ik zelf)
2080ti = 135% (mee eens)

* Dit getal zou aardig moeten kloppen
** Dit is lineair geschaald, dus zal ofwel de prestatie lager liggen, ofwel ze moeten nog meer dan 300Watt verbruik toelaten

Ofwel: waarschijnlijk kan AMD behoorlijk goed meekomen dit keer. Dit verklaard ook de 'lage' prijzen van nvidia.

[Reactie gewijzigd door mbr01 op 15 september 2020 00:27]

Info over de stroomvoorziening:
6+6pin = max 225Watt
6+8pin = max 300Watt
8+8pin = max 375Watt
Dat is wel inclusief 75 watt uit het pcie slot.

6 pin = 75 watt
8 pin = 150 watt
pcie slot = 75 watt
dus, pci-E + 6 pin = 150 watt max.
Pci-E + 8 pin = 225 watt max.
2 x 8 pin kan ook een esthetische reden hebben. Heb te veel kaarten gezien die je build verzieken met 6+8 pin.
Nou ze verzieken niet je build toch? Je hebt wel het nadeel dat die 1x2 pins los erbij hangt.
Je kan dat goedkoop oplossen door ff via aliexpress 2 custom cables te kopen. Je hebt ze in hele mooie kleuren voor heel weinig geld. Gelijk dat probleem opgelost. En nee er zal dan niet 2 pins los bungelen. Je hebt specifiek de 6 pin connector ;)
Koop toch liever bvb cablemod kabels waar een certificaat van compatibiliteit bij zit.

Als zo'n ali kabel niet gemaakt is volgens de juiste pinout of kabel dikte en iets schiet in brand of kortsluit dan sta je daar.

Zelfs goodkope kabels en opladers voor een gsm is not done bij mij.
Niks mis mee met die cables. Ik gebruik ze nu al 2 jaar en heb ze nooit hoeven te vervangen. Enige kwaliteit verschil is dat die van ali iets stugger zijn maar genoeg mogelijkheid om de kabels netjes weg te werken.

Deze cables heb ik gebruikt op mijn oude thermaltake die ik recent heb vervangen voor een corsair voeding. Is gewoon compatible.

Maar denk dat die cables van aliexpress voor de mensen die een klein budget hebben maar toch mooie looks wilt voor zijn PC wilt een zeer goed alternatief is.
Het is niet dat ze niet werken, het is voor als ze niet werken, kabels die niet voor een product gecertificeerd zijn bij een garantieclaim = weg garantie.

Bij corsair voedingen staat het zelfs in grote letters als ik me niet vergis.

Dus dat goedkoop kabeltje kan plots een heel duur kabeltje worden.

Corsair manual:

Do not modify the cables and/or connectors included with this power supply. If this power supply uses modular cables, use only manufacturer supplied cables. Other cables might not be compatible and could cause serious damage to your system and power supply.

[Reactie gewijzigd door SynthaxError op 15 september 2020 14:33]

Gewoon BitFeenix sleeved berleng kabels gebruiken. En gaat je PSU kapot, dan hoeft niemand te weten dat je andere kabels hebt gebruikt om te verlengen.
Jaaa precies! Ik ben het met je eens wat je hier zegt.

Maar wat ik hier ook weer lees. Ik pas de kabels niet aan, ik gebruik ook geen kabels die niet compatible zijn. Want het past en het komt allemaal overeen :D
Heb wel eens kabeltjes met molex-connectors gekocht via Ali. Geweldig, 25 cent per stuk of zo.
Na anderhalf jaar was er eentje doorgebrand, de andere hadden inmiddels zwarte plekken bij de connectors. Geen Ali-kabeltjes meer voor mij.
Ik koop gewoon Gesleefde BitFeenix verleng kabels en verleng gewoon de kabels van mijn PSU er mee. Normaal zou ik liever de kabels van Corsair hebben, maar dan krijg je gelijk een complete set waarvan ik maar 3 kabels nodig heb. Zonde dus.
Bwa je kunt tegenwoordig enkel de kabels bestellen die je wil met alle kleuren van de regenboog. Ik heb persoonlijk gewoon graag mijn garantie 😁 denk dat ik 100€ betaald heb maar toch veel van de kabels gebruik, ze zijn ondertussen al goedkoper geworden.

https://eustore.cablemod.com/configurator/

[Reactie gewijzigd door SynthaxError op 15 september 2020 15:15]

Mooi, mijn PSU's staan er niet tussen :D TX550M en TX850M.....

En een PCIe kabel met combs kost ongeveer 4 keer zo veel als ik er voor betaald heb.

[Reactie gewijzigd door Wim-Bart op 15 september 2020 15:31]

Ja de volledige customs zijn best duur.
En wanneer ik ze gewoon bestel bij Highflow, met een aantal cable combs dan is dat een heel ander verhaal. Ik heb naar de verschillen gekeken en inderdaad, je kan ze heel erg mooi maken bij Cablemod, maar dat schiet totaal zijn doel voorbij in de meeste gevallen.

Nu zit ik te twijfelen of ik een RTX 3080 FE ga aanschaffen of een RX-6000. Beetje zonde om dan bij een RTX hele dure cablemod kabels te ditchen omdat er dan een nieuwe 12-pins moet komen. Wanneer ik Cablemod kabels gehad had, had ik dus iets van 86 euro aan kabels moeten weggooien tegenover de 22 euro die het me nu gekost heeft.
Ik zou me bij SynthaxError willen voegen.
Pas heel erg op met die goedkope power-kabeltjes.
Cheapo molex connectors stonden erom bekend brand te veroorzaken.
Dan worden goedkope kabeltjes ineens heel duur.
Met signaalkabels kun je dit risico wat makkelijker nemen.
lol das wel extreem idd
Mja bij kortsluiting van zo'n power kabel wil(de) het nog weleens gebeuren dat er een component in de voeding de pijp uit gaat. In het geval van een capacitor heb je dan een kamer vol witte rook, maar ik heb ook wel vernomen dat in sommige gevallen daar dan toch een korte steekvlam bij kwam kijken. Bijv. de klassieke ophoping van stof in de PSU dat al brandende eruit geblazen wordt; stof brandt echt fantastisch. In dat laatste geval hoop je dan maar dat je PC niet tegen een gordijn of je papieren behang aan staat.

Maargoed wel veel toeval enzo, en tegenwoordig wel iets betere beveiligingen.
Maar toch... ik ben altijd voorzichtig met alles wat met kracht te maken heeft.
Ook laag-voltage dingen zoals elektrische dekens en accu's.
Ow mij maakt het allemaal niks uit. Maar die gene waar ik op reageer die krijgt er volgens mij een aanval van haha.
Nadeel inderdaad, maar makkelijk op te lossen met een paar mooie extension kabels. Als je toch al zo met de looks van een build bezig bent, zijn zulke kabels mijns inziens sowieso al essentieel.
tja maar wel mensen vervelen met de nood aan teveel kabels... niet elke voeding heeft deze. Zeker bij kleine builds (kleine kasten en zo) is dat niet vanzelf sprekend.
Performance per watt figures kun je op twee manieren bereiken: ofwel heeft de nieuwe architectuur voor dezelfde performance 50% minder vermogen nodig, ofwel levert de nieuwe architectuur 50% meer performance voor hetzelfde vermogen. Aangezien performance nooit lineair schaalt met vermogen doelen de fabrikanten doorgaans op de eerste variant, dus RDNA2 kan 5700XT performance halen voor 50% minder vermogen. De vraag is alleen of dat in dit geval met of zonder ray tracing meegenomen is...
Het is allemaal nog koffiedik wachten aangezien we van geen van de kampen betrouwbare benchmarks hebben en het bij de 6000 serie ook nog wel even 1.5-2 maanden gaat duren. Althans hoop ik dat AMD niet op 28 oct. aankondigt dat ze het pas volgend jaar uitbrengen want dat is echt te laat.
Wat je zegt klopt niet helemaal. 50% meer performance per watt is inderdaad hetzelfde als 50% meer performance bij hetzelfde vermogen. Je zou ook kunnen zeggen dat de nieuwe kaart minder gebruikt bij hetzelfde vermogen, maar dat is dan niet 50% minder vermogen (half zoveel vermogen zou leiden tot een verdubbeling van Perf/Watt) maar 33% minder vermogen (1 - 1,5^-1) * 100%
Hoe wist Nvidia dan van de te verwachten prestaties van AMD?
5700XT -> 2080 Ti = 135%
2080 Ti -> 3080 ≈ 135%
1.35 * 1.35 = 182%

240W RDNA2 is dus 150%
1.82 / 1.5 = 1.21
Dus deze kaart moet grof gezegd 240 * 1.21 = 291W zijn om gelijk te zijn aan een 3080.
Performance/watt schaalt nooit lineair.
Dat moet je echt uitleggen... Ik kan mij voorstellen dat er ergens een sweet-spot is, maar ik neem aan dat performance/watt gewoon om peak-performance gaat.

[Reactie gewijzigd door GoT.Typhoon op 15 september 2020 00:22]

Ben geen expert, verre van, maar goed.

Er is inderdaad een "sweet spot" voor alle hardware wat betreft stroom verbruik, de perfecte balans waar de prestaties inderdaad bijna gelijk staan aan het stroom dat gegeven word. Maar na dat punt word er meer en meer stroom verbruikt voor minimale prestatie verbetering.

Als voorbeeld moet je kijken naar de Radeon 290X. Die verbruikte behoorlijk wat stroom om aan het prestatie niveau te komen, dus daarnaast ook hitte, en geluid van de cooler. Een ouder voorbeeld is de GTX 480, dat was de eerste "hot 'n loud" meme. Deze kaarten werden ver buiten de sweet spot geduwd.

1 Watt staat nooit gelijk aan 1% prestatie verbetering. Er is veel dat onderweg naar de chip verloren gaat, en veel dat naar andere onderdelen gaat. Hoe verder de chip geduwd word om het laatste beetje prestaties er uit te halen, hoe meer stroom het ook nodig heeft om dat doel te bereiken. Het is een curve die steeds steiler omhoog loopt tegen over prestatie.

Hoop dat het iets geholpen heeft. :)

[Reactie gewijzigd door Galaxydj op 15 september 2020 06:11]

geforce fx 5800 was de oorspronkelijke meme voor zover ik weet. Verder heb je gelijk, kaarten hebben een hoger minimum gebruik afhankelijk van zaken als het proces van de die en de geheugen en vrm, boven de prestatie/verbruik sweetspot heb je steeds meer vermogen nodig voor dezelfde prestatieverhoging.
Ben geen expert, verre van, maar goed.
een expert had t wellicht technisch dieper onderlegd met berekeningen en termen waarvan geen leek begrijpt wat ie bedoelt. maar dit is duidelijk voor iedereen....kudo's

je ziet het ook erg goed terug in bv server cpu's. die liggen veel meer rond de sweetspot omdat verbruik/performance per watt met honderden/duizenden van deze cpu's erg veel uitmaakt als deze 24/7 draaien.

een epic bv heeft vaak een baseclock van maar rond de 2ghz, terwijl dit dezelfde chiplets zijn die in de desktop modellen vaak dubbel zo hoog zijn geclockt.
ik neem aan dat performance/watt gewoon om peak-performance gaat.
En zo werkt marketing dus. In deze Nvidia-slide zie je het precies gebeuren:
https://tweakers.net/i/Ha...vaz6rM=/i/2003833652.jpeg
1.9 x performance per watt op 60fps (+90%), maar op gelijk verbruik van 60 naar slechts 90 fps (+50%). Zeggen ze.

[Reactie gewijzigd door DataGhost op 15 september 2020 00:36]

De perf/watt graph van nvidia is pure marketing en slaat werkelijk nergens op. Als ik hun performance cijfers even voor waar aan neem een de TDP's gebruik kom ik nog niet aan de 15% hogere perf/watt.

AMD daarin tegen heeft de vorige 50% perf/watt verbetering uit de zelfde slide al in de praktijk laten zien. Ik ga er dus even vanuit dat ze de tweede 50% verbetering op de zelfde manier berekenen. En dan is het dus niet puur marketing maar iets dat gebruikers in de praktijk zullen ervaren.

[Reactie gewijzigd door Countess op 15 september 2020 12:28]

Procede bepaald waar de sweet spot is.
High-performance procede zit sweets spot iets hogere klokken en klok berijk beter.
In de zuinige procede zit de sweetspot stuk lager.
Beide is dat ver boven de sweetspot je hogere Voltage nodig hebt om hogere klok te halen en TDP on evenredig omhoog gaat.
Architectuur heeft hier ook nog invloed op.

Bij home servers met lage performance eisen kan ipv duurdere ULV CPU pakken een normale CPU en die bios als een ULV setten dus Voltage omlaag en lage klok instellen.
Bij GPU vooral AMD Vega met HBM is voltage hoog ingezet dus om beter OC te krijgen en throtlen vermijden is lagere voltage in te stellen.

Wil je een erge stille game rig pak de zwaarste Custom versie zet die op stock klok iets lagere voltage met overkill koeler en lagere TDP hoeven de grote fans minder hard te werken how er ook rekening mee dat 350wat tdp voor stock klok is OC ga je veel meer stoken. Flinke OC is 500wat .
Ik OC niet omdat vermogen harder stijgt dan performance.
Stroom geleidt minder goed door warme metalen.
en mensen vergeten voor het dooie gemak dat er ook ngo eens IPC verbeteringen zijn bij een nieuwe architectuur en dat in het geval van de 3080 de GPU niet zoveel emer verbruikt maar het geheugen dat wel doet. Teveel variabelen.
IPC verbeteringen vallen toch gewoon binnen die verbeterde performance per watt, niet nogeens erbovenop?
Dat staat min of meer los van de performance per watt.

IPC

Performance Per Watt

De performance per watt toont aan hoeveel stroom er verbruikt word voor de berekeningen of cycle. Maar de IPC is de hoeveelheid instructies er gedaan worden per cycle of clock. Dit is waarschijnlijk niet helemaal on point maar het geeft een grof idee hoop ik.

Bijv; Neem een standaard processor, zet de clock speed vast op de stock waardes, en probeer het te undervolten. De een gaat het beter af dan de andere, maar vaak zal je dan minder watt verbruiken voor dezelfde prestaties. Je kan het ook andersom proberen. Zet de voltage vast en probeer een paar extra Mhz eruit te vissen. Meer cycles voor de zelfde wattage. Maar een cycle heeft een bepaalde instructie hoeveelheid die bepaald is door het design/architectuur van de ontwikkelaar.

Als iemand het beter weet hoor ik dat graag want de details zijn mij ook niet helemaal zuiver nog denk ik ;)
Hoe hoger de kloksnelheid, des te hoger moet de spanning zijn, en des te hoger wordt de stroom die uit je voeding gehaald wordt. Als je IPC omhoog gaat, heb je voor dezelfde berekening minder clockcycli nodig, en ben je dus sneller klaar, of kan de kloksnelheid en dus spanning/stroom omlaag. Netto effect in ieder geval is dat voor diezelfde berekening, je ineens minder energie hebt verbruikt.

Nuance, het is natuurlijk niet zo simpel als "2x zoveel IPC, dus 2x zo weinig stroomverbruik." IPC wordt doorgaans verhoogd door pipelines toe te voegen, meerdere execution units toe te voegen, etc. Dat zijn toch extra transistoren die energie kosten. Het ding is alleen dat het schakelen van de transistoren stroom vreet, en het verhogen van de spanning versterkt dat effect ook nog eens. Het is dus helemaal niet zo aantrekkelijk om hoge kloksnelheden te hebben. De extra transistoren die toegevoegd worden om de IPC te verhogen, zullen dus altijd minder vermogen moeten vragen dan het kost om diezelfde performance te halen met simpelweg kloksnelheid verhogen.

[Reactie gewijzigd door CykoByte op 15 september 2020 07:49]

Nou nee IPC is win als er techniek toepast die efficienter met task omgaat.
Als int32 task niet fp32 blocked binnen SM dan houd in dat IPC stijgt maar fp32 unit zijn actief dus IPC is hoger maar gaan dus ook meer verstoken.
Er worden dus transistoren budged wordt nu veel beter concurrent benut dit houd in meer transistoren zijn gelijktijdig actiever dus meer vermogen verbruik.
Andere verbeteringen is dat units vetter uitgebouwed worden dus zijn krachtiger kwa ipc maar meer transistoren meer vermogen.
Grotere caches extra transistoren meer vermogen.
De dieshrink moet dus die extra transistoren compenseren.
Maar dat is ook niet lineair die shrink geef je meer transistor budged en hogere klokken als je voor beide gaat is de maximale winst ook met meer TDP
De reden dan Chips 30 jaar terug passief gekoel waren nu zwaar koelblok nodig hebben.
Toen 200watt voeding genoeg is en nu 750watt.
IPC zit doorgaans in de P/W cijfers.
Kan prima door meer cores toe te voegen. Clocksnelheid en voltage verhogen maakt dat er niet meer lineair geschaald wordt.
Buiten dat het niet 1:1 schaalt is dit ook een andere architectuur als ik me niet vergis. Dan zegt het dus niets.
Nice, dat is een top berekening! :) Dat zijn hele mooie resultaten dan, want de 3080 heeft al een TDP van 320, dus het zou dan simpelweg heel dichtbij elkaar liggen. :)
Omdat er nog helemaal niks bekend over is, dit ongetwijfeld (net als bij NVidia) gebaseerd is op een bepaalde benchmark en het nog maar helemaal de vraag is wat ze ermee bedoelen. Stel je voor dat de 5700XT 100 performance heeft op 100 watt, dus 1 performance/watt. De nieuwe kaart heeft dan 1.5 performance per watt. Echter, dit kan je bereiken met 150 performance op 100 watt (hier hoopt iedereen op), maar ook met 100 performance op 67 watt. Ook hoopt iedereen dat het een constante is maar dat is helemaal niet gezegd. De marketingboys zijn ook niet gek, dan hadden ze gewoon 50% meer performance gezegd en het "per watt" weggelaten. Met de 100/67 kan het best zo zijn dat het ook 110/100 is dus dan is de kaart eigenlijk maar 10% sneller (op max performance) met wel 50% performance/watt verbetering. Dat geldt overigens net zo hard voor NVidia en dat kan je zelfs in hun marketing-slides (want dat zijn het, marketing-slides) bekijken. En dan is nog maar de vraag naar welke workload/game is gekeken. Pas als de benchmarks er zijn kan je de performancewinst in de praktijk zien.
Hoewel je gelijk hebt in je punt is het erg onwaarschijnlijk wat je zegt.
50% meer performance per watt had ook gekund door de 5700xt te undervolten en underclocken.
Deze render toont duidelijk 2x8 pin.
De 5700xt zat precies op wat een 2x6pin kan leveren maar kreeg 8+6 voor marge.

Zelfs als deze nieuwe kaart dus weer precies op de grens zit zou hij dus minimaal 75 watt meer gaan gebruiken. Ofwel 300 watt TDP.

[Reactie gewijzigd door Countess op 15 september 2020 12:04]

Ik rekende met fictieve getallen om een ander punt te maken. Zeg anders 120/175 als je die +75W zo graag wilt zien :P.
Don't get me wrong, ik heb zelf een 5700XT, ik kijk uit naar de 6000-serie en ik wil dat die zo goed mogelijk zijn voor een competetieve prijs, maar zo ongeveer elke voorgaande release van AMD, Nvidia, Intel, noem maar op, gaan gepaard met marketing-"benchmarks" die op meerdere manieren uit te leggen zijn, waar altijd het gunstigste plaatje uit gepakt wordt en waar het liefst claims gedaan worden die waar zijn, maar iets heel anders insinueren dan wat er werkelijk aan de hand is. Natuurlijk kan het best zo zijn dat de 6000-serie straks op 225W 50% performancewinst heeft over de 5700XT en daarna zelfs nog doorkan tot 300W, maar dat neem ik nog even met een korreltje zout totdat de benchmarks er zijn. Het bekt namelijk veel beter om te zeggen dat 'ie 66% beter presteert, dus dan lijkt me dat ze dat wel gedaan zouden hebben. In de klasse van high-end videokaarten zijn er maar erg weinig mensen die het ook maar een flying fuck boeit hoeveel vermogen dat ding verstookt, die willen gewoon rauwe FPS, dus dat vind ik in die klasse een vreemde metric om mee te adverteren.
Geruchten zijn dat ze 60% eruit hebben weten te halen ipv 50%. Niet vergeten dat er ook het een en het ander is aangepast aan architectuur.
Naast de Perff/Watt word er idd verwacht dat er ergens in de buurt van 10 tot 15% ipc verbetering is.
Maar die IPC verbeteringen, vallen dan toch al onder Performance, dus dat zit dan toch al in de berekening?
De performance per Watt is tegenover Navi 1x. Voor de zelfde prestaties als de Navi 1x, 50% minder stroom verbruik of Watt. Dit staat los van de architectuur verandering die een IPC verbetering kan geven. Stukje omhoog heb ik een poging gewaagd om het uit te leggen aan iemand anders ;)
Architectuur, IPC, geheugen bandbreedte, etc hebben allemaal invloed op de prestaties en zijn dus al opgenomen in een "performance/watt" berekening.
Dan nog is perf/watt het resultaat van de hele som en is ipc onderdeel van de som, ipc beinvloed de perf/watt en is daar ook daadwerkelijk onderdeel van.

Perf/watt zegt alleen niks over de ipc en andersom ook niet...
Voor de zelfde prestaties als de Navi 1x, 50% minder stroom verbruik of Watt.
Als je die kant op rekent is het 33% minder stroom voor de zelfde prestaties. Het is echte 50% meer prestaties voor het zelfde verbruik.
Heb je daar een bron van? Ik heb het zelf niet kunnen vinden.
Dat is gewoon wiskunde...

50% meer prestaties per watt, betekend in de omgekeerde richting 33% lager verbruik voor de zelfde prestaties.
voorbeeld:
prestaties = 100
verbruik = 100
(verhouding 1 op 1)
50% betere prestaties per watt betekend dan, bij gelijk verbruik
prestaties 150, verbruik 100. (verhouding 1.5 op 1)

de andere kant op krijg je dan.
prestaties = 150
verbruik = 150
(weer 1 op 1 dus)
Weer 50% extra prestatie per watt erbij maar nu laten we het verbruik zakken in plaats van de performance op te krikken.
Dan kom je, net als bij het vorige voorbeeld op 150 prestaties voor 100 verbruik.
Weer verhouding 1.5 op 1.

Of bedoel je iets heel anders?
Je hebt al eerder op een post van mij gereageerd waar ik een soortgelijke berekening heb gedaan maar ook een net zo valide berekening (die je liever niet ziet) er tegenover heb gezet. De enige slide die ik heb gezien claimen ze +50% performance/watt en dat is een breuk met twee variabelen die allebei ongedefinieerd zijn gebleven. Performance schaalt niet lineair met stroomverbruik, dus die breuk is eigenlijk ook nog eens een functie en die 50% zal ongetwijfeld een van de extrema zijn.
Dus je conclusie "50% meer prestaties voor het zelfde verbruik" is ongegrond. De verhouding prestatie/verbruik is op een bepaalde prestatie of een bepaald verbruik 50% hoger dan bij de vorige kaart, dat kan dus prima betekenen dat de nieuwe kaart 33% minder verbruikt bij een bepaalde gelijke prestatie van de vorige (waarschijnlijk de top, die het minst efficiënt is) kan net zo goed een slechts 10% prestatiewinst betekenen bij hetzelfde (top)verbruik omdat het simpelweg geen lineair verband is. Ik stel dus dat het met alle waarschijnlijkheid zo is dat prestaties=100, verbruik=67, en dat "prestaties" nog onbekend is op verbruik=100. Anders hadden ze gewoon gezegd dat de kaart 50% beter presteert ipv dat ze zeggen dat de kaart 50% beter presteert per watt.
Mijn uitleg ging over de definitie van perf/watt, en ik verbeterde Galaxydj daarmee die zei dat 50% betere perf/watt 50% lager verbruik bij gelijke prestaties betekende. wat dus niet zo is, want dat is slechts 33%.

Het ging dus helemaal NIET de extrapolatie naar de rx6000 serie toe. ik zeg dus nergens dat de rx6000 serie een gelijk verbruik gaat krijgen.

Sterker nog gezien de 2x8pin stekker is dat zeer onwaarschijnlijk.
Performance schaalt niet lineair met stroomverbruik, dus die breuk is eigenlijk ook nog eens een functie en die 50% zal ongetwijfeld een van de extrema zijn.
Dat laatste ben ik dus niet met je eens. Die van nvidia waren idd wel gebaseerd op extremen (en dus compleet nutteloos en misleidend). maar AMD's claim van 50% perf/watt verbetering voor RDNA1 is precies wat we zagen in de praktijk. dat was dus reference kaart vs reference kaart.

https://www.techpowerup.c...radeon-rx-5700-xt/29.html
5700xt = 100% perf/watt
vega64 = 63% perf/watt
Dat is dus iets meer als de beloofde 50% betere perf/watt voor de 5700XT.
(en ook met de vega56 vs 5700 kom je ook aan net iets meer als 50% betere perf/watt)

Ik ga er dus gewoon vanuit dat AMD dat nu weer gaat doen. Dus wat de performance ook precies gaat zijn, als je het terug rekent naar de perf/watt die de kaart zelf haalt zal dat ongeveer 50% beter zijn als die van de 5700XT.

[Reactie gewijzigd door Countess op 15 september 2020 16:12]

Ik doe het maar even in een extra post omdat mijn vorige post alweer even geleden is... ik heb nog wat meer wiskunde voor je!
Als FPS (prestaties) berekend kan worden adhv het vermogen met de volgende formule
FPS(Vermogen) = c * √Vermogen
krijg je gratis daarbij
Vermogen(FPS) = (FPS / c)2
waarbij c een constante is die afhankelijk is van de generatie. Dit verband is niet heel gek, aangezien verbruikt vermogen bij veel real-world zaken vaak ongeveer kwadratisch toeneemt bij dezelfde architectuur. Nou zal die enigszins verschillend zijn maar voor dit voorbeeld moeten we het er maar mee doen. Lineair zal het in ieder geval nooit zijn.
Dan krijg je voor generatie A en B dus de functies
FPS(A, Vermogen) = A * √Vermogen
FPS(B, Vermogen) = B * √Vermogen
en dan zie je direct dat het verschil tussen A en B in prestaties onafhankelijk is van vermogen, de winst is dan B/A. Als de constante voor A en B resp. 5 en 6 is heb je het dus over een prestatiewinst 20%. Dan gaan we nu kijken naar performance/watt. Dat is hetzelfde als FPS / Vermogen. Kijken we naar vermogen voor A en B krijgen we
Vermogen(A, FPS) = (FPS / A)2
Vermogen(B, FPS) = (FPS / B )2
Houden we hierbij FPS constant dus dan is de vermogenstoename (FPS/B)2 / (FPS/A)2 en de vermogenswinst (afname) de inverse, (FPS/A)2 / (FPS/B)2. Doorrekenend kom je dan uit op een winst van B2/A2 ofwel 36/25 en dat is een vermogenswinst van 44%. Dit is het getal waar ze mee schermen dus, daarmee insinueren ze 44% betere prestaties maar in werkelijkheid is dat maar 20%.

[Reactie gewijzigd door DataGhost op 15 september 2020 16:04]

aangezien verbruikt vermogen bij veel real-world zaken vaak ongeveer kwadratisch toeneemt bij dezelfde architectuur.
Als je performance winst enkel uit je kloksnelheid moet halen misschien. maar zo werken GPU's niet. Die kunnen efficient de GPU breder maken, en dan gaat de prestatiewinst/verbruik verhouding veel dichter bij lineal als kwadratische omhoog.

Sterker nog bij zowel de 10 and de 20 serie van nvidia GPU's had de xx80 een betere perf/watt verhouding als de xx60. (zie link hieronder) Dat betekend dus, binnen de zelfde architectuur, beter als linear scaling terwijl jij hier voor je berekeningen kwadratische aan neemt.

Je eerst aanname is dus al compleet verkeerd

En wat probeer je nu precies te bewijzen? Dat AMD probeert 50% betere perf/watt probeert af te doen als 50% betere prestaties? Want dat is niet wat ze doen en niet wat ik beweerde (ik beweerde daar in mijn eerste post zelfs helemaal niks over)
(daarbij alleen 50% betere prestaties zou zelf heel erg tegenvallen.)

Als AMD zegt 50% betere prestaties per watt bedoelen ze 50% betere prestaties per watt, en dat kan je gewoon in de praktijk zien:

https://www.techpowerup.c...radeon-rx-5700-xt/29.html
5700xt = 100% perf/watt
vega64 = 63% perf/watt

63 * 1.5 = 94.5. AMD haalt met de 5700xt dus meer als 50% perf/watt winst. in de praktijk. compleet los van de uiteindelijke prestaties.

[Reactie gewijzigd door Countess op 15 september 2020 16:44]

Als je performance winst enkel uit je kloksnelheid moet halen misschien. maar zo werken GPU's niet. Die kunnen efficient de GPU breder maken, en dan gaat de prestatiewinst/verbruik verhouding veel dichter bij lineal als kwadratische omhoog.
Daarom zeg ik ook binnen een architectuur, of eigenlijk moet ik dat verduidelijken met binnen een chip. Binnen dezelfde chip is het ongeveer kwadratisch, zoals bijna alles. Hoe ze deze perf/watt toename uitrekenen kan bijvoorbeeld door het terugklokken van de nieuwere, efficientere chip om dezelfde performance te halen als de oude, met een veel lager verbruik. Dan heb je een heel hoog getal om mee te schermen en dingen te insinueren en dat werkt kennelijk heel goed want een groot deel van de mensen hier discussieert er een eind op los over wat dat uiteindelijk betekent.
Sterker nog bij zowel de 10 and de 20 serie van nvidia GPU's had de xx80 een betere perf/watt verhouding als de xx60. (zie link hieronder) Dat betekend dus, binnen de zelfde architectuur, beter als linear scaling terwijl jij hier voor je berekeningen kwadratische aan neemt.
Ik reken kwadratisch voor de verhouding prestaties / vermogen van elke chip op zichzelf. Maar voor beide generaties/chips verander ik alleen een constante (A en B), het "lineair" waar je aan refereert. Echter lijk jij ook de verhouding prestaties/vermogen binnen dezelfde chip als linear te beschouwen terwijl dat dus niet zo is.
En wat probeer je nu precies te bewijzen? Dat AMD probeert 50% betere perf/watt probeert af te doen als 50% betere prestaties? Want dat is niet wat ze doen en niet wat ik beweerde (ik beweerde daar in mijn eerste post zelfs helemaal niks over)
Nou, het ging mij vooral om jouw quote:
Als je die kant op rekent is het 33% minder stroom voor de zelfde prestaties. Het is echte 50% meer prestaties voor het zelfde verbruik.
Terwijl het met de allergrootst mogelijke waarschijnlijkheid om "50% beter verbruik voor dezelfde prestaties" gaat. Dat reken je ook wel goed uit verder (het is inderdaad 33% en niet 50% minder verbruik) maar je lijkt wel te denken dat er zo'n enorme sprong in performance is gemaakt. Ik heb net laten zien met wiskunde dat je 44% betere performance/watt kan hebben bij hetzelfde verbruik, maar dat dat slechts 20% meer prestaties voor hetzelfde verbruik is. Jouw aanname werkt alleen als de prestatie lineair is aan het stroomverbruik. Als dat zo was hadden we nu echt wel 600+ Watt videokaarten en was SLI nog steeds booming.
5700xt = 100% perf/watt
vega64 = 63% perf/watt

63 * 1.5 = 94.5. AMD haalt met de 5700xt dus meer als 50% perf/watt winst. in de praktijk. compleet los van de uiteindelijke prestaties.
58% betere perf/watt inderdaad. Maar qua absolute performance is het 84% vs 100%, dus slechts 19% verbetering. Dan bekt meer dan 50% betere perf/watt veel beter.

Als wat jij zegt klopt, en het inderdaad 50% betere performance bij hetzelfde verbruik is, en de performancewinst komt uit het "breder maken" van de GPU en daarbij behorende vrijwel lineaire schaling, houdt dat in met 300W die je eerder noemde vs 225W van de 5700XT dat de prestatieverbetering een whopping verdubbeling is (100/225 -> 150/225 en dus 200/300). Dan is dát toch gewoon je marketing? 8)7 Dan ga je toch niet raar lopen prutten met +50% per watt? 8)7
Nou, het ging mij vooral om jouw quote:
Als je die kant op rekent is het 33% minder stroom voor de zelfde prestaties. Het is echte 50% meer prestaties voor het zelfde verbruik.
In de context van wat 50% betere perf per watt in houdt. NIET in relatie tot wat de rx6000 gaat doen wat absolute prestaties betreft.
Als wat jij zegt klopt, en het inderdaad 50% betere performance bij hetzelfde verbruik is, en de performancewinst komt uit het "breder maken" van de GPU en daarbij behorende vrijwel lineaire schaling, houdt dat in met 300W die je eerder noemde vs 225W van de 5700XT dat de prestatieverbetering een whopping verdubbeling is (100/225 -> 150/225 en dus 200/300). Dan is dát toch gewoon je marketing? 8)7 Dan ga je toch niet raar lopen prutten met +50% per watt? 8)7
Ah, ik denk dat ik weet wat hier mis gaat.
ik denk dat je ergens iets gemist hebt want die 50% betere perf/watt claim van AMD voor RNDA2 is niet recent gemaakt, en al helemaal niet als reactie op nvidia's 3000 serie presentatie.

AMD maakte de slides met deze informatie maanden geleden al bekent (5 maart 2020 om precies te zijn). Ver voor ze besloten hadden wat de daadwerkelijke performance ging zijn dus.

AMD kon niet, en wilde niet, op dat moment de uiteindelijke absolute performance cijfers geven (want die waren er simpel weg nog niet). Maar dat ze, opnieuw, de performance per watt flink gingen verbeteren dat wilde ze wel alvast kwijt.

En dat hebben ze dus gedaan zonder daar ook maar enige vorm van totale performance claim aan vast te hangen, of zelfs maar te insinueren.
50% performance per watt zegt niet zoveel als je niet weet bij welke clocks dit is.
NVIDIA claimed ook 1.9x tenopzichte van Turing, maar daar klopt natuurlijk niks van als je bekijkt dat de RTX 3080 een TDP heeft van 320W. Ter vergelijking, de RTX 2080 heeft een TDP van 215W.
Zelfs als bij de 3080 een groot deel komt door het gebruik van GDDR6X kun je als nog vrij weinig zeggen hoe een nieuwe GPU gaat zijn op basis van TDP.

[Reactie gewijzigd door DoubleYouPee op 15 september 2020 00:33]

Kloks zijn al onderdeel van het performance deel van perf/watt.

En de vorige claim van 50%, uit de zelfde slide, heeft AMD al in de praktijk laten zien, ref clock VS ref clock. Lijkt me heel sterk dat ze 2 verschillende betekening gebruiken voor het zelfde in de zelfde slide.

Het zou me niet verbazen als nvidia die extreem misleidende perf/watt vergelijking bewust erin heeft gestopt zodat mensen AMD's claim in twijfel gaan trekken.

[Reactie gewijzigd door Countess op 15 september 2020 10:39]

Een rtx 3080 heeft ook een rated tdp van 320w..
Performance per watt berekent de efficientie niet de snelheid. Oftewel RDNA2 is 50% efficienter in het draaien van 60 fps in game x vs RDNA1. Dat wil niet zeggen dat RDNA2 50% sneller is. Nvidia claimed 90% performance per watt maar is zeker niet 90% sneller dan de vorige generatie.

Het is meer een marketingpraatje.

Daarnaast lopen de reference kaarten van de 3080 tegen een powerlimiet aan van 320w. Volgens geruchten hebben de non-reference borden geen powerlimit en kunnen al richting de 370w gaan. Dat wil niet per definitie zeggen dat er meer performance uit komt. Maar goed om rekening mee te houden. Daarnaast zijn de drivers ook nog niet optimaal en kan zeker op lange termijn nog eens 10% performance schelen. Valt weinig over te zeggen dus.
Wat ik mij persoonlijk afvraag is waarom moet de kaart concurreren met de 3080 of 3090 ? Natuurlijk zijn dat de nieuwe kaarten van NVIDIA, maar is de markt niet veel groter voor de 3070 of eventueel 3060 ? Als ik producent was zou ik toch ook zoveel mogelijk willen verkopen. Dus misschien eerst de main stream markt voorzien en daarna de high end ? Dus zou ik het logischer vinden als ze zich daarop focussen.

Persoonlijk heb ik liever een kaart die met minder vermogen (waarschijnlijk ook koeler) die goede resultaten haalt. Maar goed ik ben dan misschien niet de standaard gamer en heb altijd gezocht naar een kaart met de beste prijs/prestatie verhouding.

Het zijn in ieder geval mooie tijden als consument, natuurlijk je moet even geduld hebben. Maar er is genoeg keuze :)
De 3080 is ook niet zuinig, snap niet waarom ze altijd maar de snelste moeten zijn.
Heb liever een zuinige kaart, de kamer is al zo warm.

[Reactie gewijzigd door Flooperke op 15 september 2020 07:08]

Over 6 tot 12 maanden komen kaarten zoals de 3050's en 3060's, geen zorgen.
Ik hoop het, ik zit allemaal te wachten voor een snelle low power vervanger voor mijn 1050ti voor aan de tv in men mini pc komen ze weer met 250+ watt kaarten aan kakken.
Ik allemaal denken dat we goed voor het milieu moeten zijn.
800w psu is niets meer tegenwoordig.
Ik ga hier voor de 3090, heb net een geheel nieuwe custom-loop voor CPU en GPU samengesteld en nu klaarliggen in veeeeel onderdelen. Alleen het GPUblok mist nog.
Denk dat ik voor de 3090FE ga, maar ben er nog niet helemaal uit.
Mega spannend dit! ik zit al een maand op het puntje van mn stoel!

[Reactie gewijzigd door Niels van Wooni op 15 september 2020 12:19]

Nice, wat heb je samengesteld dan? Wil zelf ook die kant op...
Ik wil wel eerlijk tegen je zeggen dat je er echt HEEL goed over moet nadenken,
het kost echt wel een berg geld om een ultieme koeling te gaan opbouwen.
(Zit nu op ongeveer 1200 euro, het GPU blok en 3090 moeten er nog bijkomen).

2x D5 + reservoir pompen, Aquacomputer Ultitube D5 150mm x 65mm
2x Reservoir Alphacool Cape Corp Coolplex HF metall 25 - deep black 250mm x 50mm
2x Corsair XR 420 radiatoren
6x corsair LL140 fans
1x Corsair CPU blok
1x Arctic thermal paste MX-4 Tube 8g
18x Barrow TSWT903 90gr-fitting met dubbele roteerbare 45gr delen. Chrome.
18x Barrow THKN-3/8 compressie-fitting. Chrome.
2x Barrow TQFS-V1 afsluiter tbv dubbele drain. Chrome.
1x Barrow TSSXK-A01 telescopische fitting 41-69mm. Chrome.
2x Barrow TSSXK-A01 telescopische fitting 20-25mm. Chrome.
1x Aquacomputer Double Protect Ultra BLAUW 5 liter.
1x Aquacomputer Double Protect Ultra TRANSPARANT 5 liter.
2 meter Tygon E3603 tubing 15,9/9,5mm.
En in de winter is die koud. Je gaat die 50W-100W niet merken. Ter illustratie een mens in rust is goed voor iets meer dan 100W. Een mens die zich inspant gaat tot de 500W.

Als je verstandig bent en je kantoor ventileert ga je er nog minder van merken omdat het temperatuurverschil voor meer stroming zorgt.
Dan hebben we teveel mensen in de wereld.
Maar men pc mag maar max 75w leveren of de power brick knalt uitelkaar. En wil wel forza op 4k kunnen draaien.
Een mens in rust is zal iets van 60 tot 70 W verbruiken (hangt er ook vanaf of je een man of vrouw bent, temperatuur, hoeveel spieren je hebt, of je eten verteert, hoe oud je bent etc.).
Bij een verbruik van 2000 kCal per dag is het 97 W gemiddeld (slapen/zitten/wandelen).

Bij aerobe inspanning heb je een rendement van ca. 25%. Iemand die enigszins conditie heeft kan langere tijd 200 W leveren, dus 800 W verbranden. Met een heel goede conditie wel 300 tot 400 W leveren, en dus 1200 tot 1600 W aan verbranding.
Hoe ouder je wordt hoe minder je verbruikt ? op een moment is het 0w ?
Het is niet puur op Performance/Watt, je moet ook rekening houden IPC verbeteringen, algemene architecturale verbeteringen, (eventuele) process verbeteringen (of tegenslagen), geheugensnelheid, etc...

Bij eerdere kaarten had AMD ook compute stukken, waardoor ze maar 1 kaart moesten ontwerpen ipv
een compute kaart en een gaming kaart, maar daar ook meer silicon (en dus ook stroom) aan moesten spenderen. Nu zou deze afgesplitst moeten zijn.
Hoe lang zou het duren voordat er een "korte" videokaart van Big Navi komt? Zo'n lange kaart past niet in mijn Kolink Rocket Mini-ITC kast.

[Reactie gewijzigd door Redsandro op 15 september 2020 00:00]

Ik heb het idee dat de mini PC’s te niet worden gedaan met de nieuwe generatie van GPU’s. Ze zijn tot nu toe erg groot en zeker met de koeling ziet het er niet uit dat het snel gaat gebeuren.

Laptops hebben vaak het voordeel dat ze custom koeling hebben van de producent (HP, Razer, Asus, enz) en Max-Q natuurlijk.
Ik heb sinds kort een NR200, daar past nog best wat airflow in dus die zal nog gaan. Maar ik denk dat het daar ergens ook wel ophoudt. En eigenlijk heb je dan alsnog een klein towertje. Niet een machine die je echt zo even oppakt en in je rugzak duwt.

Voorheen had ik een Kolink Satellite, en daarin was een 200W GPU al niet meer te doen. Ik had daarvoor nog speciaal een blower style koeler gekocht.

[Reactie gewijzigd door Amanoo op 15 september 2020 03:23]

Tja, de trend is volgens mij aan langer dat, terwijl de performance per watt omlaag gaat, het verbruik van de top-GPUs toch elke generatie groter wordt. Dus inderdaad voor kleine PCs wordt het steeds lastiger om zo'n top GPU te installeren. Aan de andere kant kan je met een middensegment GPU toch steeds betere prestaties krijgen bij hetzelfde verbruik.
31 cm is echt niet klein hoor! Reken maar dat er varianten komen <28.
Fijn dat je precies die maat er even bijneemt! 310 mm inderdaad. Gevoelsmatig zijn er twee maten: kort (passen twee fans op) en lang (3 fans). Die laatste passen vaak niet in compacte builds. Dus ik hoop dat ze nog zo'n 2-fan model voor elkaar krijgen.
Ik vind het toch wel jammer dat blower-stijl kaarten toch wat minder lijken te worden. Ik heb momenteel een blower-style. Expres gekocht vanwege mijn mITX behuizing, omdat airflow niet echt goed gaat in die kast.
zelfde, in mijn phanteks shift behuizing werken eigenlijk alleen lange blower kaarten met goed fatsoen. Dus vindt het jammer dat ze geen verbeterd blower ontwerp proberen. Misschien dat ze het nog voor een low end model doen.
Inmiddels ben ik wel al over naar een andere kast. Van een Kolink Satellite naar een Cooler Master NR200. Die heeft toch veel meer airflow mogelijkheden. Maar dat ga je al naar een kleine tower, een waar nog net kleinere mATX borden in passen en die voor ITX gemaakt is. Als je écht klein wil, is die kast het toch niet. Al is de Kolink Satellite ook nog maar een enkel maatje kleiner. Het is geen Dancase A4.
Met een beetje mazzel komt MSI met een nieuwe Aero kaart (blower style).
Bij nvidia waren er altijd wel een paar blower style koolers van AIB partners. Dat zou bij AMD dus ook wel het geval gaan zijn. Moet je misschien alleen iets langer op wachten.

Voor de meeste mensen is niet een blower style koeler een betere optie, vanwege lagere temperaturen en minder lawaai.
Ze moeten toch echt met een benchmark komen willen ze 3080 kopers gaan tegenhouden. Het gerucht is dat Big Navi tussen de 3070 en 3080 uit komt.
Waarschijnlijk 16GB en prijs/prestatie goedkoper. Echter, zonder DLSS, minder goede drivers en RT performance is nog onduidelijk. Daar komt nog bij de Nvidia's prijzen wel eens omhoog kunnen gaan vanwege populariteit en/of miners.
Hoe DLSS gepresenteerd word mag je ook wel met een berg zout nemen. Native 4k ziet er bij verre niet zo slecht uit als dat zij voordoen.
Nou, Nvidia zou het inderdaad wel wat overdreven hebben gepresenteerd. Ik baseer mijn mening meer op digital Foundry die enthousiast waren over dlss 2.0 in Control en Death Stranding. Hoewel ik gisteren ook een goede video heb gezien over dlss 2.0 in andere games met flinke closeups ter vergelijking: https://youtu.be/eS1vQ8JtbdM
Ik zit op een 4k 40" monitor en kan de extra dlss 2.0 performance goed gebruiken. Vooral met raytracing.
Dat zeggen de meeste mensen die het nooit zelf gebruikt hebben. Ik was er ook een van, tot ik het zelf eens kon proberen en nu snap ik niet waarom er geen grotere marketing omheen hangt. Het is wat mij betreft magic.
Alleen op release van de 5700 series waren de drivers ff moeizaam, maar voor de rest probleemloos. Snap men niet zo goed die lopen te kwaken dat de drivers van AMD slecht zijn. Wellicht moet je eens de laatste versie installeren, zit bomvol met extra's en volledig gericht op gaming ook. Ik zit al met ATI kaarten sinds de 9600XT. Nooit meer nvidia voor mij. Ook niet met het telemetry op hun drivers of tweaken in memory compressie wat ten koste gaat van texture quality. Het verschil tussen AMD en Nvidia is dat nvidia knijpt op o.a texture quality en daardoor een iets vager beeld heeft ten opzichte van AMD.
Een beetje classy, maar niet onaardig.

De 3 fans doen mij vermoeden dat deze kaart ook wel de 300W gaat aantikken of daar in ieder geval dicht bij in de buurt komt. En voor mensen die wachten op een 3080 alternatief is dat goed nieuws. 50% betere performance per watt, dus als het tgp ook nog aardig omhoog gaat, heb je een beest van een kaart.
De 3 fans doen mij vermoeden dat deze kaart ook wel de 300W gaat aantikken of daar in ieder geval dicht bij in de buurt komt.
Anders de 8+8 pin wel.
Dat doe je niet als je niet minimaal rond de 300 watt zit. (als je beduidend lager zit is 6+8 ook genoeg namelijk)
8-8pin kan ook beteken dat TDP 80% van 6+8 maar OC manie rekening mee wordt gehouden. Waar je met gemak ver over die 80% 6+8pin power kan gaan. Bij 60 á 70% 6+8pin stock tdp kan je 6+8pins verwachten en speciale extreem Oc model 8+8pin.
Bij 60 á 70% 6+8pin stock tdp kan je 6+8pins verwachten en speciale extreem Oc model 8+8pin.
Volgens mij nemen ze bij reference ontwerpen niet zo veel marge (AIB's daarin tegen gaan nog wel eens voor de overkill). ik kan het me niet herinneren tenminste.

De 5700xt bijvoorbeeld zat met 225 watt precies op de grens van wat je met 1 enkele 8 pin zou kunnen doen inclusief het PCIe slot, maar ze hebben er toch een 6 pin bij gedaan, zodat er niks via het slot hoeft te komen.
En de 2070 reference had 1 8pin stekker en een TDP van 175. Dus slechts 25 watt vanaf de PCIe slot.

Zeker zolang ze met een ruime marge onder de max van het PCIe slot zitten voegen ze niet meer stekkers toe. en sommige zoeken de grens precies op (rx480 bijvoorbeeld met 150 watt tdp met slechts 1 6pin stekker.)

Aangezien je met 8+8 same met het PCIe slot 375 watt kan leveren en binnen de specs blijven, en het hier om een reference ontwerp gaat, denk ik niet dat ik er heel ver naast zit.
De design lijkt op iets wat Sapphire wel zou maken. Klein vermoeden dat ze een handje hebben geholpen.
Sapphire maakt eigenlijk altijd AMD's reference designs, dus dat is niet een hele riskante gok zeg maar.
Ik vraag me af hoe deze kaarten zich gaan houden kwa temparatuur. De huidige generatie kan makkelijk boven de 80 graden uitkomen. Ookal beweert AMD dat dat prima temp's zijn om een gpu te runnen vind ik het nog steeds te warm .
hotspot vs gemiddelde.

AMD's 5700XT word niet beduidend warmer als nvidia's tegenhangers, maar AMD geeft je wel de hotspot (tjunction) temperatuur en nvidia alleen de edge temps. nvidia heeft gewoon die zelfde hoge hotspot temperaturen, ze durven ze alleen niet aan gebruikers te tonen.

Heel jammer dat AMD word afgestraft voor het geven van meer informatie.

[Reactie gewijzigd door Countess op 15 september 2020 12:21]

Mooi! Ik ben geen fan van Nvidia als bedrijf zijnde, met dat hele GPP en geen freesync gebeuren. Niet echt klantvriendelijk. Ze beginnen een beetje op Apple te lijken. Ja, ondertussen is GPP weg en ondersteunt het freesync, maar ik ben voorlopig klaar mee. :9
Kijk er naar uit met wat AMD op de proppen komt :)
Ik heb een gigabyte freesync monitor die ook met nvidia g-sync werkt. Ik zie t probleem niet zo?
Voor Turing weigerde iNvidia gsync te activeren op schermen die niet hun (dure) hardware gebruikte (dus alle freesync schermen ook). Na jaren te weigeren is het standpunt veranderd om weer een mes te steken in de competitie.
Freesync? Gsync compatitible noemt NVIDIA het nu 8)7
En vroeger mocht je ongeveer 200 euro betalen voor die feature. Dus ja ik begrijp hem wel.
Gsync hardware in een scherm is wel een stuk anders dan freesync op gsync compatible. Meestal is de range veel groter op gsync, en kan nvidia bijv ook backlight strobing gebruiken bij variable refresh rate. Mijn huidige gsync compatible scherm is maar 60hz tot 240hz variable, terwijl mijn vorige met een module van 1hz tot 144hz kon.
Nee, gsync compatible is gewoon freesync, en dat al jaren gratis met een AMD kaart.
Eindelijk geen blowers meer. Hopelijk is deze beter dan bij de Radeon VII en hoeven we niet per se te wachten op derde partijen.

[Reactie gewijzigd door DoubleYouPee op 15 september 2020 00:08]

Eindelijk geen blowers meer.. really? Weet je hoe noodzakelijk blower koelers zijn voor mij als renderfarm. Ik zou ervan balen als zoiets niet ergens alsnog verkrijgbaar zou zijn.
Daarom hebben Radeon Pro en Quadro gewoon een blower
En kosten 3x zoveel voor dezelfde renderperformance.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True