Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia GeForce RTX 3080 arriveert in Tweakers-testlab - update

De Nvidia GeForce RTX 3080-videokaart is gearriveerd in het Tweakers-testlab, dat met de kaart aan de slag gaat. Daarnaast heeft Nvidia bekendgemaakt wanneer de reviews van de RTX 3080 gepubliceerd mogen worden.

De Founders Edition van de RTX 3080 heeft een compleet andere koeler dan de referentiemodellen van de vorige generatie. De twee ventilatoren zijn aan weerszijden van het koellichaam geplaatst, waarbij de buitenste ventilator dankzij de zeer korte printplaat letterlijk door de videokaart heen blaast.

Nvidia GeForce RTX 3080 Founders Edition eigen foto

Ongeveer in het midden van de koeler zit een schuin geplaatste 12-pinsstroomconnector, per stuk beduidend kleiner van formaat dan bij de traditionele peg-stekkers. Een adapter naar twee standaard peg8-connectors wordt meegeleverd in de doos van de Founders Edition. Voor zover bekend zullen de meeste custom modellen van fabrikanten als Asus, Gigabyte en MSI gewoon reguliere aansluitingen gebruiken.

In zijn geheel neemt de videokaart twee uitbreidingsslots in beslag, terwijl hij met een lengte van 28,5cm net iets groter is dan de 26,7cm van de RTX 2080 en RTX 2080 Ti. In vergelijking met de RTX 3090, die een week later uitkomt, houdt Nvidia het bij de RTX 3080 echter nog alleszins beschaafd. De RTX 3090 heeft namelijk een drieslotskoeler en meet ruim 31cm in de lengte.

Hoewel de RTX 3080 pas vanaf donderdag 17 september in de winkels ligt, verschijnen de reviews van de nieuwe videokaart al op woensdag 16 september. Om precies te zijn om drie uur 's middags zal Tweakers de bevindingen op basis van zeer uitgebreide benchmarks publiceren. Eerder publiceerden we al een preview van de Nvidia RTX 3000-videokaarten.

Update, zaterdag 12 september: Nvidia heeft het reviewembargo van de RTX 3080 Founder's Edition opgeschoven naar woensdag 16 september om 15:00 uur. Dit artikel is hierop aangepast.

Door Tomas Hochstenbach

Redacteur componenten

10-09-2020 • 15:00

319 Linkedin

Reacties (319)

-13190308+1139+218+33Ongemodereerd122
Wijzig sortering
Wel graag op 2k 4k en 8k testen. En graag de games als Dayz, GTA 5, COD, RDR 2, en de nieuwe
Microsoft Flight Sim.

Have Fun
Ultrawide 1440p mag ook altijd.
Dus we hebben dit,

Airflow,
Temps van cpu en vga
Temps van de chipset als je een riser kabel gebruikt
De nieuw software trucjes raytracing ect
Alle resoluties, (geen koppel/verloopstukken gebruiken bij het testen van 8k hdmi naar displayport kabel) gebruiken.
VR
Pci-e 3.0/ 4.0 x8 en x16
Games: Dayz, GTA 5, COD, RDR 2, Microsoft Flight Sim, Forza Horizon 4, DCS World
video encoding
cpu: 8700k, 9600k, 3600x, 3900x, 10850k, 3950x
Overclocking van de kaart
stroomverbruik
1080ti vs 2080 ti vs 3080

@Tomas Hochstenbach
En graag wat VR testjes (vooral racesims, want die zijn wat zwaarder voor je systeem)
En iets in VR. Enkele simracing titels of DCS World o.i.d.
+ als het mogelijk is de 1080(ti) meenemen.
ik zou ook graag wat video encoding testjes willen zien.
Waarom zou je games testen met een 3080 die je zelfs nog met een aardappel kan runnen in 4k en 120fps
Hahahaha, exact mijn gedachte
Graag in jullie benchmarks de GTX1080 TI opnemen, heel veel mensen gebruiken die nog en als er echt zoveel verbetering is kan ik zelf ook overtuigd worden deze te kopen :-)
Ja, helemaal mee eens, graag de gtx1080ti meenemen in het vergelijk!!! Zeer benieuwd naar de resultaten.
Eén nadeel. De cooler kan slecht open. Volgens Nvidia PR is de kans groot dat je cooler beschadigt als je hem open maakt. Dat meldt JayzTwoCents tenminste: https://youtu.be/zxJDdRgs7Lw?t=814

Het probleem is dat je de koelpasta dan niet kan vervangen als die is uitgedroogd. Mijn 1080ti was onlangs throttlelend 87 graden en na nieuwe pasta 75 graden.
Eerst maar eens een echte teardown afwachten. Bij de 20-series Founders Edition had GamersNexus een goeie video hierover gemaakt. Helaas veel lijm daar, hopelijk dit keer niet.

Uitingen van PR mensen zijn vaak dingen om links te laten liggen tot er echte cijfers/testen naar voren komen. Kan ook best een tactiek zijn om te ontmoedigen om 'm alvast open te maken. Al denk ik dat de NDA dat wel afvangt. Als het tenminste allemaal waar is, kan ook een poging zijn om in het nieuws te komen. "Reviewer JayzTwoCents claimt etc". Afwachten tot de 14 dus :)
Ja die video van GamersNexus was echt interessant... die koeler van Nvidia FE kaarten was écht een gedrocht.
Eerlijk gezegd verwacht ik niet veel anders van dit nieuwe ontwerp maar ik zal zeer zeker met plezier de teardown van GN afwachten. :)

Wat ik me overigens érg afvraag is of boardpartners voor de 3090 ook zo'n enorm grote 3-slot koeler ontwerp gaan hanteren als de Founders Edition of of zij het wél in een 2-slot ontwerp (of wellicht waterkoel kaarten?) ontwerp kunnen proppen met acceptabele thermals.

Meeste moederborden zijn ontworpen met 2-slot koelers in gedachte dus het lijkt mij érg ruk om een heel x16 slot op te moeten offeren om een 3090 erin te kunnen plaatsen... of wellicht gaan er moederborden uitkomen specifiek ontworpen voor de 3090 met 3 slot spacing tussen het 1e en '2e' PCI-E slot?...

[Reactie gewijzigd door Ayporos op 10 september 2020 19:07]

Bwa dat is niet echt hoe zijn kanaal in elkaar zit, if it's bad it's bad and if it's good it's good bij hem, zelf al zou hij een fout maken, meestal komt er dan later een "i was wrong and this is why video."
Er is ongelooflijk veel geschreven over koelpasta, en 8 graden verschil alleen door nieuwe pasta lijkt me erg sterk. Denk eerder dat je veel stof hebt verwijderd.
De oude koelpasta was uitgedroogd, het leek wel klei: https://i.imgur.com/03XEViU.jpg
Vervang je koelpasta maar eens met Liquid metal, was een daling van +15° voor mijn goede oude 3770k (inclusief delid en ook Liquid metal tussen die en IHS)
8 graden verschil kan zeker, oude uitgedroogde goedkope pasta versus nieuw verse goede pasta kan zeker 8 graden schelen, heb het zelf vaker gezien, en dat was geen stof.
Dat is dan ook iets dat normaal gesproken niet nodig is.. Ik heb in de bijna 30 jaar dat ik nu met PC hardware bezig ben nog nooit een videokaart gehad waarvan ik de koelpasta moest vervangen.. Wel heb ik ooit eens zelf een custom koeler geïnstalleerd, maar dat is echt lang geleden, toen het nog relatief kleine fan koelers waren..

Grootste nadeel voor mij is de plaatsing van de 12-pin voedingsaansluiting, zo bovenop.. Die zit dus altijd in het zicht.. Niet dat het mij persoonlijk boeit, maar dat zal voor mensen met een open kast anders zijn denk ik.. Maar een echt groot probleem is het niet, er komen zat custom modellen uit met andere koelers en aansluitingen, dan koop je gewoon een van die.. Voor een reference kaart is dit best een mooie.. Als het dan ook nog goed koelt en niet teveel lawaai maakt.. Ik ben benieuwd naar de test resultaten..

[Reactie gewijzigd door Inflatable op 10 september 2020 20:09]

Ik heb dat al heel vaak meemaakt, meestal rond het 2 a 3 jaar punt in de 10xx serie, met kaarten van alle merken.
Ik had met mijn RTX 2070 Super ook na een jaar al temperaturen die een stuk hoger leken te worden (83-84 graden met bijbehorende lawaai).

Heb toen de koelpasta vervangen. Resultaat? Maximale temperatuur is gezakt naar 74-75, met een stuk lagere fan speed.

Ik moet eerlijk zeggen dat ik voorheen niet eerder de noodzaak heb gevoeld om de koelpasta van mijn videokaart te vervangen maar ook bij mijn 20xx serie kaart bleek dit dus nodig te zijn. De originele koelpasta vanuit de fabriek was een erg dunne laag en voelde aan als harde klei.
Yup, mensen die zeggen dat het niet nodig is hebben gewoon hun temps niet in de gaten gehouden.
Misschien, maar dat is dan toch meer uitzondering dan regel. Heb kaarten van elk soort en elke fabrikant in de 10xx serie door m'n vingers gehad, en bij de meeste was het een ding, ook bij de echte high-end varianten.
Nouja, wat is "normaal gesproken niet nodig"?

Er zijn nou eenmaal aardig wat kaarten die, tenzij je daar nogal voor waakt, makkelijk 80+c aan zullen gaan tikken en het is zo dat voorbij dat punt eigenlijk alle pasta's sneller uitharden (en dus de efficientie van de pasta verder omlaag gaat) dan wanneer de kaart eerder rond 60c of lager uitkomt.

Vragen zijn onder andere of je moet wachten tot het onderdeel stopt met functioneren of een prestatieverlies van 5-10% al marges mogen zijn om te handelen. Met hoe veel (voornamelijk) GPU's de afgelopen jaren steeds vaker boosten tot ze 80+c aantikken, of in het andere uiterste zo lang mogelijk uitstellen de fans te laten gaan lopen om noise tegen te gaan lijkt het simpelweg nu vaker zo dat de pasta's deze temperaturen zullen behalen. Hierdoor is kan het zijn dat na 1-3 jaar de gpu minder zal boosten of de fans harder laat lopen :)

Ik heb nu een 5700xt nitro+ en als ik die goed doorfok is het makkelijk te behalen dat na langere duur de gpu bijna 85-90c zal halen met 102-105c op de heetst gemeten cores, vergelijkbare effecten zag ik ook o.a. bij 1080Ti's (die lijken dan een temperature-target rond 82-5c te hebben voor boost) en voorheen m'n reference 290x die zelfs een temperature-target van 95c hadden volgens de stock bios.

Worst-cases ben ik het meest bij laptops tegen gekomen, als er dan eentje binnenkwam met enorme throttling en cpu die steevast 90+c voor langere tijd heeft aangetitk is pasta wel eens zo hard geweest dat het moeilijk te verwijderen was, dit was zeker een ding bij sommige van die strakwitte pasta's.
Normaal gesproken betekent gewoon dat veruit de meeste mensen nooit de koelpasta van hun videokaart hoeven vervangen in de tijd dat ze die kaart gebruiken.. Lang niet iedereen is ook bezig met altijd de laagste temperaturen en maximale kloksnelheden/prestaties.. Natuurlijk zijn er gevallen waar het wel nodig is omdat een te slechte koeling artifacts of zelfs crashes veroorzaakt, maar die defecten zijn dus niet de norm..

[Reactie gewijzigd door Inflatable op 11 september 2020 03:45]

Slecht ontwerp dan.

Net als mijn Intel NUC op de zolder kamer, is ook met geen mogelijkheid uit elkaar te krijgen om koelpasta te vervangen.
Ik heb mn ps4 ontdaan van fabriekspasta toen de fan heel luid werd (momenteel trouwens weer maar nog even wachten en dan nieuwe hardware 😁).

Ik merkte duidelijk dat met nieuwe pasta de fanspeeds kelderde en het geheel een fijnere ervaring is om games te spelen in de woonkamer.

Misschien dat het niets uitmaakt als je net nieuwe hardware hebt maar na een paar jaar is het verschil duidelijk merkbaar.
Ik kan dit bevestigen; ik heb een console reparatiebedrijf en met name bij de PS4 Pro zorgt het vervangen van de fabriekspasta ervoor dat de fan stukken stiller is, zelfs soms bij apparaten die slechts een paar weken oud zijn.
Sony gebruikt absoluut inferieure koelpasta die ik dan vervang met Arctic Silver 5.
Toevallig is dat dezelfde pasta die ik erop heb gedaan. Hopelijk heeft de ps5 betere pasta.
Voor de mensen die echt niet meer kunnen wachten op een benchmark van maandag 14 september 15:00
Hier een aantal screenshots en benchmarks in 3D Mark

25% tot 45% sneller dan een 2080 Ti

[Reactie gewijzigd door King Dingeling op 10 september 2020 16:06]

Laat ik even eerlijk zijn: Ik had beter verwacht kijkend naar de grootse cijfers die vorige week rondgingen.
* 2080 Super
=====
* 2080TI = +- 25% sneller dan de 2080.
* 3070 =+- gelijk aan een 2080TI.
=====
* 3080 =+- 25 a 45% sneller dan de 2080TI past perfect in de schaal van 3070 + 30%. Als je de graphics vergeleek, was de 3080 +- 20% a 40% ( afhankelijk van de titel ) sneller dan de 3070.

M.a.w, je moet de nummer samenvoegen 25% + ( omhoog schalen van die nummers 25 a 45% want het is niet puur 25 + 25 a 45%, je basis getal is hoger voor de 2de berekening ).

Komt er op neer dat 2080 => 3080 marge van vorige week met 60 a 80% vrij accuraat is.

Het verschil tussen de 3070 ( gelijk aan een 2080TI ) en 3080 is 5.888 => 8.704 cores ( 50% meer cores ) en een hogere bandbreedte. Maar meer cores betekend niet dat 50% meer cores gelijk is aan 50% meer performance. Er zijn andere componenten dat beperkingen kunnen zijn ( zeker omdat de cores nu eigenlijk stripped down zijn )

Voeg daar nu eens bij Prijs:

Vergeet niet dat de 2080TI een 1200 Euro kaart was.

2080TI = 1200 Euro
3070 = 499 Euro? = Prestaties van 2080TI
3080 = 699 Euro? = 25 a 45% sneller dan 3070/2080TI voor bijna de helft van de prijs van de 2080TI. Lijkt me een goede deal.

Nu, voor iemand zoals mij, dat van een 1070 komt, dan is iets zoals de 3070 een massive upgrade, zeker als je dan nog een toegang krijgt tot DLSS, wat een gratis performance boost kan zijn van 5 tot 50%. De lijst met DLSS titels begint mooi te groeien.
MSRP 1070; 379 dollar
MSRP 1080; 599 dollar
MSRP 1080ti; 699 dollar

MSRP 3070; 499 dollar
MSRP 3080; 699 dollar

OK, een verschil van 120 dollar dan (wat vaak 1:1 naar euros gezet word ivm belasting etc.), voor dezelfde performance increase die we VOOR Turing gewoon elke generatie hadden. Nou is volgens mij, kijkend naar mijn salaris, de inflatie niet 30% geweest in de afgelopen 4 jaar.
Je blijft maar met de Amerikaanse MRSP strooien terwijl alle grafieken laten zien dat dit alleen maar theoretisch geneuzel is.
De GTX1070 was gewoon 480~500 voor een standaard versie, en zelfs de budget versies zijn 450~ (met een uitschieten naar onder toen de euro tijdelijk naar 1,24 dollar piekte).
Kijk je echter naar de preorder prijzen van de 3080 en 3090, dan zie je dat die zowaar wel rond de MRSP liggen. Het is dus goed mogelijk dat de 3070 voor ons ook 500 gaat kosten en daarmee dus in praktijk ongeveer even duur is als de 1070.
Performance per watt gaat omhoog, performance per euro stijgt minder snel? Dat zou ik persoonlijk de meest interessante vergelijking vinden bij videokaarten :P

Edit: ik bedoel dus ten opzichte van de introductiedatum van de vorige generatie. Ik vraag me dus af of fabrikanten gieriger worden.

[Reactie gewijzigd door Kastermaster op 10 september 2020 18:08]

In het 1e jaar van de GTX1070 was de marktprijs toch wel iets rond ~ 520 euro. Dus op zich lijkt het erop dat RTX3070 niet zoveel duurder is geworden, vraag is alleen of de markt de RTX3070 gelijk of hoger dan de adviesprijs gaat aanbieden.

In ieder geval lijkt t erop dat de RTX3000 tenminste wel een upgrade is, als een GTX1070 gebruiker vond ik de RTX2000 series maar tegen vallen kleine upgrade, hoge prijs.

Nu maar eens kijken of de RTX3000 wel een beetje goed beschikbaar zal zijn
62% beter dan de 2080 Super gemiddeld en 70-80% met DLSS in de geteste games. Met wat optimalisaties de komende weken / maanden zijn de claims van Nvidia juist. Als de cijfers kloppen.
Die zullen echt wel kloppen anders ga je als bedrijf enorm nat en krijgt je alleen maar negatieve publiciteit..
Ik heb een GTX1080, word een flinke upgrade..
Dit ligt toch in lijn met die cijfers?
Over de 2080Ti, he. Die is al 25% sneller dan een gewone 2080.
Dus als een gewone 2080 een score van 80 heeft, heeft een Ti een score van 100.
En de 3080 scoort dan tussen 125 en 145. Vergelijk dat even met de score van 80 van de gewone 2080.
Da's 56-81% meer.
Het is 3Dmark, dat kun je niet echt vergelijken met games.
Je hebt voor ~€500 straks een 3070, die gelijk presteert met een 2080Ti van meer dan €1000. De prijs/prestatie is dus in één klap gehalveerd. Dat is echt flink.
Dat had je toch kunnen weten dat je die pr cijfertjes met een korreltje zout moet nemen?
Ik weet nog de geruchten van de vega64, die zou sneller worden dan de 1080ti :+
Wat zij voor het gemak overslaan, maar bron VideoCardz er wel bij heeft staan:

"It is worth noting that this channel has already been caught using fake review samples and publishing a review earlier (they hid the name of the Ryzen processor). This time leakers do not show any review sample, so we cannot confirm if they really tested the card. Either way, take the results with a grain of salt."
Is de VirtualLink connector gewoonweg verdwenen? Sinds de 20 series heb ik er niks meer van gehoord.
HWI had van de week een stuk over de virtual link, en ja de standaard is inderdaad overleden.

https://nl.hardware.info/...ets-lijkt-dood-te-bloeden
Zeer jammer. Het had naar mijn inzien wel enigszins interessant geleken om ipv 3 kabels er maar slechts 1 te gebruiken voor je headset. Maar ach.
Koppel je je headset elke keer los dan? Anders maakt het weinig uit.

En misschien dat in de toekomst DP of HDMI het alsnog direct voor elkaar krijgen.
Jep. AMD heeft zich vorig jaar ook al niet aan de afgesproken standaard gehouden dus ik vrees dat die dood is. :(
Die datum op dat verloopstekkertje is wel interessant: 20/07/02
Twee maanden geleden in massaproductie gegaan? Toch knap dat de leaks dan vrijwel weg blijven!
Volgens mij waren er al langer leaks dat Nvidia overstapt op 12pin. Dat de stekker twee maanden geleden in massaproductie is gegaan betekent niet dat de gpu dat ook is.
Waarom hebben de meeste videokaarten maar 1 hdmi aansluiting en wel een hele zooi displayport?
paar redenen.
Omdat je een displayport altijd kan omzetten naar hdmi (omdat displayport een hogere bandbreedte aan kan, en je dus nooit op maximale resolutie/frame rate inlevert als je dat doen. wat wel het geval kan zijn de andere kant op)
omdat voor HDMI royalties moeten worden afgedragen.
omdat Displayport de standaard is voor monitoren.
In dit geval kun je die DisplayPort (niet 2.0) niet omzetten in een HDMI 2.1 want die HDMI 2.1 kan een stuk meer.
Dit is een founders edition. De uiteindelijke vendors zullen er wel wat meer HDMI poorten bij prikken.
Spannend! Ik ben razend benieuwd hoe de prestatieclaims van Nvidia zich vertalen naar onafhankelijke, diversere en meer realistische benchmarks.
Dat is alleen relevant als Tweakers ook gaat testen met OC.
En verbuik niet dan?

Als je kaart weinig voltage nodig heeft om bepaalde clocks te halen verbruikt hij gewoon minder stroom dan een eenzelfde kaart die meer spanning nodig heeft voor dezelfde clocks te halen.

Met een cherrypicked kaart (goed gebint met lage voltages) heb je dus als voordelen los van het overklokken:
  • Lager verbruik
  • Minder warmte ontwikkeling
  • Minder lawaai van de koeler
  • Hogere efficiëntie performance/wat
  • Max turbo snelheden
  • Max turbo langere tijd kunnen aanhouden
En ja, ze clocken waarschijnlijk ook nog verder over, maar al de bovenstaande punten helpen gewoon mee in de standaard review hoor.
Interessant!
Zijn er ook reviewers die enkele maanden na de release bv 10 willekeurige kaarten testen hoe groot de standaardafwijking is?
Als je 10 kaarten test komen ze ook niet allemaal op exact dezelfde boosts uit hoor (en daarmee dus ook niet op dezelfde score), dus cherrypicked kan zeker wel wat uit maken.

De kaarten OCen zichzelf eigenlijk (dat is wat die boost is), afhankelijk van de omstandigheden (temp + max verbruik). Dus je hebt gelijk dat het bij OC uit maakt, maar dat doet de kaart dus voornamelijk zelf, en daarom maakt het dus out-of-the-box wel degelijk uit en niet pas nadat jij handmatig OCed :)

Een goed gebinnede chip is dus koeler en heeft minder voltage nodig om dezelfde boost te krijgen, wat dus resulteert in hogere boost-snelheid. Uiteraard heb je het niet over 10tallen procenten winst maar het kan best een paar procent schelen...

[Reactie gewijzigd door watercoolertje op 10 september 2020 15:58]

Dat kan rustig een paar procent schelen, fps kan je moeilijk over praten want de ene game haalt 60 fps, de andere 350fps :)
Dit is zeker waar op performance gebied - Nvidia garandeert dat hij bepaalde clocks haalt, dus stock performance moet 100% representatief zijn.

Ik vraag me wel af of de koeling het makkelijker heeft bij een kaart die relatief goed presteert (al hoor ik dat review samples vaak juist niet zo heel goed zijn omdat het vroege versies zijn), of dat ook dat alleen bij OC gaat helpen.
Van 1800 naar 2000 MHz is misschien 10% maar hiermee haal je niet 10 % meer performance. Ik kan mijn videokaart ook overclocken in die trend maar dat scheelt hooguit enkele FPS. Daarnaast staat de fanspeed van de meeste videokaarten op max 50% ongeveer? Als ik de mijne handmatig op 100% zet waardoor de temp.onder full.load van 82 naar 60 graden zakt clocked de videokaart niet onbeperkt naar boven bij.

[Reactie gewijzigd door sygys op 10 september 2020 16:06]

Meestal zijn reviewerkaarten juist slechter dan de normale, omdat daarvoor een pre-release batch gpu's voor worden gebruikt. Het maken van gpu's wordt steeds meer verfijnd voor hogere yields/stabiliteit, en dus theoretisch ook betere clocks voor nieuwere kaarten.
Waarom zouden deze slechter zijn? De controle op deze pre-release batch voor reviewers zijn vaak veel beter dan die vanuit de latere batch. Vandaar dat er ook veel Youtube kanalen zijn waarbij men producten gewoon vanuit de winkels test en niet de producten die ze door de fabrikanten toegestuurd krijgen.

Welke bedrijf zal slechtere producten sturen naar de media die over hun schrijft dan wat er in de winkels ligt 8)7

Daarbij worden er vaker mindere kwalitatieve producten geproduceerd wanneer de volledige productiecapaciteit wordt gebruikt. Hierbij is de foutmarge namelijk veel hoger en de controle veel minder. Iedereen die in een productiebedrijf werkt of heeft gewerkt die zal hetzelfde zeggen, ik zou niet weten waarom Nvidia een uitzondering hier op zal zijn.

Edit: Je hebt natuurlijk gelijk dat na maanden of een jaar de productieprocessen vaak nog beter geoptimaliseerd zijn. Maar dit geld niet de eerste weken.

[Reactie gewijzigd door Andyk125 op 10 september 2020 15:56]

Zo kort voor de release geloof ik er niks van dat dit een andere batch is dan in de winkel komt te liggen.

Maar het maakt wel degelijk uit of de chip uit het midden van de wafer komt of de zijkant, preproductie-batch of niet, dus er valt wel degelijk te cherrypicken (de zuinigste chips aan reviewers geven).

[Reactie gewijzigd door watercoolertje op 10 september 2020 15:47]

is ie dan meer dan 100% stabiel 8)7

cherry picked of niet een kaart op de zelfde voltages en zelfde chip en zelfde koeling zal als hij geen defecten heeft met een extreme minimale marge verschil maken.
Dat zal je nog behoorlijk tegenvallen zelfs chips die in de wafer naast elkaar zaten kunnen een lekstroom verschil hebben die in de tientallen procenten loopt.

Vroeger jaagden we op bepaalde batchcodes omdat deze verder overclocken dat waren niet nieuwere of oudere batches maar batches waarbij alles toevallig goed samenviel.

Ook bij processors zie je dit waarbij cpu a 120 watt verbruikt en de ander 145 zelfde chip maar minder lekstroom met minder hitte als gevolg.
Stock is een ruim begrip met de huidige gpus die dynamische clocken aan de hand van bepaalde variabelen
Vaak zijn die 'onafhankelijke' reviews ook slecht uitgevoerd.
Leuk zo'n adapter hangend in je kast.
Veel producenten van modulaire voedingen hebben aangegeven dat je een 12 pins kabel kan kopen/aanvragen als je niet met adapters wil werken. Heb echter nog niet gevonden of het dus kopen of aanvragen is.
Op de website van Corsair staat dat ze de kabel rond 17 september los gaan aanbieden. https://www.corsair.com/u...pare-for-nvidia-30-series

In hun shop zie ik dat ze losse (gekleurde) kabels voor $29.99 aanbieden, dus ik zou zoiets verwachten.
Wat een absurd hoge prijs voor één kabeltje...
Het bijgeleverde kabel is dusdanig kort en stug dat het er niet uitziet als je een venster hebt in je kast.
dan maak je je venster toch gewoon dicht, problem solved :P
Voor een kaart van 700 euro kun je natuurlijk niet een netjes zwart gesleevd kabeltje van een paar euro meeleveren...
Ben ik nu de enige die zich afvraagt waar we naartoe gaan met het energieverbruik van grafische kaarten? Van 250 Watt maar 320 Watt. Dat is bijna een toename van 30%. Is meer spektakel op het scherm dit allemaal wel waard, en hoever willen we daarin gaan?
Toch is de efficiëntie toegenomen. Kijk naar een 3070 die met een TDP van 220W naar verluidt op het prestatieniveau van de 2080 Ti uitkomt, een verbetering van 13%. Ik ben vooral benieuwd naar de headroom voor undervolten. Pascal en Turing laten zich over het algemeen zeer goed undervolten. Zo liep mijn 1060 op 875 mV en mijn 1660 Super op 900 mV, t.o.v. 1100 mV op stock settings, bij gelijke (en soms zelfs betere) kloksnelheden.
De 3080 komt zelfs nog iets beter uit de bus dan de 3070. Gemiddeld 68% hoger prestatieniveau dan de 2080 Super, tegen een 28% hoger verbruik (320W t.o.v. 250W). Da's een efficiëntieverbetering van 20%. De FE's zitten altijd netjes op hun TDP onder load.

Maar goed, de kracht van Ampere zit 'm ook niet zozeer in de efficientiëverbetering t.o.v. Turing (alhoewel die er dus wel degelijk is!), maar veel meer in de verbeterde prijs/prestatieverhouding en in de verbeterde ray tracing prestaties.
Dat performancepercentage van 68% moet ik nog bewaarheid zien worden in de benchmarks straks (14 september). Ik vraag me echt af of dat een reëel getal zal blijken. Zo niet, dan is de performance per watt verbetering een stuk slechter dan 20% en dat is dan ook wat ik verwacht.

Ik begrijp je berekening van de 20% efficiency-verbetering trouwens niet.

[Reactie gewijzigd door choogen op 10 september 2020 20:22]

Interessante vraag maar helaas wel de realiteit die hoort bij meer performance (doorgaans). Als ik een snellere brandstofauto wil, rijdt deze ook minder zuinig. Een nieuwe architectuur (bijvoorbeeld een auto die elektrisch) kan misschien netto wel efficienter zijn maar ook daarvoor geldt: beter is minder zuinig.

Overigens is die 320 watt het verbruik die hij nodig heeft bij het leveren van maximale prestaties (een hele zware game draaien of video renderen). Als jij gewoon in Windows wat zit te browsen zal deze nauwelijks meer stroom verbruiken (enkele watts) t.o.v. bijvoorbeeld een GTX1060.

Als je uitgaat van 3 uur per dag het maximale uit je kaart trekken is dat bij een maand van 30 dagen:
330 watt: ((3x30x330)/1000)x0,22= 6,50 euro
250 watt: ((3x30x250)/1000)x0,22= 4,95 euro
scheelt je dus 1,55 euro aan stroom per maand uitgaande van veel en intensief gebruik.

[Reactie gewijzigd door Jorissie87 op 10 september 2020 16:37]

Bizarre ontwikkeling inderdaad, over 10 jaar GPU'S die 1000 watt gebruiken, want ze moeten 16k games aankunnen?
1 2 3 ... 9


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True