Nvidia GeForce RTX 3080 arriveert in Tweakers-testlab - update

De Nvidia GeForce RTX 3080-videokaart is gearriveerd in het Tweakers-testlab, dat met de kaart aan de slag gaat. Daarnaast heeft Nvidia bekendgemaakt wanneer de reviews van de RTX 3080 gepubliceerd mogen worden.

De Founders Edition van de RTX 3080 heeft een compleet andere koeler dan de referentiemodellen van de vorige generatie. De twee ventilatoren zijn aan weerszijden van het koellichaam geplaatst, waarbij de buitenste ventilator dankzij de zeer korte printplaat letterlijk door de videokaart heen blaast.

Nvidia GeForce RTX 3080 Founders Edition eigen foto
Nvidia GeForce RTX 3080 Founders Edition eigen fotoNvidia GeForce RTX 3080 Founders Edition eigen foto

Ongeveer in het midden van de koeler zit een schuin geplaatste 12-pinsstroomconnector, per stuk beduidend kleiner van formaat dan bij de traditionele peg-stekkers. Een adapter naar twee standaard peg8-connectors wordt meegeleverd in de doos van de Founders Edition. Voor zover bekend zullen de meeste custom modellen van fabrikanten als Asus, Gigabyte en MSI gewoon reguliere aansluitingen gebruiken.

Nvidia GeForce RTX 3080 Founders Edition eigen foto

In zijn geheel neemt de videokaart twee uitbreidingsslots in beslag, terwijl hij met een lengte van 28,5cm net iets groter is dan de 26,7cm van de RTX 2080 en RTX 2080 Ti. In vergelijking met de RTX 3090, die een week later uitkomt, houdt Nvidia het bij de RTX 3080 echter nog alleszins beschaafd. De RTX 3090 heeft namelijk een drieslotskoeler en meet ruim 31cm in de lengte.

Nvidia GeForce RTX 3080 Founders Edition eigen foto

Hoewel de RTX 3080 pas vanaf donderdag 17 september in de winkels ligt, verschijnen de reviews van de nieuwe videokaart al op woensdag 16 september. Om precies te zijn om drie uur 's middags zal Tweakers de bevindingen op basis van zeer uitgebreide benchmarks publiceren. Eerder publiceerden we al een preview van de Nvidia RTX 3000-videokaarten.

Update, zaterdag 12 september: Nvidia heeft het reviewembargo van de RTX 3080 Founder's Edition opgeschoven naar woensdag 16 september om 15:00 uur. Dit artikel is hierop aangepast.

Nvidia GeForce RTX 3080 Founders Edition eigen fotoNvidia GeForce RTX 3080 Founders Edition eigen fotoNvidia GeForce RTX 3080 Founders Edition eigen fotoNvidia GeForce RTX 3080 Founders Edition eigen fotoNvidia GeForce RTX 3080 Founders Edition eigen fotoNvidia GeForce RTX 3080 Founders Edition eigen fotoNvidia GeForce RTX 3080 Founders Edition eigen fotoNvidia GeForce RTX 3080 Founders Edition eigen foto

Door Tomas Hochstenbach

Redacteur

10-09-2020 • 15:00

316

Reacties (313)

313
308
139
18
3
122
Wijzig sortering
Wel graag op 2k 4k en 8k testen. En graag de games als Dayz, GTA 5, COD, RDR 2, en de nieuwe
Microsoft Flight Sim.

Have Fun
Ultrawide 1440p mag ook altijd.
Dus we hebben dit,

Airflow,
Temps van cpu en vga
Temps van de chipset als je een riser kabel gebruikt
De nieuw software trucjes raytracing ect
Alle resoluties, (geen koppel/verloopstukken gebruiken bij het testen van 8k hdmi naar displayport kabel) gebruiken.
VR
Pci-e 3.0/ 4.0 x8 en x16
Games: Dayz, GTA 5, COD, RDR 2, Microsoft Flight Sim, Forza Horizon 4, DCS World
video encoding
cpu: 8700k, 9600k, 3600x, 3900x, 10850k, 3950x
Overclocking van de kaart
stroomverbruik
1080ti vs 2080 ti vs 3080

@Tomas Hochstenbach
En graag wat VR testjes (vooral racesims, want die zijn wat zwaarder voor je systeem)
+1
Benchmarks in VR zie ik inderdaad zelden :'(
En iets in VR. Enkele simracing titels of DCS World o.i.d.
+ als het mogelijk is de 1080(ti) meenemen.
ik zou ook graag wat video encoding testjes willen zien.
ik zou ook graag wat video encoding testjes willen zien.
.

Ja ik ook wel eigenlijk.
DayZ? Wordt dat uberhaupt nog gespeeld?

Een CSGO of Dota2 lijkt mij beter.
Waarom zou je games testen met een 3080 die je zelfs nog met een aardappel kan runnen in 4k en 120fps
Hahahaha, exact mijn gedachte
Ik denk dat het altijd zinvol is om de meest gespeelde games te testen. Games testen die alleen de eerste maand na release echt veel gespeeld worden en daarna amper nog aangeraakt worden heeft ook niet heel veel zin.

Wat dat betreft vind ik het altijd ook jammer dat er vaak veel AAA games getest worden die vaak maar redelijk beperkte periode populair blijken te zijn.
Wel eens LinusTechTips gekeken? CSGO wordt bijna overal ook gebenchmarked, juist omdat het zo'n lichte game is.
Ik ben benieuwd of de FS2020 iets gaat opleveren. Dit is nog geschreven in dx 11???
Vooral de nieuwe microsoft flight simulator ben ik heel erg benieuwd naar ja!
want je hebt een 8k monitor?
Wauw, dan moet je wel heel dichtbij gaan zitten op dat formaat. Maar goed, lijkt me meer iets voor een RTX 3090. Sowieso wel interresant om in benchmarks te gaan zien.

[Reactie gewijzigd door nullbyte op 24 juli 2024 18:57]

Graag in jullie benchmarks de GTX1080 TI opnemen, heel veel mensen gebruiken die nog en als er echt zoveel verbetering is kan ik zelf ook overtuigd worden deze te kopen :-)
Ja, helemaal mee eens, graag de gtx1080ti meenemen in het vergelijk!!! Zeer benieuwd naar de resultaten.
Ja idd. Zowiezo de 2 voorgaande generaties meenemen aangezien veel mensen niet upgraden naar elke nieuwe generatie.
Eén nadeel. De cooler kan slecht open. Volgens Nvidia PR is de kans groot dat je cooler beschadigt als je hem open maakt. Dat meldt JayzTwoCents tenminste: https://youtu.be/zxJDdRgs7Lw?t=814

Het probleem is dat je de koelpasta dan niet kan vervangen als die is uitgedroogd. Mijn 1080ti was onlangs throttlelend 87 graden en na nieuwe pasta 75 graden.
Eerst maar eens een echte teardown afwachten. Bij de 20-series Founders Edition had GamersNexus een goeie video hierover gemaakt. Helaas veel lijm daar, hopelijk dit keer niet.

Uitingen van PR mensen zijn vaak dingen om links te laten liggen tot er echte cijfers/testen naar voren komen. Kan ook best een tactiek zijn om te ontmoedigen om 'm alvast open te maken. Al denk ik dat de NDA dat wel afvangt. Als het tenminste allemaal waar is, kan ook een poging zijn om in het nieuws te komen. "Reviewer JayzTwoCents claimt etc". Afwachten tot de 14 dus :)
Ja die video van GamersNexus was echt interessant... die koeler van Nvidia FE kaarten was écht een gedrocht.
Eerlijk gezegd verwacht ik niet veel anders van dit nieuwe ontwerp maar ik zal zeer zeker met plezier de teardown van GN afwachten. :)

Wat ik me overigens érg afvraag is of boardpartners voor de 3090 ook zo'n enorm grote 3-slot koeler ontwerp gaan hanteren als de Founders Edition of of zij het wél in een 2-slot ontwerp (of wellicht waterkoel kaarten?) ontwerp kunnen proppen met acceptabele thermals.

Meeste moederborden zijn ontworpen met 2-slot koelers in gedachte dus het lijkt mij érg ruk om een heel x16 slot op te moeten offeren om een 3090 erin te kunnen plaatsen... of wellicht gaan er moederborden uitkomen specifiek ontworpen voor de 3090 met 3 slot spacing tussen het 1e en '2e' PCI-E slot?...

[Reactie gewijzigd door Ayporos op 24 juli 2024 18:57]

Deze ga ik kopen en is 2 slots.
Waterblok erop en gaan,als hier een waterblok voor komt.....hoop ik.
pricewatch: EVGA GeForce RTX 3090 XC3

[Reactie gewijzigd door sander38 op 24 juli 2024 18:57]

Kan je niet beter wachten tot er een fabrikant met een pre-installed (custom) waterblock kaart uit komt?
Gezien het flinke stroomverbruik/hitte productie van deze kaart lijkt me dat die er toch wel komen?

Wist niet dat er al boardpartner 3090 parts in de pricewatch stonden, had nog niet gekeken. :P

Edit: dit is een EVGA waterkoeling 3090 bijvoorbeeld?
Heb zelf geen ervaring met de EVGA Hydro Copper reeks, maar van wat ik zie is dat vooralsnog de enige 100% waterkoeling optie direct van een board partner?

[Reactie gewijzigd door Ayporos op 24 juli 2024 18:57]

Nee heb alles van ekwb en wil die lijn doortrekken naar het gpu blok.
En ben meer van het zelf doen.
De EKWB website heeft de waterblokken voor de 3080/3090 er al op staan :)
Ja dat weet ik maar of ze passen is een tweede.
Even afwachten.
De XC3 is 2.2 slots.
Beter dan de meeste drie slots.
Nog steeds is dat in de praktijk 3 slots....
Haha, ja, en als je dan toch over de 2.0 heen gaat kun je beter maximaliseren naar 3 slots. Het slot ernaast heb je dan toch al niks meer aan.
True, maar met 2.2 slots heb je nog wat extra ruimte naar het 4e slot toe. Kaarten strak tegen elkaar insteken is nou ook niet echt bevordelijk voor de temperatuur ;)
Bwa dat is niet echt hoe zijn kanaal in elkaar zit, if it's bad it's bad and if it's good it's good bij hem, zelf al zou hij een fout maken, meestal komt er dan later een "i was wrong and this is why video."
Er is ongelooflijk veel geschreven over koelpasta, en 8 graden verschil alleen door nieuwe pasta lijkt me erg sterk. Denk eerder dat je veel stof hebt verwijderd.
De oude koelpasta was uitgedroogd, het leek wel klei: https://i.imgur.com/03XEViU.jpg
Vervang je koelpasta maar eens met Liquid metal, was een daling van +15° voor mijn goede oude 3770k (inclusief delid en ook Liquid metal tussen die en IHS)
Moet je bij liquid metal niet elke 3-6 maanden alles opnieuw doen?
nope, dat is een fabeltje.
8 graden verschil kan zeker, oude uitgedroogde goedkope pasta versus nieuw verse goede pasta kan zeker 8 graden schelen, heb het zelf vaker gezien, en dat was geen stof.
Sterker nog, de verschillen die ik heb gezien (als de pasta 2-3 jaar oud is) zijn nog hoger, 10-20 graden, Plus hogere boostclocks, Plus lagere fanspeeds, dus echt een enorm verschil.

Meerdere types chips, meerdere fabrikanten, allemaal hetzelfde verhaal.
Dat is dan ook iets dat normaal gesproken niet nodig is.. Ik heb in de bijna 30 jaar dat ik nu met PC hardware bezig ben nog nooit een videokaart gehad waarvan ik de koelpasta moest vervangen.. Wel heb ik ooit eens zelf een custom koeler geïnstalleerd, maar dat is echt lang geleden, toen het nog relatief kleine fan koelers waren..

Grootste nadeel voor mij is de plaatsing van de 12-pin voedingsaansluiting, zo bovenop.. Die zit dus altijd in het zicht.. Niet dat het mij persoonlijk boeit, maar dat zal voor mensen met een open kast anders zijn denk ik.. Maar een echt groot probleem is het niet, er komen zat custom modellen uit met andere koelers en aansluitingen, dan koop je gewoon een van die.. Voor een reference kaart is dit best een mooie.. Als het dan ook nog goed koelt en niet teveel lawaai maakt.. Ik ben benieuwd naar de test resultaten..

[Reactie gewijzigd door Inflatable op 24 juli 2024 18:57]

Ik heb dat al heel vaak meemaakt, meestal rond het 2 a 3 jaar punt in de 10xx serie, met kaarten van alle merken.
Ik had met mijn RTX 2070 Super ook na een jaar al temperaturen die een stuk hoger leken te worden (83-84 graden met bijbehorende lawaai).

Heb toen de koelpasta vervangen. Resultaat? Maximale temperatuur is gezakt naar 74-75, met een stuk lagere fan speed.

Ik moet eerlijk zeggen dat ik voorheen niet eerder de noodzaak heb gevoeld om de koelpasta van mijn videokaart te vervangen maar ook bij mijn 20xx serie kaart bleek dit dus nodig te zijn. De originele koelpasta vanuit de fabriek was een erg dunne laag en voelde aan als harde klei.
Yup, mensen die zeggen dat het niet nodig is hebben gewoon hun temps niet in de gaten gehouden.
Al heb ik mijn 1070 al sinds de release en heb ik de koelpasta niet vervangen.
Temperatuur op een +80mhz core overklok, en 400mhz op het geheugen gewoon tussen de 62-65 graden bij volle gaming load.
Zal wel komen dat verschillende fabrikanten verschillende pasta's gebruiken.
Misschien, maar dat is dan toch meer uitzondering dan regel. Heb kaarten van elk soort en elke fabrikant in de 10xx serie door m'n vingers gehad, en bij de meeste was het een ding, ook bij de echte high-end varianten.
Toch niet bij mijn MSI 1070 dan. Raar. Heb ik geluk dan? Ik bouw al half mijn levensduur PC's maar ik heb nog nooit last gehad van de stock koelpasta.
Er staat me ook wel bij dat ik met Gaming X kaarten een stuk minder verbetering zag, misschien toch beter spul.

Heb het nu ook weer met een EVGA 1080 Ti SC Hybrid, krijg hem nu op rond de 67C. Goed, dat is op een warme kamer en is natuurlijk een prima temperatuur, dus je zou er niks van merken, maar normaal is dat 45-55C, dus tijd om open te halen.
En waarschijnlijk heb je toen ook alle stof meteen verwijderd? O-) Temps worden niet alleen hoger door uitdrogende pasta, maar ook doordat er een deken aan stof tussen de lamellen van de koeler ophoopt.
Nee ik heb geen stof verwijderd. Het was een kaart van 1 jaar oud die in een kast zit met stoffilters en op een bureau staat. Er was amper stof te bekennen en heb dan ook niks gedaan met de koeler verder.

De gebruikte koelpasta heeft simpelweg een grote impact op de temperatuur van de videokaart. Zoals gezegd was de standaard koelpasta erg dun aangebracht en volledig uitgedroogd. Er zijn genoeg andere verhalen te vinden van mensen die flinke temperatuurverschillen hebben waargenomen na het vervangen van de koelpasta van een relatief nieuwe RTX 20xx kaart.
hoge temps hebben jullie zeg?

mijn vid 1070ti word niet warmer dan 40gr
Nouja, wat is "normaal gesproken niet nodig"?

Er zijn nou eenmaal aardig wat kaarten die, tenzij je daar nogal voor waakt, makkelijk 80+c aan zullen gaan tikken en het is zo dat voorbij dat punt eigenlijk alle pasta's sneller uitharden (en dus de efficientie van de pasta verder omlaag gaat) dan wanneer de kaart eerder rond 60c of lager uitkomt.

Vragen zijn onder andere of je moet wachten tot het onderdeel stopt met functioneren of een prestatieverlies van 5-10% al marges mogen zijn om te handelen. Met hoe veel (voornamelijk) GPU's de afgelopen jaren steeds vaker boosten tot ze 80+c aantikken, of in het andere uiterste zo lang mogelijk uitstellen de fans te laten gaan lopen om noise tegen te gaan lijkt het simpelweg nu vaker zo dat de pasta's deze temperaturen zullen behalen. Hierdoor is kan het zijn dat na 1-3 jaar de gpu minder zal boosten of de fans harder laat lopen :)

Ik heb nu een 5700xt nitro+ en als ik die goed doorfok is het makkelijk te behalen dat na langere duur de gpu bijna 85-90c zal halen met 102-105c op de heetst gemeten cores, vergelijkbare effecten zag ik ook o.a. bij 1080Ti's (die lijken dan een temperature-target rond 82-5c te hebben voor boost) en voorheen m'n reference 290x die zelfs een temperature-target van 95c hadden volgens de stock bios.

Worst-cases ben ik het meest bij laptops tegen gekomen, als er dan eentje binnenkwam met enorme throttling en cpu die steevast 90+c voor langere tijd heeft aangetitk is pasta wel eens zo hard geweest dat het moeilijk te verwijderen was, dit was zeker een ding bij sommige van die strakwitte pasta's.
Normaal gesproken betekent gewoon dat veruit de meeste mensen nooit de koelpasta van hun videokaart hoeven vervangen in de tijd dat ze die kaart gebruiken.. Lang niet iedereen is ook bezig met altijd de laagste temperaturen en maximale kloksnelheden/prestaties.. Natuurlijk zijn er gevallen waar het wel nodig is omdat een te slechte koeling artifacts of zelfs crashes veroorzaakt, maar die defecten zijn dus niet de norm..

[Reactie gewijzigd door Inflatable op 24 juli 2024 18:57]

Zelfs daarbuiten dus, kaarten gaan ook minder hard boosten.
Misschien dat een aantal mensen het niet doorheeft, maar het is niet moeilijk voor te stellen dat als iemand eerst op 4k zat te gamen ónder 60fps dat het naar verloop van tijd (merkbaar) minder wordt.

Het is niet anders dan bij een auto: ondanks dat niet elke bestuurder het direct merkt kunnen daar ook kleinere mankementen voorkomen waar de auto minder presteert dan de bedoeling zou zijn, dat merkt de bestuurder misschien niet met de boodschappenritjes/youtuben, maar op de snelweg met tegenwind dus wél.

Of een gebruiker er wat van merkt of niet verandert niks aan het feit dat kaarten zonder tussenkomst van de gebruiker naarmate tijd vordert minder gaan presteren zolang de gebruiker de kaart uberhaupt nodig heeft.

[Reactie gewijzigd door Annihlator op 24 juli 2024 18:57]

Dat is niet misschien, ik weet zeker dat veruit de meesten het niet doorhebben als hun videokaart na een tijdje minder hoog boost.. De paar fps die dat aan prestaties scheelt hebben ze niet door, sterker nog de meeste mensen weten niet eens hoeveel fps ze draaien in games.. Lang niet niet iedereen is een tweaker en/of hardcore gamer die dat soort dingen monitort, laat staan een videokaart uit elkaar gaat halen terwijl alles nog gewoon werkt..
Fout, moet je eens horen als van het een op het andere moment blijkt een game niet zo best te lopen als normaal en je gebruiker normaliter vrede had met pakweg 35-40fps GTA V en nu het consistent onder de 30 kiept het alsnog merkt. Tuurlijk de gebruiker zet tussentijds wat settings lager, maar weet ook dondersgoed dat het voorheen "wel werkte". Vandaar de analogie met de boodschappen- en snelwegrit.

Aanvullend: niemand "ziet" fps, maar inconsistentie in frametijden kunnen als zéér opvallend (en vooral in online of action-achtige omstandigheden) en storend worden ervaren.

Case-in-point was het hier een redelijk kleine behuizing met enkel een intake, altijd prima gedraaid, tot de kaart wat stoffig en met rottige koelpasta kwam te zitten, toen was de luchttoevoer toch niet afdoende. Toch is dit nogal de norm bij de gemiddelde consument die een computer gewoon aanschaft en te draaien zet: die houden zich doorgaans niet vooraf met dingen als intakes en outtakes bezig. Laat staan met of het ding op tapijt staat, die kant (de binnenkant) zien "wij" eerder ;)
Als er eenmaal zo'n feedback-loop ontstaat, kan het nógal van kwaad tot erger gaan vóór de gebruiker ons aan de mouw trekt :)

[Reactie gewijzigd door Annihlator op 24 juli 2024 18:57]

Alles kan, ook games die al op het randje van speelbaar draaide en dan opeens nog slechter draaien en dat mensen dat merken, maar dat is dus niet de norm.. Voor de 4e keer, veruit de meeste mensen gebruiken een videokaart de hele tijd dat ze hem hebben zonder enige problemen en aanleiding de koelpasta te moeten vervangen.. Kennelijk heb jij moeite dat feit te begrijpen of te accepteren want je blijft maar doorgaan met voorbeelden waaruit kennelijk zou moeten blijken dat de meeste gebruikers de koelpasta van hun videokaart moeten vervangen.. Totale onzin!
Ik ben niet degene die moeite heb dat te begrijpen; Ik ben degene die juist (ook middernacht) gebeld wordt op het moment dat het fout gaat door die gebruikers die inmiddels al op low 720p zitten en zich dán pas stellen "maar ik ben toch ook niet gek". De meeste mensen eisen namelijk (zeker als goede vrienden) niet "zomaar" jouw tijd op als ze enig idee hebben dat je dondersgoed weet waarom je iets doet op het moment dat je dat doet. Daarom tref ik steevast oude systemen aan van gebruikers die het zich botweg niet kunnen veroorloven op dat moment een voltallig nieuwe rig af te tikken. De mensen die daar het geld voor hadden hadden een nieuwe rig gekocht en de mensen die de tijd hebben kunnen het zichzelf leren; welkom bij de echte wereld, waar de mééste mensen pas hun (eigen) computer gebruiken buiten hen werkuren en elke gemiste seconde die daadwerkelijk resulteert in gemiste gametijd t.o.v. low 1080 gaat tellen: we hebben het dan eigenlijk over nogal dezelfde dingen. ookal kan de eindgebruiker het niet zondermeer op voorhanden verwoorden, ERVAREN ze in de praktijk wél de nadelen. moeilijk?

Simpel feit: de gemiddelde end-consumer's gpu tikt eerder 90c aan op het koelblok nog vóór mijn eigen ondanks oc. iets met kop en zand.

want je noemt hier de norm; moet ik de steamstats er nog bijtrekken?

Je gaat er compleet aan voorbij dat de gemiddelde (zonder dat denigrerend te bedoelen) tweaker-incompatibele gebruiker de twijfel niet maar al te snel bij zij of haarzelf stelt, echter leert de ervaring dat enkel de ervaringen van mensen zoals ons ze daar in bij kunnen sturen áls hun aanname ook maar enigszins onterecht blijkt.

Leuk dat in de praktijk niet het meerendeel volgens jouw stelling de pasta niet zou vervangen (om nog enkel bewust niet in te gaan op hoe ondetecteerbaar die AANNAME is), maar dan moet je ook al aannemen dat een 30+% prestatievermindering binnen 3 tot 4 jaar aan een gebruiker ongemerkt zouden gaan; die hebben de gpu niet nodig en dienen we onze kennis niet op te baseren.
De meeste users (in de consumer-level market) hebben nou eenmaal lang geen 2080ti en zullen dus niet zondermeer alles max-1080p knallen en zullen dús hun instellingen baseren op huidige performance, en die schaal verloopt bínnen 3 jaar, dat zijn keiharde feiten.
Ik héb nou eenmaal zelden te dealen met hardware die zo recent is, en hardware met een gemiddelde leeftijd van 2-3j, laat staan meer, kunnen het onderhoud zondermeer goed gebruiken (het achterwege laten is bovendien meer discutabel, net-zo conform het hoofdonderwerp.)

Ondanks dat een aardig aandeel van de users (bijvoorbeeld) een 970ti of 290x zou vervangen aan de hand van leeftijd, terwijl ze spelen op "maar"1080p, zou ík de persoon zijn die juist identificeert dat het oplappen van pasta en thermal-pads genoeg zou moeten zijn; jij beweert botweg dat dat nooit en te nimmer gebeurt buiten de tweakers zelve, maar dat is dus geen waarheid; áls de mensen in kwestie die tweaker maar durven aan te schieten. Net-zogoed is dat géén argumentatie om, ook maar indiriect, te stellen dat de gebruikers er geen nadeel aan kúnnen ondervinden: dan had ik mijn praktijkervaringen nimmer opgedaan.

En dan alsnog; het aantal mensen dat misleid zou worden tot het aanschaf van een nieuwe gpu ipv het onderhouden/herstellen van een huidige middels een tweaker is hét aantal mensen dat hier voordeel uit zou behalen; beiden getuigen niet van een lakendheid aan aantal mensen. Kijk maar als schoolvoorbeeld maar naar het jaarlijkse aantal mobiele telefoonverkopen t.o.v. het aantal mensen op onze aardkleaut; dat staat ook geenszins in verhouding en dus impliceert het ene verband simpelweg niet het andere.

[Reactie gewijzigd door Annihlator op 24 juli 2024 18:57]

30+% prestatievermindering na 3-4 jaar is niet normaal.. Ik ga er verder maar niet meer op in.. Succes met je koelpasta werk..

[Reactie gewijzigd door Inflatable op 24 juli 2024 18:57]

Slecht ontwerp dan.

Net als mijn Intel NUC op de zolder kamer, is ook met geen mogelijkheid uit elkaar te krijgen om koelpasta te vervangen.
Uit ervaring vervangen van fabriekspasta heeft enkel placebo effect.
Ik heb mn ps4 ontdaan van fabriekspasta toen de fan heel luid werd (momenteel trouwens weer maar nog even wachten en dan nieuwe hardware 😁).

Ik merkte duidelijk dat met nieuwe pasta de fanspeeds kelderde en het geheel een fijnere ervaring is om games te spelen in de woonkamer.

Misschien dat het niets uitmaakt als je net nieuwe hardware hebt maar na een paar jaar is het verschil duidelijk merkbaar.
Ik kan dit bevestigen; ik heb een console reparatiebedrijf en met name bij de PS4 Pro zorgt het vervangen van de fabriekspasta ervoor dat de fan stukken stiller is, zelfs soms bij apparaten die slechts een paar weken oud zijn.
Sony gebruikt absoluut inferieure koelpasta die ik dan vervang met Arctic Silver 5.
Toevallig is dat dezelfde pasta die ik erop heb gedaan. Hopelijk heeft de ps5 betere pasta.
Dat is een flink verschil, daarmee ben je haast verplicht om je pasta te vervangen. Is het niet vanwege de temps, dan is het wel vanwege geluid (koeler --> stiller over het algemeen).
Ik zie nu dat de fan "boven" de kaart naar beneden blaast ...
Dat lijkt me dus echt niet handig. Ik gebruik een setup met een RTX2070 met een oude HR03 plus die "boven" de kaart zit (zie hier een voorbeeld).
Voordeel is dat de warme lucht bij de cpu weggezogen kan worden de kast uit. Nu blaas je warme lucht naar onder, terwijl de andere ventilator naar boven en zijkant blaast ... De lucht die naar beneden geblaasd wordt zal circuleren en weer terug de GPU ingezogen worden ...
Nou nee, de fan zuigt lucht aan door de koeler van onder naar boven. Ik snap echter je verwarring, deze fan draait namelijk andersom dan 'normaal', vandaar.
Pasta maakt in het algemeen maar een graden of 2c a 3c verschil tussen de high end en low end....

Tenzij het opgedroogd is. Overigens zitten de schroefjes bii deze koeler gewoon onder afdekplaatjes. Het is te demonteren.

[Reactie gewijzigd door Sn0wblind op 24 juli 2024 18:57]

dus omdat je er zelf niets aan kan wijzigen is het een nadeel?
ik zou zeggen je hebt 2 jaar garantie, gebeurd er binnen die tijd iets gaat hij gewoon terug.

of haal jij een AIO koeler ook open om de blokken schoon te maken en de vloeistof te vervangen
Ik doe langer dan twee jaar met mijn hardware, mijn r9 390 komt uit 2014 of 2015, en loopt nog als een trein.

Koelpasta heb ik zelf al vervangen. Niet iedereen vervangt alles om de 2 jaar.
Je ververst de olie in je auto toch ook? ;)
Koelpasta moet oppervlak effen maken, is ie gedroogd, dan ontstaat er juist een maanlandschap.

Dus werkt het in je nadeel i.p.v. voordeel. Als je het onderdeel luchtdicht hebt verpakt blijft de pasta wellicht oneindig land perfect werken :*)
Voor de mensen die echt niet meer kunnen wachten op een benchmark van maandag 14 september 15:00
Hier een aantal screenshots en benchmarks in 3D Mark

25% tot 45% sneller dan een 2080 Ti

[Reactie gewijzigd door King Dingeling op 24 juli 2024 18:57]

Laat ik even eerlijk zijn: Ik had beter verwacht kijkend naar de grootse cijfers die vorige week rondgingen.
* 2080 Super
=====
* 2080TI = +- 25% sneller dan de 2080.
* 3070 =+- gelijk aan een 2080TI.
=====
* 3080 =+- 25 a 45% sneller dan de 2080TI past perfect in de schaal van 3070 + 30%. Als je de graphics vergeleek, was de 3080 +- 20% a 40% ( afhankelijk van de titel ) sneller dan de 3070.

M.a.w, je moet de nummer samenvoegen 25% + ( omhoog schalen van die nummers 25 a 45% want het is niet puur 25 + 25 a 45%, je basis getal is hoger voor de 2de berekening ).

Komt er op neer dat 2080 => 3080 marge van vorige week met 60 a 80% vrij accuraat is.

Het verschil tussen de 3070 ( gelijk aan een 2080TI ) en 3080 is 5.888 => 8.704 cores ( 50% meer cores ) en een hogere bandbreedte. Maar meer cores betekend niet dat 50% meer cores gelijk is aan 50% meer performance. Er zijn andere componenten dat beperkingen kunnen zijn ( zeker omdat de cores nu eigenlijk stripped down zijn )

Voeg daar nu eens bij Prijs:

Vergeet niet dat de 2080TI een 1200 Euro kaart was.

2080TI = 1200 Euro
3070 = 499 Euro? = Prestaties van 2080TI
3080 = 699 Euro? = 25 a 45% sneller dan 3070/2080TI voor bijna de helft van de prijs van de 2080TI. Lijkt me een goede deal.

Nu, voor iemand zoals mij, dat van een 1070 komt, dan is iets zoals de 3070 een massive upgrade, zeker als je dan nog een toegang krijgt tot DLSS, wat een gratis performance boost kan zijn van 5 tot 50%. De lijst met DLSS titels begint mooi te groeien.
Ik heb 5 dagen na release een EVGA 1070 ACX3 opgepikt voor 520 euro, dus waar haal je die 150 extra precies vandaan? Ik mocht willen dat de 1070 350 was...

[Reactie gewijzigd door Thekilldevilhil op 24 juli 2024 18:57]

MSRP 1070; 379 dollar
MSRP 1080; 599 dollar
MSRP 1080ti; 699 dollar

MSRP 3070; 499 dollar
MSRP 3080; 699 dollar

OK, een verschil van 120 dollar dan (wat vaak 1:1 naar euros gezet word ivm belasting etc.), voor dezelfde performance increase die we VOOR Turing gewoon elke generatie hadden. Nou is volgens mij, kijkend naar mijn salaris, de inflatie niet 30% geweest in de afgelopen 4 jaar.
Je blijft maar met de Amerikaanse MRSP strooien terwijl alle grafieken laten zien dat dit alleen maar theoretisch geneuzel is.
De GTX1070 was gewoon 480~500 voor een standaard versie, en zelfs de budget versies zijn 450~ (met een uitschieten naar onder toen de euro tijdelijk naar 1,24 dollar piekte).
Kijk je echter naar de preorder prijzen van de 3080 en 3090, dan zie je dat die zowaar wel rond de MRSP liggen. Het is dus goed mogelijk dat de 3070 voor ons ook 500 gaat kosten en daarmee dus in praktijk ongeveer even duur is als de 1070.
Performance per watt gaat omhoog, performance per euro stijgt minder snel? Dat zou ik persoonlijk de meest interessante vergelijking vinden bij videokaarten :P

Edit: ik bedoel dus ten opzichte van de introductiedatum van de vorige generatie. Ik vraag me dus af of fabrikanten gieriger worden.

[Reactie gewijzigd door Kastermaster op 23 juli 2024 07:54]

In het 1e jaar van de GTX1070 was de marktprijs toch wel iets rond ~ 520 euro. Dus op zich lijkt het erop dat RTX3070 niet zoveel duurder is geworden, vraag is alleen of de markt de RTX3070 gelijk of hoger dan de adviesprijs gaat aanbieden.

In ieder geval lijkt t erop dat de RTX3000 tenminste wel een upgrade is, als een GTX1070 gebruiker vond ik de RTX2000 series maar tegen vallen kleine upgrade, hoge prijs.

Nu maar eens kijken of de RTX3000 wel een beetje goed beschikbaar zal zijn
Toen ik mijn 1070 jaren terug kocht net na release was die ook gewoon 530 euro. Dat was een MSI gaming X versie geloof ik. Zie geen 150 euro verschil terug?
1070 is wel 2 generaties oud, waarom daarmee vergelijken? 770 ook anders
62% beter dan de 2080 Super gemiddeld en 70-80% met DLSS in de geteste games. Met wat optimalisaties de komende weken / maanden zijn de claims van Nvidia juist. Als de cijfers kloppen.
Die zullen echt wel kloppen anders ga je als bedrijf enorm nat en krijgt je alleen maar negatieve publiciteit..
Ik heb een GTX1080, word een flinke upgrade..
Dit ligt toch in lijn met die cijfers?
Over de 2080Ti, he. Die is al 25% sneller dan een gewone 2080.
Dus als een gewone 2080 een score van 80 heeft, heeft een Ti een score van 100.
En de 3080 scoort dan tussen 125 en 145. Vergelijk dat even met de score van 80 van de gewone 2080.
Da's 56-81% meer.
Het is 3Dmark, dat kun je niet echt vergelijken met games.
Je hebt voor ~€500 straks een 3070, die gelijk presteert met een 2080Ti van meer dan €1000. De prijs/prestatie is dus in één klap gehalveerd. Dat is echt flink.
Dat had je toch kunnen weten dat je die pr cijfertjes met een korreltje zout moet nemen?
Ik weet nog de geruchten van de vega64, die zou sneller worden dan de 1080ti :+
Wat zij voor het gemak overslaan, maar bron VideoCardz er wel bij heeft staan:

"It is worth noting that this channel has already been caught using fake review samples and publishing a review earlier (they hid the name of the Ryzen processor). This time leakers do not show any review sample, so we cannot confirm if they really tested the card. Either way, take the results with a grain of salt."
Is de VirtualLink connector gewoonweg verdwenen? Sinds de 20 series heb ik er niks meer van gehoord.
HWI had van de week een stuk over de virtual link, en ja de standaard is inderdaad overleden.

https://nl.hardware.info/...ets-lijkt-dood-te-bloeden
Zeer jammer. Het had naar mijn inzien wel enigszins interessant geleken om ipv 3 kabels er maar slechts 1 te gebruiken voor je headset. Maar ach.
Koppel je je headset elke keer los dan? Anders maakt het weinig uit.

En misschien dat in de toekomst DP of HDMI het alsnog direct voor elkaar krijgen.
Ik wel, maar heb als oplossing een vive link box (een powered HDMI en USB extender in principe, werkt ook voor non vive headsets) onder mijn bureau geplakt zo dat ik de kabels aan de voorkant van mijn bureau kan insteken.

Ik was ook enthousiast over de usb-c poort op mijn 2070, maar helaas.
Dat zou ik persoonlijk wel doen, lijkt me lelijk en moeilijk schoonmaken zn hele kabelboom die ergens in een hoek gedrukt zit of weggemoffelt.
Kan dat niet sowieso gewoon met elke usb-c aansluiting met thunderbolt?

[Reactie gewijzigd door ro8in op 24 juli 2024 18:57]

Zover ik weet niet nee. Bovendien, vrijwel geen desktops hebben TB3, en niet veel mensen willen VR doen op een laptop. Grootste verschil met TB3 en VirtualLink is denk ik dat VL meer stroom kan leveren dan TB3.
Ah duidelijk!
Eerlijk gezegd dacht ik dus altijd dat dit een Thunderbolt3 aansluiting was op mijn 2080ti. Is nu voor het eerst dat ik leer dat dit dus een virtual link is. Bestaan er wel kaarten met een TB3 aansluiting?
Videokaarten komen niet met ThunderBolt 3 nee. Moederborden wel, maar zelden. Je moet dan nog een DP gebruiken van je videokaart als je beeld wilt gebruiken via TB3 DMV een passthrough port op het moederbord/op de rear IO
Thunderbolt 3 gaat direct naar de CPU toe en dat heeft vrij weinig nut voor VR aangezien je dit naar de GPU toe wilt hebben,
En zoals bovengenoemde, bevatten de meeste desktops/moederborden geen Thunderbolt 3.
Ik zag al renders van 30xx aftermarket kaarten met de connector passeren dacht ik...maar misschien vergis ik mij.

EDIT aangezien ik ze niet meer vind zal ik wel mis zijn...

[Reactie gewijzigd door Clemens123 op 24 juli 2024 18:57]

Jep. AMD heeft zich vorig jaar ook al niet aan de afgesproken standaard gehouden dus ik vrees dat die dood is. :(
Die datum op dat verloopstekkertje is wel interessant: 20/07/02
Twee maanden geleden in massaproductie gegaan? Toch knap dat de leaks dan vrijwel weg blijven!
Volgens mij waren er al langer leaks dat Nvidia overstapt op 12pin. Dat de stekker twee maanden geleden in massaproductie is gegaan betekent niet dat de gpu dat ook is.
Daar heb je gelijk in, maar ik kan me moeilijk voorstellen dat de kabel veer eerder in productie is gegaan dan de GPU.
Waarom hebben de meeste videokaarten maar 1 hdmi aansluiting en wel een hele zooi displayport?
paar redenen.
Omdat je een displayport altijd kan omzetten naar hdmi (omdat displayport een hogere bandbreedte aan kan, en je dus nooit op maximale resolutie/frame rate inlevert als je dat doen. wat wel het geval kan zijn de andere kant op)
omdat voor HDMI royalties moeten worden afgedragen.
omdat Displayport de standaard is voor monitoren.
In dit geval kun je die DisplayPort (niet 2.0) niet omzetten in een HDMI 2.1 want die HDMI 2.1 kan een stuk meer.
Omdat displaypoort de standaard is voor pc. HDMI is meer een tv ding.
Hier een artikel van Tom's Hardware met meer tekst, uitleg en diepgang.
HDMI is meer een tv ding.
Dat vind ik dan toch vreemd op mijn oude Eizos EV3237 zat er 2x Displaypoort en 1x HDMI, nu zit er op m'n nieuwe EV3285 1x Displaypoort en 2x HDMI...

Op veel kleinere formfactor PCs (mini) en laptops kom ik vaak eerder HDMI tegen dan Displaypoort. Nu kan je dat verklaren met dat veel van dat soort devices in de woonkamer worden gebruikt en daarom eerder worden aangesloten op een TV. Maar datzelfde gaat absoluut niet op voor de Eizo monitoren...
Ligt er aan welke kleine formfactor PC's je bedoelt. HP 400 series mini PC's hebben vaak niet eens HDMI en Dell Optiplex micro's dacht ik ook.
Iig zakelijke kleine formfactor PC's hebben vaker wel of meer display Port poorten dan HDMI. Idem met veel zakelijke monitoren :)
Van de aftermarket kaarten, waarvan er al een stel op de Pricewatch staan, hebben er vrij veel twee HDMI poorten, zoals:

Deze 3080 van Asus
Alleen Asus gebruikt 2 HDMI poorten voor zover ik weet, alle anderen gebruiken 3xDP en 1xHDMI heb ik gemerkt tijdens mijn zoektocht naar 3080/90 kandidaat. Ik heb nu 2x1080Ti die ik wil vervangen en heb 4xHDMI projectors, klinkt stom maar heb geen zin in 4 adapters, heb er nu al 2 van HDMI naar DP.
Gigabyte heeft ook 2 HDMI poortjes, trouwens.
Ik wil een 5-monitor setup, voor mijn game rig, dus dan is dat vijfde poortje best boeiend. :Y)
en daarvoor kan je ook daisy chainen met display port
Oh, dat wist ik niet eens... Ga ik dat eens uitzoeken. Thanks!
De kans is groot dat dat niet gaat werken. De meeste consumenten videokaarten ondersteunen maar 4 display's.

Ik ben hier zelf ook ingetrapt. Nu zitten er dus 2 videokaarten in mijn systeem.
Op zich zijn er twee optioneel. Drie grote schermen om te flightsimmen, en twee kleintjes onder de grote voor de cockpit-schermen. Die kunnen eventueel ook samen op 1 scherm, maar dat is minder cool.

Dat, of een ultrawide met de kleintjes eronder, maar ik vind die ultrawides nog erg duur in verhouding met een triple monitor setup. Bovendien kun je met een triple setup een 4K scherm rechtdoor hebben, en fullHD-tjes aan de zijkant. :Y)

[Reactie gewijzigd door hooibergje op 24 juli 2024 18:57]

Op het moment heb ik 1 5k monitor als middel. En links en recht 2 full-hd schermen in portrait.
Als je de keuze heb zou ik 1 ultra wide nemen.
Dit is een founders edition. De uiteindelijke vendors zullen er wel wat meer HDMI poorten bij prikken.
Spannend! Ik ben razend benieuwd hoe de prestatieclaims van Nvidia zich vertalen naar onafhankelijke, diversere en meer realistische benchmarks.
Je moet er wel rekening mee houden dat dit waarschijnlijk een cherrypicked kaart is.
Dat is alleen relevant als Tweakers ook gaat testen met OC.
En verbuik niet dan?

Als je kaart weinig voltage nodig heeft om bepaalde clocks te halen verbruikt hij gewoon minder stroom dan een eenzelfde kaart die meer spanning nodig heeft voor dezelfde clocks te halen.

Met een cherrypicked kaart (goed gebint met lage voltages) heb je dus als voordelen los van het overklokken:
  • Lager verbruik
  • Minder warmte ontwikkeling
  • Minder lawaai van de koeler
  • Hogere efficiëntie performance/wat
  • Max turbo snelheden
  • Max turbo langere tijd kunnen aanhouden
En ja, ze clocken waarschijnlijk ook nog verder over, maar al de bovenstaande punten helpen gewoon mee in de standaard review hoor.
Interessant!
Zijn er ook reviewers die enkele maanden na de release bv 10 willekeurige kaarten testen hoe groot de standaardafwijking is?
dat zal je dan weer terug zien bij de fabrikanten kaarten, al is daar ook weer de koeler van invloed uiteraard.
Dat is toch minder, want als men kaarten van verschillende fabrikanten naast elkaar test kunnen die een andere opbouw hebben en/of andere instellingen
Het ging ook over prestaties en niet verbruik. Als reviews van de vorige founders editions representatief zijn dan ga je dat verschil op de ordegrootte van het vergelijk met de RTX 2000 series niet zien.

Je lijst met voordelen is wel erg opgeblazen. Lager verbruik is gevolg, geen voordeel an sich. Minder warmte ontwikkeling klopt totdat je GPU Boost 4.0 in ogenschouw neemt die de turbo snelheid aanpast op basis van o.a. warmte ontwikkeling. Oftewel het komt weer terug bij prestaties.
Ik dacht dat GPU Boost 3.0 al rond de 45 graden terug ging klokken, geen idee wat dat bij 4.0 doet. Je kan je voorstellen dat bij een beetje benchmark je deze temperatuur eerder in seconden dan minuten bereikt.

Lawaai van de koeler ga je trouwens ook niet merken, de fans gaan in de benches toch vol aan.
Geen idee hoe dat tegenwoordig gaat maar mij oude GTX1080 loopt op een stock voltage en als ik daar 10% onder ga zitten veranderd er op de stock clocks of boost clocks helemaal niets (2Ghz).

Of een lager verbruik een gevolg is of een voordeel, pateto patato. Minder warmte ontwikkeling kun je net zo goed een gevolg noemen.
En overigens genoeg reviewers die geluid ook gewoon meenemen in reviews hoor ;)
Als je 10 kaarten test komen ze ook niet allemaal op exact dezelfde boosts uit hoor (en daarmee dus ook niet op dezelfde score), dus cherrypicked kan zeker wel wat uit maken.

De kaarten OCen zichzelf eigenlijk (dat is wat die boost is), afhankelijk van de omstandigheden (temp + max verbruik). Dus je hebt gelijk dat het bij OC uit maakt, maar dat doet de kaart dus voornamelijk zelf, en daarom maakt het dus out-of-the-box wel degelijk uit en niet pas nadat jij handmatig OCed :)

Een goed gebinnede chip is dus koeler en heeft minder voltage nodig om dezelfde boost te krijgen, wat dus resulteert in hogere boost-snelheid. Uiteraard heb je het niet over 10tallen procenten winst maar het kan best een paar procent schelen...

[Reactie gewijzigd door watercoolertje op 24 juli 2024 18:57]

Denk niet dat het per kaart 5 tot 10 fps scheelt in een game. Dat zou erg vreemd zijn toch? Als het 1 tot 2 FPS scheelt dan ga je er weinig van merken denk ik
Dat kan rustig een paar procent schelen, fps kan je moeilijk over praten want de ene game haalt 60 fps, de andere 350fps :)
Dit is zeker waar op performance gebied - Nvidia garandeert dat hij bepaalde clocks haalt, dus stock performance moet 100% representatief zijn.

Ik vraag me wel af of de koeling het makkelijker heeft bij een kaart die relatief goed presteert (al hoor ik dat review samples vaak juist niet zo heel goed zijn omdat het vroege versies zijn), of dat ook dat alleen bij OC gaat helpen.
Sinds gpuboost kan het verschil tussen een slechte en een goede kaart al snel over de 10% gaan in de vorige generaties.

Kaarten gezien die amper over de 1800 Mhz komen en hetzelfde merk zelfde koeler etc bijna 2000 MHz zelfde load zelfde driver etc etc

Dus een cherrypicked kaart kan wel degelijk 10% beter scoren dan een slechte core.

Uiteindelijk draagt gpu boost eraan toe dat een kaart zich naar het maximaal haalbare klokt binnen de specs.

Dus een core die minder verbruikt word minder warm en clocked hierdoor hoger.

[Reactie gewijzigd door TRAXION op 24 juli 2024 18:57]

Van 1800 naar 2000 MHz is misschien 10% maar hiermee haal je niet 10 % meer performance. Ik kan mijn videokaart ook overclocken in die trend maar dat scheelt hooguit enkele FPS. Daarnaast staat de fanspeed van de meeste videokaarten op max 50% ongeveer? Als ik de mijne handmatig op 100% zet waardoor de temp.onder full.load van 82 naar 60 graden zakt clocked de videokaart niet onbeperkt naar boven bij.

[Reactie gewijzigd door sygys op 24 juli 2024 18:57]

Het is een verband met variabelen maar zolang de headroom er is zal de kaart hoger boosten dan een slechtere kaart al zou het 5% fps schelen.

Nvidia garandeerde bij de 1080 serie 1607 baseclock en maar 1733 boostclock dus als je pech had zat je met 1733 en met geluk deed je kaart 2000 out of de box.

En uiteraard werkt dit ook weer door met overklokken.

Overigens met een fullcover waterkoeling draaien de 10 serie kaarten allemaal zo een beetje 2000 mhz standaard gezien dat schijnbaar de gpuboost clock is rond de 35 graden.
Mijn 1080Ti clocked uit zichzelf naar de 2050 zonder OC, Asus strix, enige wat ik gedaan heb is de koelpasta vervangen, daarvoor bleef hij altijd op 1999 hangen... die gaat nu in de verkoop en het wordt tijd voor een 30xx serie nog beetje twijfel tussen de 3070 en 3080 beide zullen een upgrade zijn vermoed ik.
Dan ben je 1 van de lucky few 2050 is wel de max die je behaald zonder de powerlimit etc te maxxen.

Helaas lijken ze allemaal rond de 2150 te stoppen met allerhande redenen.
10% op kloksnelheid is niet 10% op benchmark score.
Verschil tussen gegarandeerde kloksnelheid en een cherrypicked model kan 20% zijn aan frequentie bij de vorige moddelen.

Schijnbaar is gpu boost een lastig principe. |:(
Vervang 10 door 20 en mijn standpunt staat nog steeds.
Dat is alleen relevant als Tweakers ook gaat testen met OC.
Is dat zo?
Misschien is het voor energieverbruik en geluidsproductie ook relevant.
En is met turbo clocks e.d. niet altijd spraken van een soort 'overklokken'?
Meestal zijn reviewerkaarten juist slechter dan de normale, omdat daarvoor een pre-release batch gpu's voor worden gebruikt. Het maken van gpu's wordt steeds meer verfijnd voor hogere yields/stabiliteit, en dus theoretisch ook betere clocks voor nieuwere kaarten.
Waarom zouden deze slechter zijn? De controle op deze pre-release batch voor reviewers zijn vaak veel beter dan die vanuit de latere batch. Vandaar dat er ook veel Youtube kanalen zijn waarbij men producten gewoon vanuit de winkels test en niet de producten die ze door de fabrikanten toegestuurd krijgen.

Welke bedrijf zal slechtere producten sturen naar de media die over hun schrijft dan wat er in de winkels ligt 8)7

Daarbij worden er vaker mindere kwalitatieve producten geproduceerd wanneer de volledige productiecapaciteit wordt gebruikt. Hierbij is de foutmarge namelijk veel hoger en de controle veel minder. Iedereen die in een productiebedrijf werkt of heeft gewerkt die zal hetzelfde zeggen, ik zou niet weten waarom Nvidia een uitzondering hier op zal zijn.

Edit: Je hebt natuurlijk gelijk dat na maanden of een jaar de productieprocessen vaak nog beter geoptimaliseerd zijn. Maar dit geld niet de eerste weken.

[Reactie gewijzigd door Andyk125 op 24 juli 2024 18:57]

Aanpassingen gaan relatief (paar maanden) snel, zo hadden de eerste batches van de 970/980 nogal wat kans op coil whine t.o.v. latere batches.
Dit heeft te maken met toeleveranciers die veranderd/aangepast worden het ontwerp van een inductor staat los van performance of verbruik.
Zo kort voor de release geloof ik er niks van dat dit een andere batch is dan in de winkel komt te liggen.

Maar het maakt wel degelijk uit of de chip uit het midden van de wafer komt of de zijkant, preproductie-batch of niet, dus er valt wel degelijk te cherrypicken (de zuinigste chips aan reviewers geven).

[Reactie gewijzigd door watercoolertje op 24 juli 2024 18:57]

Die 'slechte' / eerste batch GPU's hebben de kaartmakers gebruikt om hun PCB's te testen en ontwikkelen, Daarna komen de final adoption samples om de kaarten te duurtesten, en deze moeten toch echt net zo goed presteren als wat er later in de retail kaarten komt, anders heeft het testen geen zin.
Wat ze nu rondsturen is echt wel goed getest van te voren en ik weet wel zeker dat dit de beste gebinde exemplaren zijn.
Je ziet het bij de Intel engineering samples CPU's trouwens wel, dat zijn echt de eerste batches, veelal een stuk teruggeklokt om ze uberhaubt stabiel te houden.
Die krijgen moederbord fabrikanten vaak al een jaar voor de echte release, incl de nieuwe chipsets, zodat ze er een moederbord omheen kunnen maken.
is ie dan meer dan 100% stabiel 8)7

cherry picked of niet een kaart op de zelfde voltages en zelfde chip en zelfde koeling zal als hij geen defecten heeft met een extreme minimale marge verschil maken.
Dat zal je nog behoorlijk tegenvallen zelfs chips die in de wafer naast elkaar zaten kunnen een lekstroom verschil hebben die in de tientallen procenten loopt.

Vroeger jaagden we op bepaalde batchcodes omdat deze verder overclocken dat waren niet nieuwere of oudere batches maar batches waarbij alles toevallig goed samenviel.

Ook bij processors zie je dit waarbij cpu a 120 watt verbruikt en de ander 145 zelfde chip maar minder lekstroom met minder hitte als gevolg.
warmte ja, performance zou niet moeten zijn in de tientallen procenten. En overclocken is onzin als je over een benchmark praat op stock.
Stock is een ruim begrip met de huidige gpus die dynamische clocken aan de hand van bepaalde variabelen
Dat is een feit inderdaad.
Vaak zijn die 'onafhankelijke' reviews ook slecht uitgevoerd.
Leuk zo'n adapter hangend in je kast.
Veel producenten van modulaire voedingen hebben aangegeven dat je een 12 pins kabel kan kopen/aanvragen als je niet met adapters wil werken. Heb echter nog niet gevonden of het dus kopen of aanvragen is.
Op de website van Corsair staat dat ze de kabel rond 17 september los gaan aanbieden. https://www.corsair.com/u...pare-for-nvidia-30-series

In hun shop zie ik dat ze losse (gekleurde) kabels voor $29.99 aanbieden, dus ik zou zoiets verwachten.
Wat een absurd hoge prijs voor één kabeltje...
Het bijgeleverde kabel is dusdanig kort en stug dat het er niet uitziet als je een venster hebt in je kast.
dan maak je je venster toch gewoon dicht, problem solved :P
Ik heb inderdaad een dichte zijkant. Maar helaas onvoldoende financiële middelen om deze videokaart en een bijpassend systeem aan te schaffen. Ik denk dat mijn I7 4771 heel misschien een kleine bottleneck vormt ;)
Voor een kaart van 700 euro kun je natuurlijk niet een netjes zwart gesleevd kabeltje van een paar euro meeleveren...
Eigenlijk verwacht ik dat inderdaad niet. Iemand die 700 euro uitgeeft regelt vaak de rest zelf ook wel op zijn of haar manier. Er valt voor beide opties natuurlijk wat te zeggen, maar wat jij wilt komt er vast met andere edities van deze kaarten.
Geen last van met mijn gesloten kast onder het bureau.
CableMod heeft me laten weten dat ze verwachten op korte termijn een 12 pin kabel te kunnen leveren voor de verschillende merken PSU's.
Ben ik nu de enige die zich afvraagt waar we naartoe gaan met het energieverbruik van grafische kaarten? Van 250 Watt maar 320 Watt. Dat is bijna een toename van 30%. Is meer spektakel op het scherm dit allemaal wel waard, en hoever willen we daarin gaan?
Toch is de efficiëntie toegenomen. Kijk naar een 3070 die met een TDP van 220W naar verluidt op het prestatieniveau van de 2080 Ti uitkomt, een verbetering van 13%. Ik ben vooral benieuwd naar de headroom voor undervolten. Pascal en Turing laten zich over het algemeen zeer goed undervolten. Zo liep mijn 1060 op 875 mV en mijn 1660 Super op 900 mV, t.o.v. 1100 mV op stock settings, bij gelijke (en soms zelfs betere) kloksnelheden.
Da’s een interessante. Misschien wordt de powerlimit bij gebruik van die connector verlaagd oid, want het daadwerkelijke verbruik van de 2000 FE’s zit op of iets boven het opgegeven TDP. Of ze gaan bij gebruik van virtuallink er dik overheen, dat kan natuurlijk ook.
Je hebt gelijk, maar het is wel een mager efficiency-winstje. En dan is de RTX2070 nog het meest gunstige voorbeeld dat je kon nemen. De RTX 2080 heeft naar alle waarschijnlijkheid een veel slechtere performance per watt verhouding dan de RTX 2070 (om nog maar te zwijgen over de RTX 2090).
De 3080 komt zelfs nog iets beter uit de bus dan de 3070. Gemiddeld 68% hoger prestatieniveau dan de 2080 Super, tegen een 28% hoger verbruik (320W t.o.v. 250W). Da's een efficiëntieverbetering van 20%. De FE's zitten altijd netjes op hun TDP onder load.

Maar goed, de kracht van Ampere zit 'm ook niet zozeer in de efficientiëverbetering t.o.v. Turing (alhoewel die er dus wel degelijk is!), maar veel meer in de verbeterde prijs/prestatieverhouding en in de verbeterde ray tracing prestaties.
Dat performancepercentage van 68% moet ik nog bewaarheid zien worden in de benchmarks straks (14 september). Ik vraag me echt af of dat een reëel getal zal blijken. Zo niet, dan is de performance per watt verbetering een stuk slechter dan 20% en dat is dan ook wat ik verwacht.

Ik begrijp je berekening van de 20% efficiency-verbetering trouwens niet.

[Reactie gewijzigd door choogen op 24 juli 2024 18:57]

Efficiency bereken je door het (relatieve) prestatieniveau door het verbruik te delen (of in dit geval het TDP, wat bij gpu's een goede indicator is voor verbruik).

2080 Super: 1 / 250 = 0,004
3080: 1,68 / 320 = 0,00525
0,00525 / 0,004 = 1,31, oftewel de 3080 is 31% efficiënter dan de 2080 Super. Die 20% die ik noemde klopt dus niet, ik heb ergens een foutje gemaakt.
Bedankt voor je toelichting. Ik kwam zelf ook uit op 31% efficiency verbetering.

Die 68% extra performance lijkt te zijn gehaald in de Compubench benchmark. Die benchmark zegt echter niet zoveel over de gaming performance:
These types of tests are compute oriented and do not illustrate gaming performance at all. Especially when we take all the new hardware to accelerate technologies (such as RTX or DLSS) into account.
https://videocardz.com/ne...uda-and-opencl-benchmarks

Daarom dus mijn scepsis over dat getal van 20%, laat staan 31%.

Edit: kwam ook deze gaming benchmarks tegen van betrouwbare twitteraar '_rogame':

4K Gaming [3080] vs 2080S:

Far Cry 5 +62%
Borderland 3 +56%
AC Odyssey +48%
Forza Horizon 4 +48%

https://twitter.com/_rogame/status/1303691200701042690
(onbekend of RT en/of DLSS aan stonden)

[Reactie gewijzigd door choogen op 24 juli 2024 18:57]

Klopt, dat is een grote kanttekening. Maandag om 15:00 weten we meer!
Vaak gaan de kaarten sterk over hun TDP heen. ;)
Interessante vraag maar helaas wel de realiteit die hoort bij meer performance (doorgaans). Als ik een snellere brandstofauto wil, rijdt deze ook minder zuinig. Een nieuwe architectuur (bijvoorbeeld een auto die elektrisch) kan misschien netto wel efficienter zijn maar ook daarvoor geldt: beter is minder zuinig.

Overigens is die 320 watt het verbruik die hij nodig heeft bij het leveren van maximale prestaties (een hele zware game draaien of video renderen). Als jij gewoon in Windows wat zit te browsen zal deze nauwelijks meer stroom verbruiken (enkele watts) t.o.v. bijvoorbeeld een GTX1060.

Als je uitgaat van 3 uur per dag het maximale uit je kaart trekken is dat bij een maand van 30 dagen:
330 watt: ((3x30x330)/1000)x0,22= 6,50 euro
250 watt: ((3x30x250)/1000)x0,22= 4,95 euro
scheelt je dus 1,55 euro aan stroom per maand uitgaande van veel en intensief gebruik.

[Reactie gewijzigd door Jorissie87 op 24 juli 2024 18:57]

Bizarre ontwikkeling inderdaad, over 10 jaar GPU'S die 1000 watt gebruiken, want ze moeten 16k games aankunnen?

Op dit item kan niet meer gereageerd worden.