Fabrikanten reageren op stabiliteitsproblemen van Nvidia RTX 3080-videokaarten

Enkele videokaartfabrikanten hebben gereageerd op de stabiliteitsproblemen waarmee verschillende Nvidia RTX 3080-videokaarten lijken te kampen. Nvidia heeft zelf nog niet gereageerd op de problemen.

Eerder deze week kwam aan de orde dat verschillende gebruikers meldden dat hun RTX 3080-videokaarten kampen met stabiliteitsproblemen. Gebruikers van de videokaart zouden bijvoorbeeld op bepaalde momenten crashes naar het bureaublad ondervinden tijdens het gamen, zo schreven ComputerBase en VideoCardz. Ook op het Gathering of Tweakers-forum melden verschillende gebruikers problemen met de RTX 3080.

Igor's Lab publiceerde vervolgens een artikel waarin de website suggereerde dat het probleem mogelijk deels is te wijten aan de condensators die direct achter de gpu-core zijn geplaatst, hoewel dat nog niet officieel is bevestigd door Nvidia. VideoCardz schrijft dat videokaartfabrikanten volgens de richtlijnen van Nvidia kunnen fabrikanten bijvoorbeeld multilayer ceramic chip capacitors en 'conductive polymer tantalum solid capacitors', ook wel 'poscaps', mogen gebruiken voor hun videokaarten. Een combinatie van die twee is ook mogelijk. Het is daarbij goed om te vermelden dat YouTube-gebruiker Buildzoid van Actually Hardcore Overclocking in een video meldt dat geen van de RTX 3080-videokaarten daadwerkelijk poscaps gebruiken. In plaats daarvan zouden de videokaarten gebruikmaken van zogeheten SP-Caps, een ander soort polymeercondensators.

Het lijkt erop dat videokaarten die exclusief gebruikmaken van dergelijke SP-Caps vooralsnog meer stabiliteitsproblemen hebben, terwijl de videokaarten die deels gebruikmaken van mlcc's dus met minder problemen lijken te kampen. YouTube-gebruiker Intermit.Tech, die ook actief is op Tweakers, publiceerde een video waarin de werking van de twee condensatortypes en de mogelijke oorzaak van de problemen uitgebreid worden besproken. Reddit-gebruiker Nestledrink plaatst op zijn beurt een overzicht met de condensatortypes in alle verschillende RTX 3080-videokaarten. Het is nog niet bevestigd dat de condensatortypes alle problemen veroorzaken. Zo meldt GamersNexus dat een deel van de problemen mogelijk te wijten zijn aan te hoge boostclocks op bepaalde kaarten.

Verschillende condensatorlay-outs met 'poscaps' / SP-Caps (rood) en mlcc's (groen). Afbeeldingen via Igor's Lab

Inmiddels hebben verschillende videokaartfabrikanten gereageerd op de stabiliteitsproblemen. MSI zou het probleem tijdens een livestream erkend hebben, waarbij het bedrijf volgens VideoCardz suggereerde dat het om een driverprobleem gaat. De fabrikant meldt aan een Gathering of Tweakers-forumlid dat het probleem vooralsnog opgelost kan worden met een underclock van '75Hz'. Colorful zou de pers daarnaast hebben benaderd over de stabiliteitsproblemen. Het moederbedrijf van Zotac zou de problemen volgens Igor's Lab hebben opgemerkt en verandert het ontwerp van zijn kaarten.

EVGA heeft op zijn beurt een volledige statement uitgebracht, waarin de fabrikant meldt dat zijn 'videokaarten met zes poscaps' volgens eigen tests inderdaad niet goed werkten. Het bedrijf kwam daar naar eigen zeggen achter tijdens kwaliteitstests die werden uitgevoerd tijdens de massaproductie van zijn kaarten. EVGA heeft 'een week' gewerkt om het probleem te vinden en op te lossen, en inmiddels heeft de fabrikant zijn FTW3-videokaart voorzien van 'vier poscaps met twintig mlcc-condensators'. De XC3-variant van EVGA heeft 'vijf poscaps met 10 mlcc's'. De videokaarten met zes 'poscaps' zouden niet naar klanten zijn verstuurd, maar wel in handen van enkele reviewers zijn gekomen. Nvidia heeft zelf nog niet gereageerd op de problemen.

Door Daan van Monsjou

Redacteur

27-09-2020 • 16:26

210 Linkedin

Submitter: goldie50

Lees meer

Reacties (210)

210
205
122
16
0
42
Wijzig sortering
"In plaats daarvan lijken de videokaarten zogeheten SP-condensators te gebruiken."

Dit klopt niet helemaal, omdat het de indruk wekt dat POSCAPS en SP-CAPS iets compleet verschillend zijn. POSCAPS zíjn SP-CAPS, alleen specifiek van Panasonic. Deze zijn inderdaad niet gebruikt.

[Reactie gewijzigd door Marcel317 op 27 september 2020 17:22]

Volgens de documentatie van Panasonic zelf zijn het wel degelijk andere condensatoren. Andere opbouw en andere grootte en andere eigenschappen die wel erg op elkaar lijken, maar niet hetzelfde zijn!

Zie hier: http://www1.futureelectro...acitorProductOverview.pdf
Het klopt dat poscap's en SP-caps beide polymer-condensators zijn. Panasonic produceert echter zowel SP-caps (polymer aluminium) als poscap's (polymer tantalum), beide met iets andere specificaties (zie ook de video van Buildzoid). Dus het lijkt me alsnog een goede nuance om te benoemen :)
Off topic :Je krijgt soms - 1 om je post correcter te modden, als je bv heel veel +3's hebt (en dat is je post niet) dan kan je dat al wel eens krijgen. Gemiddeld gezien krijg je een nette plus twee, dus de modding lijkt toch te werken? Dus een storm in een glas water?

On topic:
Blijkbaar waren de problemen toch al eerder bekend, spijtig genoeg voor sommige fabrikanten tijdens de massafabricage.Nvidia moet het toch al eerder gesignaleerd hebben?

[Reactie gewijzigd door Yoshi op 27 september 2020 17:20]

Nvidia heeft hun "minimum spec" ook gezegd max 5 van de goedkope variant te gebruiken.

Zie deze video van Jayz Two Cents die in 't filmpje ook een lading 3080 kaarten uit elkaar trekt om te zien wat ze gebruikt hebben, naast dus de vergelijking met de spec aangegeven vanuit NVIDIA als de minimum

Uit m'n hoofd was de Asus TUF variant de enige die 2 x 10 mlcc's gebruikte en dus 4 poscaps.
@bartje321: De Asus TUF (en strix) heeft 6 X 10 mlcc's en geen poscaps
Rest hield het bij 1 x 10 mlcc's of zelfs geen!

Edit: Gecorrigeerd aan de hand van @bartje321's comment hieronder:

[Reactie gewijzigd door rkeet op 28 september 2020 14:42]

Anoniem: 599181
@rkeet28 september 2020 13:40
Domme vraag maar wat is dan het prijsverschil tussen de strix en tuf? Als je zo hoord dat de tuf en fe de betere kaarten zijn.
https://tweakers.net/pricewatch/compare/1603450;1603452/

Even deze twee tegenover elkaar gezet. Lijkt me alleen een noemenswaardig verschil in geheugen snelheid, maar zelfs dat verschil is minimaal (2,6% sneller).

Fysiek is de Strix een stuk groter en heeft die ook 3 x 6+2 pin connectors ipv 2x.

Maar volgens de pricewatch is bij performance die memory het enige verschil.
De Asus TUF (en strix) heeft 6 X 10 mlcc's en geen poscaps
Off topic :Je krijgt soms - 1 om je post correcter te modden, als je bv heel veel +3's hebt (en dat is je post niet) dan kan je dat al wel eens krijgen. Gemiddeld gezien krijg je een nette plus twee, dus de modding lijkt toch te werken? Dus een storm in een glas water?
Even voor de duidelijkheid... Dat mag niet en het werkt ook niet. Het moderatie systeem werkt namelijk niet met een gemiddelde maar met een mediaan, juist om compensatie modden tegen te gaan.
Los van je lompe opmerkingen over het moderatiesysteem. hoezo is dit een Nvidia probleem? De problemen spelen voor zover ik weet niet met de FE kaarten maar met de kaarten van een aantal 3rd party fabrikanten, Nvidia heeft toch niks te maken met hun keuzes? Anders zouden alle fabrikanten problemen hebben.
Ik begrijp je beredenering, maar wat als jij als bedrijf iets ontwikkeld hebt en je laat het via 3rd party fabrikanten maken en verkopen. Die 3rd party fabrikanten hebben tijdens productieproces een fout ontdekt wat mogelijk kan leiden tot problemen bij eindklant. Hierdoor krijgt nvidia toch ook schade aan haar naam/merk, veel mensen wachten nu wel met kopen van een 3080 en wachten tot want AMD presenteert straks.
Nou ja, Nvidia levert een chip en geeft een referentie op voor het pcb. We weten natuurlijk niet hoe de richtlijnen van Nvidia eruit zien, voor zover ik heb begrepen zijn ze altijd vrij losjes geweest, ook bij eerdere generaties en mochten fabrikanten zelf meer keuzes maken. het is dan aan de fabrikant om de kaarten waarvoor ze minder goede componenten gebruiken lager te klokken en om sowieso hun product goed te testen voor ze het op de markt brengen.
Nvidia heeft dit probleem wel deels veroorzaakt. Nvidia heeft heel laat pas werkende drivers ter beschikking gesteld aan hun partners om zo lang mogelijk het lekken van benchmarks uit te stellen. Je kan dus stellen dat men te weinig tijd had om de kaarten met de juiste drivers te testen om dit vooraf te ondervangen. Het probleem is pas bekend geworden toen men dus daadwerkelijk games en benchmarks konden draaien.
Dan nog is het de keuze van de fabrikanten om hun kaarten op releasedag of later beschikbaar te stellen. Gigabyte en ASUS bijvoorbeeld hebben hun top 3080 kaarten nog niet geleverd.
-1 - Ongewenst - "Deze reactie is een flamebait, troll of belediging van een andere gebruiker."
Je reactie beginnen met het collectief wegzetten van je (nieuwe) mede-Tweakers als "randdebielen" is natuurlijk niet bedoeld als flamebait of belediging, maar als een genuanceerde mening die goed onderbouwd wordt?
Je noemt - op zijn minst - iedereen die mod op een manier waar je het niet mee eens bent een randdebiel (dat woord schrijf je met twee d's trouwens), dat is de definitie van een flamebait en dus een -1. Het systeem heeft wel eens zijn tijd nodig, dus het is wat naïef om daar binnen een uur (en een handjevol moderaties) direct over te zeuren. Bij reacties die de moeite waard zijn is zo'n score eigenlijk altijd voordat deze vast staat (na 48 uur) gefixed. Het gaat eigenlijk alleen maar fout bij artikelen met heel weinig traffic, of reacties op oude artikelen. Dan is het nog steeds makkelijk om een compleet verkeerde score te laten corrigeren. Als je dat teveel moeite vind, dan snap ik niet waarom je je er zo ontzettend druk over zou maken.
Ja want mensen een randdebiel noemen is echt on-topic...
"conductive polymer tantalum solid capacitors, ook wel poscap's".
Kappen nou, het is al zo vaak gezegd dat Poscap's hele specfieke caps van Panasonic zijn die voor het laatste op een GTX590 ofzo gebruikt zijn! Het is 1 voorbeeld van een (brakke) SMD cap.
https://youtu.be/GPFKS8jNNh0?t=130

[Reactie gewijzigd door Santee op 27 september 2020 16:55]

Klopt helemaal. Die nuance staat al iets verderop in het artikel :)
Ook Buildzoid, een overclocker die op YouTube-kanaal Actually Hardcore Overclocking geregeld video's met pcb-analyses publiceert, plaatste onlangs een video waarin hij onder andere meldt dat de verschillende RTX 3080-modellen niet daadwerkelijk gebruikmaken van poscap's. In plaats daarvan lijken de videokaarten zogeheten SP-condensators te gebruiken.
Ik schrijf het gebruik van 'poscap's' dan ook toe aan VideoCardz. Ik heb die term verder (tussen aanhalingstekens) aangehouden in dat stuk tekst omdat fabrikanten dat zelf ook doen (zie bijvoorbeeld de statement van EVGA). Als in de tekst enkel SP-caps worden genoemd, en vervolgens wordt gelinkt naar EVGA die schrijven over poscap's, dan kan ik me voorstellen dat dat juist tot verwarring leidt. Dus vandaar dat ik de term poscap's benoemde en deze vervolgens nuanceerde aan de hand van Buildzoid's (uitstekende) video :)

[Reactie gewijzigd door AverageNL op 27 september 2020 17:50]

Hey, een suggestie, maar is het niet een idee om in zo'n geval "(sic)" te gebruiken? Als in 'poscap's' (sic).
Sic wordt vaak gebruikt bij citaten om aan te geven dat in dat citaat een fout staat, maar dat deze fout niet is gecorrigeerd -wikipedia
#beste stuurlui staan aan wal, dus als er een reden voor is, is dat natuurlijk prima

[Reactie gewijzigd door Bram_H67 op 28 september 2020 02:16]

Dat vind ik een rare uitleg, in het artikel zeg je zo letterlijk dat ze hetzelfde zijn, en dat is niet zo. Poscap is duidelijk een subset van Tantaal polymeercondensators. SP-cap is volgens mij gewoon een afkorting van 'solid polymer', wat een superset is van 'conductive polymer tantalum solid capacitors', er bestaan namelijk ook op aluminium gebaseerde polymeercondensatoren, maar dat zijn gewoonlijk cilindrische componenten en waarschijnlijk te hoog voor deze plek, maar je vind er vast een hele hoop in de buurt van de 12V connector (al zijn ook die niet altijd polymeercondensatoren). Ik vermoed dat dit een vorm van merkverwatering is die wellicht is overgewaaid uit Taiwan, waar veel van deze producten worden ontwikkeld. Ik ben de term hier nog niet tegen gekomen.

Ik zou de zin herschrijven als: "Het lijkt erop dat videokaarten die deels gebruikmaken van multilayer ceramic capacitors met minder problemen lijken te kampen dan die exclusief met conductive polymer tantalum solid capacitors." Ik denk dat dit de zin is die de onduidelijkheid veroorzaakt, want die klopt in het stuk inhoudelijk niet. Gewoon de referentie aan 'poscaps' volledig weglaten in plaats van nuanceren als je al bronnen hebt dat het onwaarschijnlijk is dat het dit specifieke type is dat de problemen geeft, zelfs al is er een bron die het ook op deze manier fout doet.

[Reactie gewijzigd door Involvement op 27 september 2020 18:04]

Het maken van afwegingen bij dergelijke dubbele informatie is altijd lastig. Ik ben er zelf altijd fan van om het ‘complete plaatje’ mee te nemen, maar ik kan me voorstellen dat je hier in dit geval over struikelt.

Ik heb hier zojuist nog even mijn tanden op stukgebeten. Zoals @Cerebro correct opmerkt, gebruiken poscaps en SP-Caps ieder een andere anode, dus die laatste ‘tantaal polymeercondensators’ noemen klopt niet helemaal. Poscaps benoemen leek me daarnaast nog steeds van belang, met oog op duidelijkheid van de bronteksten.

Volgens mij heb ik nu een goede tussenweg gevonden. Ik heb vooralsnog de nuance van Buildzoid naar voren gehaald. Ik had dat tijdens het schrijven van het artikel al geprobeerd, maar vond die info toen nogal ‘out of the blue’ komen, wat de leesbaarheid van de tekst niet echt ten goede komt. Dat vind ik eigenlijk nog steeds wel, maar volgens mij is het wel duidelijker op deze manier. Er staat nu dus:
...ook wel 'poscaps', mogen gebruiken voor hun videokaarten. Een combinatie van die twee is ook mogelijk. Het is daarbij goed om te vermelden dat YouTube-gebruiker Buildzoid van Actually Hardcore Overclocking in een video meldt dat geen van de RTX 3080-videokaarten daadwerkelijk poscaps gebruiken. In plaats daarvan zouden de videokaarten gebruikmaken van zogeheten SP-Caps, een ander soort polymeercondensators.
In de rest van het stuk wordt vanaf daar de term 'SP-Caps' aangehouden, met uitzondering van de statement van EVGA (dat zijn immers directe citaten). Die stukken stonden echter al tussen aanhalingstekens :)

cc: @Bram_H67 en @Santee
SP-cap is volgens mij gewoon een afkorting van 'solid polymer', wat een superset is van 'conductive polymer tantalum solid capacitors', er bestaan namelijk ook op aluminium gebaseerde polymeercondensatoren, maar dat zijn gewoonlijk cilindrische componenten ...
Nee daar ga je de mist in, solid polymer aluminum zijn er in rechthoekige surface mount varianten, dat zijn dus de zogeheten SP-Caps waar we hier mee te maken hebben die dus op de kaarten zitten.
https://na.industrial.pan...p/sp-cap-polymer-aluminum
https://na.industrial.pan...citors/polymer-capacitors

De specifieke POSCAPS van Panasonic gebruiken sintered tantalum ipv aluminum als anode, maar wel solid polymer als cathode.
https://industrial.panaso...polymer-capacitors/poscap
Deze worden dus niet gebruikt op de betreffende kaarten.

[Reactie gewijzigd door Cerebro op 27 september 2020 18:30]

Noem ze gewoon zwarte dingetjes klaar.
Thanks voor je reactie! Ik zag het idd later, maar wellicht het dan helemaal niet meenemen want dan blijft men erover praten op de verkeerde manier :)
igorslab.de

Gehele link: link: https://www.igorslab.de/e...rce-rtx-3080-andrtx-3090/

En om daar even een belangrijk stukje uit te pakken, vertaalt naar het Nederlands, waar de link hierboven bij hoort: De tekening uit juni laat open of er POSCAP's (Conductive Polymer Tantalum Solid Capacitors) met een groot oppervlak worden gebruikt (rood gemarkeerd), of liever de wat duurdere MLCC's (Multilayer Ceramic Chip Capacitor). Deze laatste zijn kleiner en moeten worden gegroepeerd voor een hogere capaciteit. Volgens de lijst en specificaties van Nvidia zijn beide mogelijk. Qua kwaliteit zijn goede MLCC's echter beter in staat om met name de zeer hoge frequentie componenten te filteren. Dit is uiteindelijk simpele praktijkkennis, die vaak genoeg botst met het wereldbeeld van een financial controller. Het lijkt het erop dat de Zotac Trinity vooral wordt getroffen als het gaat om instabiliteit die beginnen bij bepaalde boostkloksnelheden vanaf ongeveer 2010 MHz. Een prestatie, want Zotac vertrouwt op in totaal zes goedkopere POSCAP's.

Anyhow, dit is wat Buildzoid van het YouTube kanaal Actually Hardcore Overclocking erover te zeggen heeft, dus voor de liefhebbers

Gehele link: link: https://www.youtube.com/w...uallyHardcoreOverclocking

Toch krom dat de type PCB's die dit nu aangaat doodleuk blijkbaar toch groen licht hebben gekregen NVidia, wanneer dit niet het geval was geweest namelijk, waren deze nooit op de markt verschenen.
:/

[Reactie gewijzigd door SSDtje op 27 september 2020 18:18]

Daarom beter voor de FE gaan?
Hardware Unboxed
@HardwareUnboxed
·
26 sep.
The crashing with the RTX 3080 cards doesn’t appear to be down to the caps used, which is why we haven’t made a video yet, we don’t know the issue. What we do know is the FE and TUF Gaming models crash just as much as other models and they use MLCC’s.
Links? Ik begreep van JayzTwoCents (https://www.youtube.com/watch?v=x6bUUEEe-X8) dat ze geen issues hadden met crashes van de FE / TUF versies.
Diot is een letterlijke copy/paste van Hardware Unboxed's Twitter account.

Hier kan je ook meer info vinden:

https://be.hardware.info/...al-mogelijke-verklaringen

[Reactie gewijzigd door Bexorcist op 29 september 2020 20:08]

Zijn de problemen alleen bij overklokken?
deze kaarten overklokken zichzelf als de temperatuur en stroomtoevoer het toelaat. Het probleem is dat de limieten van de GPU bij die automatische overclock soms hoger liggen dan die van de capacitators die de stroomtoevoer stabiel kunnen leveren en daardoor de GPU instabiel maakt met een crash tot gevolg.
Eigenlijk dus gewoon een slordige ontwerpfout.

Dat ze er tijdens de massaproductie van de kaarten bij EVGA pas achter zijn gekomen zegt al genoeg.
Wat mij betreft laat dit zien dat Nvidia wel heel graag de kaarten zo snel mogelijk op de markt wilde brengen. Niet alleen het ontwerp van de kaarten zijn niet goed gedefinieerd door Nvidia (al wordt er geroepen dat de FE kaarten van Nvidia zelf niet het probleem hebben) ook de leverproblemen laten zien dat men helemaal niet klaar was om het product te lanceren.

Je zult maar een grafische kaart hebben aangeschaft van €800,- of meer en in plaats van een goed product zal je de kaart moeten underclocken om problemen te voorkomen |:(
Eigenlijk dus gewoon een slordige ontwerpfout.

Dat ze er tijdens de massaproductie van de kaarten bij EVGA pas achter zijn gekomen zegt al genoeg.
Wat mij betreft laat dit zien dat Nvidia wel heel graag de kaarten zo snel mogelijk op de markt wilde brengen. Niet alleen het ontwerp van de kaarten zijn niet goed gedefinieerd door Nvidia (al wordt er geroepen dat de FE kaarten van Nvidia zelf niet het probleem hebben) ook de leverproblemen laten zien dat men helemaal niet klaar was om het product te lanceren.

Je zult maar een grafische kaart hebben aangeschaft van €800,- of meer en in plaats van een goed product zal je de kaart moeten underclocken om problemen te voorkomen |:(
Sorry maar met dit is het niet de fout van Nvidia, maar de fout van de andere merken die goedkope caps er op zetten wat dit veroorzaakt hebben, die Nvidia gebruikt zijn veel duurder, en de andere fabrikanten hebben goedkopere gebruikt.

JayzTwoCents heeft een hele goed video er over uitgebracht eergisteren.

Edit spel foutjes

[Reactie gewijzigd door AmigaWolf op 27 september 2020 20:14]

Wat denk ik ook een rol heeft gespeeld is dat de 3rd party producenten geen werkende driver kregen waarmee ze de kaarten onder normale omstandigheden konden testen. NVIDIA stelde alleen een speciale test driver beschikbaar waarmee men alleen een ingebouwde test kon draaien die dan een pass of fail gaf. Windows kon niet geladen worden met die test tool driver. Blijkbaar was de ingebouwde test van de beperkte driver niet zwaar genoeg en belasten sommige game engines de kaart zwaarder. NVIDIA zou dit gedaan hebben om te voorkomen dat er prestatie gegevens bekend zouden(lekken) worden voor de release. Dit is IMO één van de oorzaken van de late ontdekking van dit probleem.
Wat denk ik ook een rol heeft gespeeld is dat de 3rd party producenten geen werkende driver kregen waarmee ze de kaarten onder normale omstandigheden konden testen. NVIDIA stelde alleen een speciale test driver beschikbaar waarmee men alleen een ingebouwde test kon draaien die dan een pass of fail gaf. Windows kon niet geladen worden met die test tool driver. Blijkbaar was de ingebouwde test van de beperkte driver niet zwaar genoeg en belasten sommige game engines de kaart zwaarder. NVIDIA zou dit gedaan hebben om te voorkomen dat er prestatie gegevens bekend zouden(lekken) worden voor de release. Dit is IMO één van de oorzaken van de late ontdekking van dit probleem.
Natuurlijk, maar toch is het de vetrandwording van de fabrikanten om niet goedkope caps te gebruiken, dat legt sorry helemaal aan hun, op alles wat ze geld konden besparen kiezen ze voor de belangrijkste onderdelen op een grasfichekaart, om op te besparen.

[Reactie gewijzigd door AmigaWolf op 28 september 2020 14:44]

Het is niet de verantwoording van de fabrikant als het referentiemodel de goedkope caps toelaat. Iets zegt mij dat Nvidia deze keer het referentie model niet goed getest heeft, ze brengen zelf toch een custom PCB uit, dus daar zal alle aandacht op gevestigd zijn geweest.

[Reactie gewijzigd door Blackice09 op 28 september 2020 15:49]

Die video van Jayztwocenys heb ik vanmiddag nog gezien.

Als je had opgelet dan is het Nvidia die bepaald wat de minimale specificaties moeten zijn voor het ontwerp. De andere fabrikanten dienen zich daaraan te houden aan het minimale basis ontwerp. Het is dus de fout van Nvidia, hun dienen de juiste instructies te geven aan de andere fabrikanten.

Dat Nvidia juist ervoor gekozen heeft om zelf ook een betere kaart te leveren met hun founders edition is mooi, maar dat laat alleen maar meer zien dat de communicatie naar hun klanten ook slecht is. Want anders had men wel aangegeven welke caps er minimaal nodig zijn voor een goed werkende kaart. De kanttekening is de driver/software iets waar de andere fabrikanten weinig rekening mee kunnen houden, helemaal als deze nog niet klaar is. Nog iets wat slecht is van Nvidia, want als dit goed aangeleverd was kan ik mij niet voorstellen dat de fabrikanten niet eerder aan de bel hadden getrokken, want er is geen bedrijf wat begint met massaproductie zonder dat ze het product in ieder geval getest hebben.
Dat doen ze omdat Nvidia het toelaat in hun reference design. Het gaat hier imo minstens om een gedeelde verantwoordelijkheid.
Tweakers: Fabrikanten reageren op stabiliteitsproblemen van Nvidia RTX 3080-videokaarten
Het is heel simpel, als je nu niet nodig een grafische kaart nodig heb, zou ik wachten wat maanden of langer, tot alles opgelost is, en dat dan ook de AMD Radeon RT 6000 series uit zijn, zo dat je meer keuzes heb, en dat de GeForce RTX 3080 toch zo goed als niet verkrijgbaar zijn.
Hmmm, ja want met geld kan je alles kopen en TSMC heeft niet zojuist Intel afgewezen?

TSMC zit gewoon bom en bom vol, dus al zouden ze wat extra willen betalen dan kunnen ze waarschijnlijk nog niet bij TSMC terecht omdat TSMC die capaciteit voor een reus als NVidia gewoon niet heeft.
Dan waren ze waarschijnlijk zeker een half jaar later geweest schat ik. NVIDIA laat trouwens hun chips voor de professionele lijn wel bij TSMC maken.
Nee, problemen zitten in het gebruik van de boostclock. Dat "extra" clock gedeelte dat standaard beschikbaar is voor wanneer je veel vereist op een moment (high-end gaming / rendering / etc.).

Nee, problemen zitten in de GPU Boost. GPU Boost is de techniek van Nvidia om real-time de kloksnelheid te veranderen boven de boost clock. Een fabrikant kan ook niet geranderen hoe hoog de GPU Boost gaat, want dit hangt af van allerlei factoren, een oplossing zal dan nu ook zijn om deze softwarematig in te perken.

Wat ik heb begrepen is 't probleem dan zo (corrigeer mij als ik dit fout uitleg):

Capacitors (in 't algemeen) veroorzaken elektromagnetische storing binnen X-radius. Afhankelijk van hoeveel door de dingen heen gaat. Nu zijn deze kaarten natuurlijk super klein en zit alles dicht bij elkaar. An sich geen probleem, zeker/ook niet als je hoge capaciteit capacitators gebruikt.

Voor deze kaarten zijn er 2 capacitators gebruikt in het referentie design: 5 x poscap en 1 x 10 mlcc's.

Het is echter een referentie design, dus fabrikanten zijn (waren?) er vrij in goedkoper (6 x poscap) of duurder (meer settjes van 10 mlcc's ter vervanging van een poscap) te bouwen.

De goedkope capacitors creeeren echter meer magnetische storing, wat dus storing kan veroorzaken bij overige componenten om die capacitatoren heen.

Op den duur kan/geeft dit rekenfouten in de GPU met dus een crash tot gevolg.

Anyhow, dat is hoe ik 't heb begrepen van hier: https://www.youtube.com/watch?v=x6bUUEEe-X8 en paar andere korte vids hierover (allemaal beetje hetzelfde dus 1 link voldoende).

Mocht iemand het beter kunnen uitleggen voeg deze aub toe. Laat fouten even weten, dan pas ik 't aan.

Edit: Eerste alinea vervangen met stuk over GPU boost op basis van comment van @Blackice09

[Reactie gewijzigd door rkeet op 28 september 2020 17:43]

Niet de boost clock maar GPU Boost (2.0). De boost clock is de overgelockte frequentie die een kaart minimaal moet halen. Dit is wat je leest bij de specificaties van een kaart. GPU Boost is de techniek van Nvidia om real-time de kloksnelheid te veranderen boven de boost clock. Een fabrikant kan ook niet geranderen hoe hoog de GPU Boost gaat, want dit hangt af van allerlei factoren, een oplossing zal dan nu ook zijn om deze softwarematig in te perken.

[Reactie gewijzigd door Blackice09 op 28 september 2020 15:58]

Ze boosten zelf en als dat te snel gaat kan het misgaan met slechte stroomvoorziening.
dan is dat toch simple op te lossen met een firmware waar de boost neti meer zo hoog gaat.

Dit krijg je met 3rd parties die allemaal net iets hoger willen dan de andere en hoger dand e Ref cards. en tegelijk liefst goedkoper.

Pak je een seriues merk als asus zie je dat die paar extra euros ook in de kaart zitten zonder issues als resultaat.

[Reactie gewijzigd door Scriptkid op 27 september 2020 19:48]

"een seriues merk als asus"
En zelfs bij een serieus merk gaat het nog wel eens mis, zo had ik een Maximus II Formula mobo van ze waar de chipset (met alle RAM slots gevuld) koeling niet toereikend was. Bij Battlefield 3 crashte hij binnen een uur naar de desktop als de NB naar 62c ging. Zelf uiteindelijk de koeling vervangen en alles was weer stabiel. Asus Mobo wat ik daarvoor had liep 1 a 2x per dag vast met alle 4 de RAM sloten gevuld. Met 2 sloten gevuld en 2 leeg geen probleem. Vond de bios layout enzo altijd wel fijn, maar ben toch een beetje op ASUS afgeknapt na die ellende van toen. Het komt op zich vaker voor, ook bij andere merken, maar zeker bij de duurdere modellen verwacht ik op z'n minst dat het gewoon werkt.
Ben voor m'n laatste systeem maar voor een goedkoper Asrock mobo gegaan, wat ooit ontstaan is als dochteronderneming van Asus maar uiteindelijk zelfstandig verder is gegaan. Tot nu toe geen spijt van.
had je wel de HCL gevalideerd voor dat geheugen / combinatie ?
Ja, was goedgekeurd geheugen, Corsair XMS en OCZ Reaper. De Intel geheugen controller was ook niet zo kieskeurig destijds zoals je nu met Ryzen hebt. Met 2 sloten gevuld werkte alle modules wel goed. De geheugen controller stond er om bekend het wat zwaar te krijgen met 4 dimms. Maar na vervanging van de chipset cooler werkte het prima. En de meeste andere mobo's hadden geen problemen met de zelfde combi. Al waren er ook wel modellen met problemen hier en daar.
heb je geen case aangemeld by asus , HCL supported is gewoon gratz support,

Ik heb het zelfde gegah by gigabyte met 2 modules die de snelheid niet haalde , case aangemaakt bij croshair en gigabyt, Gegabyte heeft speciaal nog maal de setup nagebouwed en screens gestuured dat de combo werkt , en crorsair heft toen de modules vervangen

daarna geen issues meer.
Sinds wanneer heeft koeling met je moederbord te maken. Je had gewoon slechte airflow in je kast. Ligt niet aan het mobo, maar aan je koeling design..
Vroeger toen de chipset op het moederbord ook de geheugencontroller in zich had en meer I/O moest doen wat nu in de CPU zelf zit kon dat soms een probleem zijn. Zou je moeten weten gezien je geboorte datum.
Vooral bij de Intel P45 en X48 chipset met 4 dimm sloten gevuld werd ie erg warm.
En ik weet niet of de temperatuur meting klopte van die chip maar als hij boven de 60c a 61c uit kwam kreeg ik een CTD. Airflow was prima, goede Antec kast met casefans en airflow van voor naar achter, het koellichaam was gewoon niet groot en of goed genoeg om alle geproduceerde warmte af te voeren. Na op internet te hebben rondgekeken en meerdere voorbeelden had gevonden van mensen die hun Asus M2F CTDs hadden verholpen door het vervangen van de chipset/northbridge koeler het zelf gedaan en alles gefixt. Had er een mooie Thermalright HR-05 heatpipe radiator opgezet en temps van de NB waren niet meer te hoog. Nooit meer een CTD gehad.
Eerlijk gezegd in de north/southbridge tijd geen ervaringen met moederborden zoals die van ASUS.
In die tijd had ik alleen maar Intel moederborden, die waren véél stabieler dan andere moederborden.
En als kast altijd een full-tower zodat er overal genoeg ruimte was voor mijn kolenschopjes om de boel in elkaar te steken, en bijkomend voordeel is dat er genoeg lucht in zit om de boel goed te koelen.
Combineer dat met mooie grote ventilatoren en je hebt een vrijwel stille oplossing.
Memory kies ik zelfs vandaag de dag nog altijd brand-on-brand, kost iets meer, maar dat betaalt zich uit in een betere stabiliteit. En natuurlijk ten alle tijden zonder die RGB onzin.
Volgens de Tweaker die een verklaring gaf kan je het oplossen in de firmware door minder snel te switchen. Dat maakt qua performance weinig uit.

Maar een kaart kopen waarbij niet bespaard is kan inderdaad schelen. In de praktijk is de vraag hoeveel
Nope. Ook bij niet OC. Waarschijnlijk boost de kaart te snel waardoor de "grote" caps niet snel genoeg zijn om de power draw te faciliteren.
Ik zie hier één bedrijf reageren. Maar de andere niet. Ik vraag me af hoe ze dit oplossen. Het grooste probleem is dat dit de spec van Nvidia zelf is fabrikanten deze omruilkosten waarschijnlijk bij Nvidia proberen te verhalen. (terecht in mijn ogen). Maar ik kan wel vanalles lezen over de problemen. Maar nergens wordt een oplossing geboden.
Ik las hier en daar dat de kaart iets lager klokken, 50 a 75 MHz, bij sommige leek te helpen. Ben benieuwd of er ook mensen waarbij dat niet helpt ?? Sommige beweren dat de crashes vooral voorkomen bij GPU clocksnelheden boven de 1950 MHz. De hoogst opgegeven boost clock ligt volgens de pricewatch op 1935MHz, alleen clocken veel kaarten zichzelf hoger. Als die kleine GPU clock verlaging werkt zouden NVIDIA en AIB partners de maximale clocksnelheden iets lager kunnen maken zonder onder de opgegeven boost clocks te komen. In dat geval voldoen ze nog aan de beloofde specs en is er, afgezien van de huidige ellende, niks aan de hand.
Daarom beter niks kopen op release.
Waarom niet? Je was dan goedkoper en hebt dezelfde bescherming/garantie als dat je hem later koopt, je hebt namelijk nog steeda recht op een werkende met de beloofde specs/condities...
Omdat die problemen ook ernstiger hadden kunnen zijn en je alsnog veel tijd/geld kwijt kunt zijn.

Zelfde geld met games als is het retour daar natuurlijk anders maar daar geld het zelfde idee. Alleen is het daar natuurlijk vaak nog erger gesteld.
Schijnt stabieler te zijn, maar ook niet optimaal uiteindelijk.

Ik zou een jaar wachten of kijken of ze de goedkope FU oplossing toepassen aka firmware update of daadwerkelijk de volgende serie uit de fabriek niet op z’n goedkoopst van de band laten rollen.
Die is nog moeilijker te krijgen dan de andere kaarten.
Of voor de Asus kaarten gaan die geen mix gebruiken maar "alleen" de MLCC versie (zie reddit link in artikel)

Daarnaast kan het handig zijn om gewoon te wachten op een reactie van Nvidia of even te wachten op wat AMD gaat tonen volgende maand.

[Reactie gewijzigd door rmca op 27 september 2020 16:32]

Of de asus kaarten
FE heeft ook deze problemen.

Alle kaarten. zelfs de ASUS TUF met 6 MLCCs.

Er lijkt meer aan de hand te zijn dan deze 6 capacitors.
Gewoon geen nieuwe hardware kopen direct wanneer het uit komt, dan ben je ook geen beta tester.

Zou graag een nieuwe RTX 3080 kopen daar mijn GTX 1080 vaak veel moeite heeft met mij huidige 3x 1440p opstelling.

Maar wacht zeker nog 3 maanden voor ik wat koop, dan heb ik lagere prijzen, en als er dan nog geen problemen zijn, is de kans veel groter dat die ook niet meer komen, en laat het bèta testen wel aan andere over.
Ik heb de Gigabyte 3080 GAMING OC 10G besteld, hopelijk is die goed. Kan nergens afbeeldingen vinden van de PCB waarop dit gedeelte te zien is.
Eergisteren heb ik JayzTwoCents' video al gekeken en hij had ook een Gigabyte kaart (volgens mij precies dezelfde als jij). Helaas heeft die kaart ook de 6 poscap's. https://www.youtube.com/watch?v=x6bUUEEe-X8 Timestamp 10:17.
zijn geen poscap's en kijk even naar dithttps://www.reddit.com/r/nvidia/comments/j094bs/buildzoid_gigabyte_gaming_oc_uses_panasonic_470/
en de eagle heeft die ook https://benchlife.info/gi...3080-eagle-oc-10g-review/
verder op die zotac kaarten zie ik iets van 6x 330 sp caps.... dus waarschijnlijk heeft gigabyte er minder last van ?

kan eigenlijk bijna niemand met een gigabytekaart vinden met dit probleem
Ik heb een Gigabyte RTX 3080 Gaming OC en inderdaad nog geen enkele crash gehad.
De gaming oc heeft twee biossen. Wat is het wattverschil daartussen? De gigabyte eagle OC is gelimiteerd tot 340 watt en 1755mhz. Klokt naar 1995-2010mhz.

[Reactie gewijzigd door lordawesome op 28 september 2020 10:27]

Zijn geen Poscaps, kijk deze video maar: https://youtu.be/GPFKS8jNNh0?t=130
slecht nieuws: volgens de reddit zou deze enkel poscaps bevatten en dus het probleem kunnen hebben.

moest ik van jou zijn, dan cancelde ik en bestel je een andere uit de lijst waarvan zeker is dat ze minstens mixed of enkel mlcc's gebruiken (enkel asus strix en tuf momenteel)

jay zijn teardown van de gigabyte bevestigt het:
https://youtu.be/x6bUUEEe-X8?t=580

[Reactie gewijzigd door dasiro op 27 september 2020 17:03]

Ik wacht wel tot ik hem heb, als hij problemen heeft kan ik hem altijd terugsturen. Niet alle kaarten hebben last van deze problemen.
Ik wacht wel tot ik hem heb, als hij problemen heeft kan ik hem altijd terugsturen. Niet alle kaarten hebben last van deze problemen.
Er komt hoogst waarschijnlijk een Firmware update uit voor ALLE GeForce RTX 3080 kaarten die de problemen hebben, en dan woord de auto overklok lager gezet, alle GeForce kaarten hebben dat al sinds de GeForce GTX 1000 kaarten, dat ze overclocken als de karten niet heel warm woorden.

JayzTwoCents heeft er een goede video over gemaakt eergisteren.

[Reactie gewijzigd door AmigaWolf op 27 september 2020 20:11]

Pas nou op met klakkeloos dit advies doorgeven. 3080FE kaarten hebben het probleem ook. Dus mixed mlcc, geen mlcc of full mlcc is op dit moment nog steeds geen garantie voor een stabiele kaart. Tuf en strix kaarten zijn een net zo grote gok als de gigabyte eagle.
Zou dus mooi niet cancelen wat sommige adviseren, niet alle kaarten hebben er last van mooi wachten en zelf testen, je kan m altijd nog terug sturen..
Ga ik ook zeker niet doen, ik test hem uitvoerig en als er problemen zijn gaat hij gewoon retour.
ik heb een Gigabyte gaming oc 3080 en ik heb nog geen enkel probleem ervaren!
Ik heb een gigabyte 3080 eagle OC met 6 poscaps en geen probleem.

Hij klokt stock naar 1995mhz en soms 2010. Heel soms 2025mhz. Dat doet ie in oude games met 50-60% load. Op 100% schommelt ie rond de 1900mhz. Hij is 340 watt. Heb ongeveer 10 spellen uitgeprobeerd.
Gigabyte gaming heeft 470 sp-caps ipv 370 sp-caps en een aparte module die nog eens helpt volgens buildzoid. Veel info hier: https://www.reddit.com/r/...onic_470/?sort=confidence

[Reactie gewijzigd door lordawesome op 28 september 2020 07:59]

Is dat toevallig te zien op de foto's die helemaal onderaan de pagina staan op deze site?
https://www.hardwarecooki...e-rtx-3080-gaming-oc-10g/
Dank voor de informatie, ik heb deze kaart ook in preorder maar begon te twijfelen...

[Reactie gewijzigd door StarWars op 29 september 2020 15:30]

Ik dacht dat de FE ook problemen had met de CTD, maar heb daar verder niet naar gezocht op internet. Niet een beste start zo van Nvidia. Ik vind het altijd wonderbaarlijk dat de consument dit soort problemen ontdekt en er dus kennelijk geen hol getest wordt door de fabrikant. Het begint een beetje te lijken op de games die tegenwoordig uitkomen. Beta test begint bij de release... erg jammer dit.
Lees even na. EVGA kwam bij controles tijdens de productie erachter dat er fouten waren.

Dus ja, er is onderzoek geweest. Vraag is waarom de kaarten dan op de markt komen terwijl problemen bekend zijn.
Lijkt me een vorm van misleiding/oplichting. Die 3080 zijn geen kaartjes van Aliexpress voor een paar euro.
Als je goed leest dan kwam EVGA erachter tijdens kwaliteitstest in de massaproductie. Dit betekend dat men dus al bezig was met massaproductie en dat het ontwerp dus in principe al goedgekeurd is.

Er kunnen twee zaken fout gaan, of Nvidia heeft de fabrikanten zo gepushed dat men bepaalde kwaliteitscontroles achterwege moest laten of men heeft het oorspronkelijke ontwerp niet goed getest.

Misleiding/oplichting lijkt me sterk, gezien men dit niet expres zal gaan doen. De naamschade die eruit voortvloeit zal meer schade aanrichten dan men lief is. Iedereen die een kaart heeft aangeschaft zal wat mij betreft ook een nieuwe kaart moeten kunnen krijgen die geen probleem heeft.
Al wordt dit lastig te controleren omdat men dit waarschijnlijk softwarematig ook eenvoudig kan oplossen door de kaarten een lagere boostclock te geven. Hierdoor zijn de prestaties alleen wel minder goed.
Als je goed leest dan kwam EVGA erachter tijdens kwaliteitstest in de massaproductie. Dit betekend dat men dus al bezig was met massaproductie en dat het ontwerp dus in principe al goedgekeurd is.

Er kunnen twee zaken fout gaan, of Nvidia heeft de fabrikanten zo gepushed dat men bepaalde kwaliteitscontroles achterwege moest laten of men heeft het oorspronkelijke ontwerp niet goed getest.

Misleiding/oplichting lijkt me sterk, gezien men dit niet expres zal gaan doen. De naamschade die eruit voortvloeit zal meer schade aanrichten dan men lief is. Iedereen die een kaart heeft aangeschaft zal wat mij betreft ook een nieuwe kaart moeten kunnen krijgen die geen probleem heeft.
Al wordt dit lastig te controleren omdat men dit waarschijnlijk softwarematig ook eenvoudig kan oplossen door de kaarten een lagere boostclock te geven. Hierdoor zijn de prestaties alleen wel minder goed.
De uitdaging was vooraf al bekend. Nvidia heeft de AIB's niet van volledige drivers voorzien. De AIB's konden dus geen echte games/applicaties testen. Dit om zo de prestaties van de kaarten zo lang mogelijk geheim te houden.

Als je gaat produceren vóór je real world kunt testen dan neem je natuurlijk een risico. Dat een AIB dit risico neemt is logisch. Immer als je gaat wachten tot die drivers er wel zijn, gaat testen en dan pas gaat opschalen dan loop je énorm achter op concurrenten die wel eerder begonnen zijn. Dit is iets dat Nvidia gewoon niet zo handig heeft aangepakt.
NIet zo handig heeft aangepakt is nogal makkelijk verwoord, het was gewoon een domme vertoning.

Nvidia levert de minimale specificaties aan voor de partners, dan moet men met deze specificaties ook geen problemen verwachten. Wanneer Nvidia daarna beslist om hun eigen Founders Edition kaarten een upgrade te geven t.o.v. het oorspronkelijke ontwerp dan neem ik aan dat men slim genoeg is om de drivers ook te testen op het oorspronkelijke ontwerp. Als men dat niet gedaan heeft dan is men te stom voor woorden.

Ik snap waarom de rest is begonnen met massaproductie, maar nog steeds is dit niet slim. Dit probleem is met een driver update makkelijk te verhelpen, maar dit zal betekenen dat de kaarten dus minder snel zijn dan oorspronkelijk de bedoeling was.
AMD werkt op precies dezelfde manier. Sterker, AMD heeft zelfs nog problemen met hun drivers na de launch..

De huidige NVIdia kaarten zullen gewoon een firmware update krijgen met een licht aangepaste boost table welke ervoor zorgt dat de kaart zichzelf iets minder ver overklokt..
Naamschade zal wel meevallen aangezien de meeste fabrikanten er last van hebben.
Idd ik reken dit nvidia aan en niet de fabrikanten. Nvidia had gewoon de drivers moeten geven voor tests.
Zonder drivers kan je niet testen en zonder tests komen dit soort dingen niet naar boven.
Het is ronduit belachelijk dat reviewers ongeteste kaarten moeten gaan testen en drivers hebben voordat de fabrikanten ze hebben...
En waarom heeft nvidia deze kaarten die ze voor controle gehd hebben niet zelf op de pijnbank gelegd en alleen maar op uiterlijk beoordeeld? Technologie is zo ingewikkeld tegenwoordig dat je gewoon goed moet testen.
Die fabrikanten nemen toch ook het risico om de kaarten zonder gedegen te testen in massa productie te nemen?
Ja maar ze moeten wel als ze willen verkopen. De concurrentie is groot. De schuld ligt gewoon bij nvidia. Als doe echt de drivers niet uit had willen geven hadden ze een doos kaarten kunnen vragen en ze op ze test bench kunnen kwakken.
Daar hebben ze zat middelen voor. Ze kunnen immers ook 40 miljard neertellen voor een bedrijf... Waar een wil is is een weg in dit geval maar de wil was er gewoon weer eens niet en alleen om wat centen te besparen.

[Reactie gewijzigd door computerjunky op 28 september 2020 06:05]

Het werkt natuurlijk van twee kanten, de bedrijven gaan er uiteindelijk ook mee akkoord.

Asus, MSI en alle grote fabrikanten zullen ook kaarten verkopen van AMD. Dus hoe wel ik het helemaal met je eens ben dat het de schuld van Nvidia ligt. Is het van de rest van de fabrikanten wel dom om hun producten niet te laten testen voordat men met de massaproductie begint. We praten hier niet over kleiner uitgaves die mensen doen. Wat mij betreft ronduit belachelijk dat grafische kaarten met deze prijzen dus blijkbaar niet eens getest kunnen worden voor men met massaproductie begint omdat Nvidia bang is dat er wat gelekt wordt 8)7

Ja want zo'n lek is veel belangrijker dan zorgen dat je goede producten levert aan je klanten. |:(

Ik hoop dan ook ten zeerste dat de fabrikanten een grote claim gaan neerleggen bij Nvidia en het liefst dat alle klanten die problemen ondervinden de kaarten ook gewoon terug sturen. Het probleem is dat mensen zo graag een kaart willen hebben dat ze er ook mee akkoord gaan dat als ze software matig worden underclocked om problemen te voorkomen.
EVGA is niet de enige, dit is het reference model van Nvidia. Iedereen die zich gewoon daar aan houd (veelal de goedkopere versies) zullen dit probleem mogelijk vertonen. Ja dit is softwarematig waarschijnlijk op te lossen. Maar dan krijg je waarschijnlijk een 3080-. Dat mogelijk weer op te lossen is door tweaks.
Vermogen spikes die problemen geven bij oude PSUs/PSU op het randje van hun kunnen ?
Lijkt me dat vooral de spikes fors zullen afnemen bij milde underclocks/undervolting.
EVGA teste en de ander fabrikanten blijkbaar niet, ook nvidia blijkbaar niet want ook met de FE kaarten schijnen er CTD's te zijn.
Sommige fabrikanten hadden helemaal geen drivers voor de review embargo opgeheven werd... succes met testen dan.
Het kan zijn dat EVGA het net op tijd opmerkte en andere fabrikanten niet. Het is niet een probleem dat zich snel en consistent voordoet, en er wordt gemeld dat ook EVGA al exemplaren had uitgestuurd en toen nog net kon bijsturen. Kan goed zijn dat de kaartmakers er even later allemaal achter waren, en nu allemaal hun proces hebben aangepast of daarmee bezig zijn.

Maar we moeten eerst wachten op de complete details van het probleem, dat ook een combi kan zijn van niet ideale condensators en bijvoorbeeld de drivers, de specifieke voltages / vermogens / frequenties / instellingen van de kaart, of iets anders. De fabrikanten zullen wel snel met meer uitleg komen.

Als het inderdaad een serieus hardwareprobleem is dat bij veel consumenten beland is, dan is dat alsnog erg knullig en dan moet het bijna wel te maken hebben met grote haast en onvoldoende testen. Verder is het dan hopen op een nette afhandeling. Maar eerst de volledige feiten.

[Reactie gewijzigd door geert1 op 27 september 2020 17:05]

lees nog een keer evga heeft het alleen naar reviewers verstuurd niet naar de klanten.

anders hadden hun reviewers waarschijnlijk te laat de nieuwe kaarten en konden ze geen review plaatsen en liever wel een review met understament dan geen review ;p
Dat bericht heb ik gezien, maar volgt nadat er al problemen aangegeven waren. Daarvoor was er niets over te horen/lezen.
3080 Eagle OC hier met 6 poscaps en geen enkel probleem.
Ik ben blij voor je. En gelukkig ook vele aderen.

Maar er zijn er genoeg die wel problemen hebben. Daar gaat het over.
Ik ben werkelijk niemand van de gigabytes tegengekomen met een probleem. Allemaal met 6 poscaps.
Dus wat jij ziet is waar?
Er zijn genoeg meldingen van de problemen. Maar die bestaan niet door jouw referentiekader.
Je doet net alsof ik dit uit de lucht grijp. Ik heb er flink naar gezocht omdat ik zelf een Gigabyte heb.

Hier een recent draadje over enkel de Gigabytes, niemand met een probleem: https://www.reddit.com/r/...onic_470/?sort=confidence

Het blijkt dat de Gigabytes 6 SP-caps hebben van de 470 versie. Wat ik ervan begrijp is dat die beter zijn dan de 330 of 230 varianten. Die andere fabrikanten hebben gebruikt.

[Reactie gewijzigd door lordawesome op 28 september 2020 13:01]

1 minuut op de thread waarheen jij verwijst:

I'm currently using the Gigabyte Gaming OC and I've been seeing crashes in DX12 titles over 2Ghz. Droping my core clock by -50 resolves this issue completely. If what Buildzoid is saying is true, then he has suggested elsewhere this issue might have less to do with PCAPS and more to do with another unidentified issue. It could even be driver related.
Okay, je hebt gelijk. Dat is wel balen als de OC hebt gekocht en de factory overclock niet haalt.

Persoonlijk heb ik de Gigabyte Eagle die meestal tot 1995mhz klokt. Soms 2010mhz. Nog geen crash gehad. Ik lees wel dat MLCC's 'prone to cracking' zijn in tegenstelling tot SP-caps. Dus misschien niet zo erg dat ik geen MLCC's heb.

https://www.reddit.com/r/...tm_medium=web2x&context=3

[Reactie gewijzigd door lordawesome op 28 september 2020 13:35]

Ik vind het altijd wonderbaarlijk dat de consument dit soort problemen ontdekt en er dus kennelijk geen hol getest wordt door de fabrikant.
Als nvidia je geen drivers geeft, omdat ze alles geheim willen houden, dan kan je als fabrikant niks echt testen.

De AIB zijn dus eigenlijk blind aan het werk. Dat is het nadeel van AIB kaarten die gelijk bij launch al beschikbaar zijn. zeker als de GPU fabrikant (nvidia in dit geval) wel alles geheim wil houden.

[Reactie gewijzigd door Countess op 27 september 2020 17:47]

De AIBs hadden idealiter gezamenlijk moeten besluiten niet tot massaproductie over te gaan zonder mogelijkheid fatsoenlijk te testen. Te riskant. Maar ik las ook geruchten dat NVIDIA de eerste maand $50 korting gaf op de GPU's aan de AIB partners. Misschien was het een extra stimulans om toch onder deze voorwaarden al in productie te gaan als het gerucht klopt.
nvidia heeft zijn AIB's over het algemeen (te) goed onder de duim. een gezamenlijk opstand zie ik dus eerlijk gezegd niet gebeuren.
Omdat je simple weg niet al die combos kunt testen en 3rd parties hun eigen design en merken electronicacomponenenten mogen gebruiken, daar kan Nvida niet voor garant staan.

het is een Xbox of apple waar alle hardware het zelfde is.

Zoals bij elke nieuwe launch van een proc of GPU volgen er firmware en drivers die het meestal al wel fixen.
Het probleem was dat er in dit geval eigenlijk helemaal niet getest kon worden met typische/normale workloads. Nvidia gaf geen werkende driver vrij waarmee Windows gedraaid kon worden. Alleen een super beperkte test driver met ingebouwde test tool. En blijkbaar was die test niet in staat de kaart even zwaar te belasten zoals menig nieuw spel dat doet waardoor dit probleem niet voorkwam/werd opgemerkt. Een essentieel onderdeel van een goede test procedure zijn real world workloads IMO.
en hoe komen we nu achter welke kaarten goed zijn en welke niet. ik kijk zelf naar deze kaart maar schrik wel van dit probleem. ik kan dit niet hebben tijdens een project. moet je nu kijken naar benchmark resultaten op 3dmark en kijken welke kaarten zijn gebruikt of wat is handig ? of alleen founders kaarten kopen ? lijkt mij niet dat dit is op te lossen met een easy fix.
Dit is prima op te lossen. Gewoon nvidia boost uitzetten zodat hij niet meer vraagt als noodzakelijk is. Maar ja dan kan je beter iets meer geld uitgeven en een kaart kopen die het wel aan kan.

Andere optie is vragen aan je verkoper/fabrikant Of wachten tot er meerdere foto's zijn van verschillende PCB.
Hoe zet je de nVidia boost uit?
Hoe zet je de nVidia boost uit?
Via software als MSI afterburner kun je de power limit en temp limit eigenlijk altijd wel aanpassen. Lagere power limit > lagere (boost) clocks.
Moet ik dan ook niet een curve aanmaken?
Dacht ik al want kan het nergens vinden. Dus waarschijnlijk een trollgrap?
Met MSI je max temp naar beneden halen en de power set lager zetten.

Maar er is blijkbaar niet een manier om dit normaal in de driver software te doen....
Soms is het zo dat de energie modus niet werken in de nVidia driver. Soms speel ik oudere spellen en klokt de 1080Ti helemaal naar 1987MHz, wat echt onzin is. Maar de powerlimit lager zetten zorgt er dus voor dat undervolten wel echt werkt? Ik dacht namelijk via curves aanmaken.
In de Nvidia Control Panel de modus van Optimaal naar Adaptief zetten.
Lukt helaas niet. nVidia is soms echt bugged en of dom met vertalingen en of random want Adaptative is Optimaal vermogen of Prefereer maximaal :/ Optimaal vermogen is nu vertaald in Adaptive.
Je kan nvidia boost niet eens uit zetten. Dat zit in de kaart en gaat vol automatisch. Dat is net als de turbo van je auto uitzetten. dat kan ook niet die staat standaard aan.

Je kan je kaart underclocken maar software als afterburner actief hebben geeft ook vaak problemen dus of dat nou zon goed idee is...Ik heb nul software actief als ik game en dit zou dus ook totaal onacceptabel zijn. Het is ook de reden dat ik geen fan ben van de amd drivers. Veel te veel actieve processen op de achtergrond bij nvidia is dat nul na mijn tweak.
Daar kwam ik ook achter ja... wel raar.
Niet echt raar. Het werkt al zeker 5 jaar zo. Amd doet het ook en ook intel en amd doen het met de laatste generatie cpu's.
Helaas zien we alleen de afgelopen jaren dat de rek toch echt wel een beetje uit de solicon markt is en alles draait steeds verder op zijn max en dus is een turbo boost finctie misschien veel minder gewenst door de mogelijke risico's die het met zich mee brengt.
Als ze deze kaarten met een soft locked max clock van 1925 mhz hadden verkocht en heel de boost 3.0 eruit gesloopt hadden had er geen haan naar gekraaid, was hij ongeveer even snel en waren ze allemaal stabiel en wisten ze dat iedere kaart die clocks wel aan kon. En mensen konden dan alsnog met software over die clocks heen als oc zodat je de overclockers niet negeert en boos maakt.

8 jaar geleden kocht ik een intel 3770k en die kon ik van 3,5 ghz zonder aan het voltage te zitten overclocken naar 4.6 ghz. en met meer voltage draaide deze in 2013 al gewoon op 5.1 ghz op 22nm.
Over de jaren zijn de factory clocks steeds verder omhoog gekropen en de overclock ruimte verder en verder gekrompen. en een boost functie die dus helemaal uit zichzelf gaat lopen overclocken gebaseerd op 2 factoren (temp en power) kan dan problemen veroorzaken. Die functie heeft namelijk totaal geen benul van hoe de kaart opgebouwd is en of je voeding wel adequaat is enz.

Wat mij betreft mogen ze al deze 'intelligende' boosts dan ook stoppen bij volgende producten en gewoon standaard met een max clock leveren waar iedere kaart op getest word zodat we dit soort drama's en teleurgestelde mensen die geen 5.3 ghz op hun intel 10900k zien kunnen voorkomen.
ik verwacht dat ze komen met een 3080TI, dan is de vraag of het niet beter is om daar op te wachten en de 3080 even tijd te geven. ik neem aan dat ze iets moeten gaan doen met de problemen die ze nu uit de markt terug krijgen en dit ook verwerken in de TI. op dit moment maak ik even pas op de plaats en dat los van de verkrijgbaarheid.
De 3080 Ti heeft 20GB geheugen en gaat vast en zeker 1000-1100 euro kosten.
ik vraag me af wat die 20gb extra te bieden heeft en hoeveel sneller die dan is tegen over de normale 3080, immers de 3090 blijkt maar 10-15% sneller te zijn volgens gamer nexus,. zou 300 euro opslag voor beetje geheugen ook wel erg veel vinden maar maak me meer zorgen om een brakke kaart.
Dit is pijnlijk voor Nvidia, de Nvidia fans noemden altijd stabiliteit als één van de grote redenen dat ze beter waren dan AMD.
Nou wie herinnert zich nog de beruchte generatie van nvidia die van tijd tot tijd de oven in moest? Het is wel eens eerder goed misgegaan bij nVidia.
Daar had niet alleen Nvidia last van.

Destijds is lood bij solderen in de ban gedaan en ontzettend veel electronica had jarenlang soortgelijke kuren. Nvidia was niet de enige.
juist dat... van de marktleider met hogere prijzen/marges verwacht je meer kwaliteit.
Zou heel goed kunnen dat de kaarten een te lage voltage hebben en dat in conflict gaat met de power (wattage) limiet. Bij 0,800mv verbruikt de kaart al 292watt en bij 0,900mv gaat tie al naar 346watt, hoe hoger de GPU klokt hoe hoger het verbruik en daardoor krijg je stabiliteits issues.
https://www.youtube.com/w...4qZFDpYE&feature=emb_logo

Nvidia boost functie werkt dus niet bij deze kaarten vanwege de hoge boost (kloksnelheid) bij lage voltage om het verbruik beperkt te houden.

[Reactie gewijzigd door Enchantress op 27 september 2020 16:57]

Het werkt wel met kaarten die de mlcc's gebruiken, welke duurder zijn. Sommige fabrikanten hebben gewoon voor de goedkopere optie gekozen met alle gevolgen van dien. Dat hoor ik o.a. bij Jaze's OC.

Voor de 3080 kaarten is er minstens één zo'n rijtje mlcc's nodig voor een stabiele werking, ook met boostclock. Twee is nog beter en word dan ook door Nvdia gebruikt bij hun reference 3090.

Wat Asus doet (met alleen maar mlcc's) is wellicht een beetje overkill, maar het kan natuurlijk geen kwaad.

[Reactie gewijzigd door Madrox op 27 september 2020 18:49]

De Asus TUF met 6 MLCCs crashed ook, dus zegt helemaal niets.

Er is meer aan de hand dan alleen die 6 caps arrays.
Maar zelfs over de Asus ROG Strix zijn er berichten dat (sommige?) kaarten ook dit probleem hebben. De tijd zal het leren of dat aan de gfx kaart ligt of bijvoorbeeld aan de stroom toevoer. Maar ik meen dat Gamer Nexus, waar ik redelijk van op aan denk te kunnen, het ook zei.
De realiteit is dat ze niet weten waar precies het probleem zit.
De menigte met "die met meerdere kleine zijn ok" hebben geen idee waar ze het over hebben en praten gewoon wat youtube sterren na die ook eigenlijk niets weten en maar gokken.

De kans is waarschijnlijk dat het en en en is: en de hoge power noden en de sneller release/beperkt testen en bepaalde hardware en niet mature drivers en ...
Vergeet niet de vele elcheapo voedingen die menig gamer in zijn pc heeft die ineens op zijn donder krijgt of de net niet A merk Moeder boarden die uit zijn voegen lopen door de PCI power draw etc.
Daar zat ik nou ook aan te denken. Aangezien sommige mensen vergeten zijn dat er meer stroom nodig is. Vele denken ja 750 is genoeg. Genoeg als je een gewone cpu gebruikt ja, maar als je een overgeklokte cpu hebt, dan is 750 al snel een limiet hoor en je moederbord moet het aankunnen. Ik denk dat als je tegen je psu limiet zit, dat je stroomtoevoer niet zo stabiel meer is en dat je videokaart daar niet tegen kan.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee