EVGA meldt 30 doorgebrande RTX 3090's door New World-bèta

EVGA heeft in de afgelopen dagen dertig rma-aanvragen gehad voor kapotte RTX 3090-videokaarten na het spelen van de game New World. De Amerikaanse fabrikant geeft getroffen gamers een nieuwe kaart en gaat onderzoeken hoe de kaarten konden doorbranden.

De bètaversie van New World, een game van Amazon Game Studios, ging maandag online. Al snel kwamen er meldingen dat de game in de menustructuur, tijdens het inloggen en in de wachtrij, crashte en daarbij soms zelfs hardware beschadigde. Binnen 24 uur bracht de gameontwikkelaar een patch uit die de framerate in de menu's beperkte en de hieraan gelieerde crashes oploste.

Vooral EVGA-videokaarten met een GeForce RTX 3090-gpu leken slachtoffer te worden van het probleem. In sommige gevallen grepen de ingebouwde beveiligingsmechanismes op tijd in door de kaart uit te schakelen, maar in enkele tientallen gevallen gebeurde dat om onbekende redenen niet en brandde de videokaart door. Een woordvoerder van EVGA geeft in een gesprek met Tweakers aan niet substantieel meer gevallen te verwachten dan de dertig waar het nu van weet, omdat gamers van wie een RTX 3090 sneuvelt, dat vermoedelijk vrijwel direct zullen melden.

EVGA heeft het probleem zelf nog niet kunnen reproduceren, omdat het scenario waarin de problemen zich voordeden, sinds de uitgebrachte patch niet meer beschikbaar is. Volgende week verwacht de fabrikant de eerste defect geraakte kaarten te ontvangen en die te kunnen analyseren, om zo de technische oorzaak van het hardwarefalen te achterhalen. Dat de fabrikant oververtegenwoordigd lijkt in de meldingen, wijt EVGA aan zijn zeer hoge marktaandeel bij specifiek de RTX 3090-gpu. Op het forum van New World worden mondjesmaat andere doorgebrande kaarten gemeld, waaronder ook Radeons.

YouTuber Buildzoid, bekend van zijn uitgebreide pcb-analyses, speculeert in een video dat de stroomlimiet van de volledige kaart niet altijd actief werd doordat het probleem zich in een van de kleinere rails bevond. De Vcore-vrm van bijvoorbeeld de EVGA RTX 3090 FTW3 Ultra is dusdanig krachtig dat de stroomlimiet van de kaart bereikt zou worden ver voordat de powerstages overbelast raken. De rails voor geheugen (Vmem) en onder andere caches (Msvdd), die uit veel minder fasen bestaan, zouden wel kunnen falen voordat de stroomlimiet van de complete kaart wordt bereikt. Igor's Lab zegt echter te weten dat niet de vrm, maar de chip voor de aansturing van de fans een centrale rol speelt bij het probleem.

De fabrikant kon tegen Tweakers nog niet zeggen of een van deze verklaringen klopt. Daarvoor wacht EVGA de pcb-analyse van defecte kaarten af. Hoe dan ook kunnen getroffen consumenten een snelle afhandeling van de rma-verzoeken verwachten, verzekert de woordvoerder. De doorgebrande videokaarten vallen binnen de garantie en zullen worden omgeruild voor nieuwe exemplaren.

Een close-up van het pcb van een defecte RTX 3090. Bron: GremaxLP / ElmorLabs Discord
Een close-up van het pcb van een defecte RTX 3090. Bron: GremaxLP / ElmorLabs Discord

Door Tomas Hochstenbach

Redacteur

23-07-2021 • 14:25

141

Reacties (141)

141
139
80
13
0
39

Sorteer op:

Weergave:

Volgens deze tweet is het niet een exclusief rtx 3090 probleem:
https://twitter.com/JayzTwoCents/status/1418107831786434561

Ik meen ergens gelezen te hebben dat dit wellicht te maken heeft met een uncapped framerate in het menu waardoor je gpu ineens duizenden frames per seconden draait wat zorgt voor een voltage piek of iets dergelijks (dit is niet bepaald mijn expertise, dus als ik het fout heb, verbeter me aub).
Kennelijk zou het dus helpen als je je fps capped met iets als rivatuner.
Met uncapped framerate draaien is heel gangbaar en in het algemeen heel redelijk. Het zal vooral zijn dat het menuutje grafisch juist niet zo interessant is, waardoor 90% van de GPU daar eigenlijk niks voor hoeft te doen, de FPS gigantisch omhoog schieten, en de bottleneck bij een enkel onderdeel komt te liggen, wat daardoor doorbrandt.

Als er geen V-sync-achtige zaken aan staan is een GPU tijdens het gamen standaard uncapped en 100% van de tijd aan het renderen, dus het is niet zo gek dat een softwareontwikkelaar daar geen bescherming tegen inbouwt.
Ik zou hem dan ook juist om willen draaien. Ik vind het vooral gek dat de driver niet ingrijpt. Onafhankelijk van welke vraag een stuk software “stelt” aan de GPU, moet de driver van de GPU dit soort excessen ten alle tijde kunnen ondervangen. Nu zal dergelijke beveiliging ongetwijfeld aanwezig zijn, maar klaarblijkelijk voldoet deze in dit geval toch niet.
De driver zou nooit moeten ingrijpen in framerates zolang er geen beperkende settings zijn ingesteld. Er zijn nog steeds games waarbij bepaalde acties in-game (bijv. rate of fire) afhankelijk zijn van framerate waardoor je die zo hoog mogelijk wilt hebben, soms zelfs hoger dan de maximale refreshrate van je scherm. Ook input lag is vaak/altijd een functie van fps. Maar ook als je een game op full ultra draait en je geen heel hoge framerate haalt is je belasting zo goed als volledig, daar zou dus voor de kaart geen verschil in mogen zijn. Als ik een usecase heb waarin ik 10000x per seconde een beeld wil renderen, en de kaart kan dat qua performance halen, eis ik dat de driver niet ingrijpt met een arbitraire fps-limiet.

Wel ben ik met je eens dat de hardware niet kapot zou mogen gaan, maar dat is meer aan het design van de hardware te wijten. Niks wat je vraagt van de hardware zou voor defecten mogen zorgen. Zo is bijvoorbeeld mijn motor door de fabrikant tijdens het ontwerpen getest door deze 24 uur lang volgas te draaien zonder kapot te gaan. Dat ga je als normaal persoon nooit doen, maar de bedoeling is dat je hem zelfs met "gekke vragen" niet kapot krijgt.

[Reactie gewijzigd door DataGhost op 23 juli 2024 02:14]

Het is inderdaad waar dat je in bijvoorbeeld Counterstrike beter presteert op een hogere fps, ook al speel je op een 60 Hz scherm (Linus). Daar zit echter wel een grens aan, en die grens zal een stuk lager 10.000 frames per seconde liggen.

Dat een driver nooit zou moeten ingrijpen is een vrij onredelijke eis. Er zitten genoeg limieten op je kaart die constant bezig zijn om prestaties te balanceren met stabiliteit en levensduur, zowel in de drivers als de hardware. Het lijkt me ook niet een heel raar verhaal als er een limiet zou zitten op het toerental van een motor, omdat hij boven die limiet stuk zou kunnen gaan. Het verschil en ook het probleem is hier dat de metaforische motor in een EVGA 3090 ontploft, terwijl andere motoren afslaan om schade te voorkomen.
Als ik dit goed heb begrepen is dit meer dat de toerenbegrenzer niet goed werkt als je gas geeft op een ijsvlakte, waardoor je de motor stukdraait (teveel power draw), terwijl hier wordt gesuggereerd dat de driver een soort traction control zou moeten zijn die probeert dat je geen wielspin ("te hoge" FPS) krijgt (ook al zou je dat willen) terwijl je nog ruim binnen een acceptabel toerental zit.
Je motor draait niet stuk door het hoge toerental. Hij draait stuk door het gebrek aan smering omdat je olie niet gekoeld wordt. Het exacte toerental heeft hier weinig effect op, alleen een hoger toerental zal sneller problematisch zijn.
De "power draw" zoals je het noemt, is hier kortstondig. Er kan immers geen hoger toerental bereikt worden dan wat de ECU toelaat. Dit werkt feilloos en faalt nooit.

En daarna spring je over naar iets wat na de versnellingsbak geregeld word. Tractie controle is gebaseerd op kracht. Er is kracht nodig om je wielen te laten slippen, geen vermogen. Aangezien een videokaart geen kracht (lees NM) maakt maar wel vermogen, kom je toch weer terug op toeren begrenzer.

Al is dat allemaal zinloos. De driver zou nog zoveel kunnen. Als je PCB door schroeit is dat in mijn ogen een temperatuur probleem wat in zou moeten houden, een slechte batch plastic voor de PCB of crappy vrm's
Dit gebeurt imo niet op driver niveau. Die beveiliging zit ingebakken in de hardware.
Dit is 100% niet de schuld van New World of wat dan ook, het is een hardware/configuration issue...

Ikzelf ben ook een game developer en in hobby projecten heb ik soms ook gewoon vsync uitstaan, dan heb ik bijvoorbeeld een leeg scherm die rendert op 8000fps, dit hoort je GPU niet kapot te maken. Het feit dat New World zonder vsync in een laadscherm met duizenden fps runt verbaast me niets en zou ook niks uit horen te maken (op het feit na dat je een beetje nutteloos stroom verbruikt :P)

Dit hoort gewoon op hardware of GPU firmware niveau opgevangen te worden, als een deel teveel stroom verbruikt dan moet dat ding gewoon gedownclocked worden of limited op een manier.

Ik kan me echt ergeren aan de pure ignorance dat sommige personen hebben en de schuld meteen bij de devs van New World leggen (en daarlangs dus ook die game's reputatie omlaag halen), als je gewoon doodnormaal ligt te renderen in OpenGl/Vulkan/Dx en geen speciale software gebruikt dat je videokaart ligt te overvolten/overclocken ofzo dan hoort er gewoon letterlijk niks fout te kunnen gaan.

Als jouw PC dan uitvalt omdat ie te heet wordt of aldoende dus je videokaart opblaast omdat ie teveel stroom trekt dan is het in geval 1 een issue aan jou configuratie ivm te weinig koeling, en in geval 2 een issue bij je videokaart vendor ivm slechte componenten of iets dergelijks.
Ja dit sentiment deel ik ook. Ik zou denken dat 100% belasting gewoon zou moeten kunnen, daar draaien benchmarks en stress tests normaal ook op. Als die dan te warm zou worden kunnen de clocks omlaag of de fanspeed omhoog en anders in het ergste geval maar een bluescreen. Fysiek doorbranden lijkt mij echter niet iets wat zou mogen. Nu kan de game wel de schuld krijgen dat de GPU te hard belast wordt maar neem aan dat wanneer je CPU niet de bottleneck is dat ook in normaal gamen het geval kan zijn. Toch vraag ik mij wel af hoe dit euvel niet eerder aan het licht is gekomen, het eerste wat ik doe met een nieuwe gpu is deze flink laten werken aan benchmarks en stresstests
In die tweet lees ik dat andere kaarten shutdowns & failures ondervinden, maar niet direct dat ze doorbranden.
Natuurlijk is/was er wat mis met de game, maar blijkbaar ook wat met de EVGA kaarten.
In die tweet lees ik dat andere kaarten shutdowns & failures ondervinden, maar niet direct dat ze doorbranden.
Natuurlijk is/was er wat mis met de game, maar blijkbaar ook wat met de EVGA kaarten.
Ik vind het 100% de 'schuld' van EVGA. Software zou een kaart niet kapot moeten krijgen. Ja natuurlijk genereert het menu een idioot hoge FPS en is dat nogal zonde van de stroom, maar op een moment dat een kaart daarvan doorbrandt, dan is de beveiliging van de kaart gewoon niet goed. Ik bedoel, in feite veranderd het menu in een gigantische stresstest voor de kaart. Daar mag de kaart toch niet kapot van gaan?
Ik ben het met je eens, maar in de praktijk ligt het iets genuanceerder.

De vergelijking is niet 1 op 1, maar zie het als een toerenbegrenzer van een motorblok. Deze beschermt, maar als van z’n 5 direct terugschakelt naar z’n 2 kan ook zo’n begrenzer de geest geven en uiteindelijk het blok laten ploffen.

Die kaarten krijgen dermate veel voor de kiezen dat de boel niet te houden is en dus defect raakt.

Ik vind dat EVGA een topservice biedt door zonder pardon de kaarten direct te vervangen. Los van het feit of de software wellicht brak geschreven is.
Zover ik weet zit er thermische beveiliging op deze kaarten, dat lijkt me de beveiliging die nodig is om schade te voorkomen. Een dergelijke beveiliging zou dit soort doorbranden (foto) onmogelijk moeten maken. Afgezien van hoe de load wordt aangeboden, moet er een max zitten aan de temperatuur die een kaart mag worden voordat hij gewoon letterlijk uitvalt. Zover ik weet (maar ben leek) werkt dat zo bij CPU's (en ram?) ook zo, te heet (zonder gekke firmware hacks) is gewoon paf boem uit, om de kans op schade aan de hardware te verkleinen.

Als mijn bovenstaande verhaal klopt zijn de marges gewoon te breed genomen voor deze kaart, al dan niet alleen van EVGA. Dus wat dat betreft is de fout volledig aan EVGA kant. Als het spel in kwestie echt firmware aanpassingen zou doen om kaart een extra boost te geven ofzo, dan pas komt in mijn ogen het spel als schuldige in beeld. Maar in die situatie zou ik ook een dergelijk spel niet graag op mijn pc willen hebben, hardware dient onafhankelijk te werken van de software.
Dat is op zich het doel van een thermische beveiliging. De vraag is dan nog wel waar de temperatuur gemeten wordt en waar deze kaarten zijn doorgebrand. Als het scenario voor deze opwarming onwaarschijnlijk is (een overvraagde Vcore VRM die in zijn ontwerp marge moet opereren) dan kan het best zijn dat voor dat scenario geen temperatuurmeting is voorzien. Die componenten waren immers al overgedimensioneerd.

[Reactie gewijzigd door teacup op 23 juli 2024 02:14]

Op het moment dat je sporen van je print gaan doorbranden,
Dan heb je gewoon een zeer slecht ontworpen PCB,
Of dat nou uit kosten overwegen is daargelaten.
Thermisch beveiliging doet weinig tegen sporen die door branden.
Stroom meten en hier direct op ingrijpen, kortsluit beveiliging (mosfet in serie, dan maar crash, maar geen doorgebrande sporen)
Of gewoon je duty cycle limiteren van je VRM’s.
Zelf werken we met PCB’s waar honderden amperes overgaan, maar alles kan dubbel aan stroom aan.
Op het moment dat je sporen van je print gaan doorbranden,
Dan heb je gewoon een zeer slecht ontworpen PCB.
Op zich mee eens, maar in dit stadium weten we die oorzaak nog niet precies. Die analyse was nog niet afgerond. Je opmerking is trouwens los daarvan wel terecht. Zelf dacht ik nog erg component gericht. Maar je verbindende paden kunnen net zo goed een zwakke schakel zijn. Terecht punt!
Wat dacht je van schade aan lijf en leden?
Als dit net verkeerd gaat kan je huis gewoon affikken.

Heel veel jaren terug eens een P4 laptop gehad die geen goeie beveiliging had en blijkbaar op standby stond. Hele rugzak ging in vlammen op, gelukkig op een betonnen vloer.
Schade aan lijf en leden is uiteraard nog belangrijker als een videokaart. Maar dat is een gevolg van, als de hardware wordt beschermd zal de brand nooit optreden.
Dit soort problemen in desktopelektronica (met lage spanningen) zorgen zeer zelden voor brand.
Wat je beschrijft klinkt meer als een probleem in combinatie met een Li-ion accu. Li-ion accu's kennen een thermal runaway.
Deze service is letterlijk het minste dat ze kunnen doen.

Dit is de GPU variant van

while (true) {
print("hello world");
}

Zolang alles stock draait, is hardwareschade door ongeacht welke code compleet onacceptabel. Ik zie dit meer als een motor die opblaast als je meer dan vijf keer achter elkaar rond een rotonde gaat. Sure, het is een raar ding om toe doen, maar daar hoort het gewoon tegen te kunnen.

Vergeet niet dat we tegenwoordig met WebGL ook vanuit een website de grafische kaart kunnen aansturen. D'r is een reëele kans dat rtx 3090-eigenaren dus maar één klik op een verkeerde link verwijdert zijn van een gefrituurde kaart.

Het kan me eigenlijk helemaal niets boeien hoeveel moeite het de GPU-makers kost om zoiets te voorkomen: dit is gewoon onacceptabel.

[Reactie gewijzigd door laurxp op 23 juli 2024 02:14]

Tot de software zegt laat de lucht even uit je banden dat is beter voor de auto. Dan doet de hardware dat ook gewoon. Het is altijd zo makkelijk om te roepen maar we weten niet wat er gebeurt is.

Het enige wat ik uit J2C video kan halen is dat op de een of andere manier zijn EVGA een power draw had van 120% met een load van 50 a 60% en een max van 100% zou moeten hebben. Maar op de een of andere reden de OCP niet of laat aansloeg En ook totaal niet stabiel liep. Zijn MSI had daar geen last van. En ik vind het fair om in ieder geval de onderzoeken van EVGA Af te wachten. Want er is meer aan hand.

[Reactie gewijzigd door loki504 op 23 juli 2024 02:14]

Ik vind het persoonlijk niet genuanceerder. Als software (in dit geval een spel) in staat is om een videokaart 'van de 5e naar de 2e versnelling' te gooien, dan had de kaart een beveiliging moeten hebben waardoor dit niet mogelijk is, of waarbij de kaart zichzelf uitschakelt. Ik blijf erbij: de firmware zou moeten zijn dat software de kaart niet zomaar kapot kan krijgen, zeker niet met oververhitting.
Het is ook helemaal niet genuanceerder. Als dit met een relatief grote release als de New World beta kan gebeuren met een relatief simpel probleem als een uncapped framerate in een menu, dan is de kaart gewoon niet te vertrouwen. Weet jij veel wat er gebeurt bij een volgende beta van een andere game of misschien een wat kleinere indie game op Steam.

Ik zou er nu ook niet lekker bij zitten als ik deze kaart in mijn systeem had zitten en er verder niks aan wordt gedaan om dit probleem op hardware of firmware niveau te verhelpen. Los van schade aan je videokaart en eventueel andere hardware in je PC lijkt dit me een aardig brandveiligheidsrisico.
Of als het uit te buiten is met malware; betaal x Bitcoin of je kaart(en) worden gestressed
Een begrenzer beperkt alleen de ontsteking en brandstoftoevoer. Die houdt je motor niet tegen om sneller te draaien als er een externe kracht is.

Anyhow, dit is toch anders. Want zoals je zelf aangeeft is het terug in z'n 2 schakelen een actieve "sabotage" je weet dat niet goed is en schadelijk is.
Sterker nog probeer (zonder je koeling op te laten komen!!!) maar eens terug te schakelen naar z'n 2: je synchromesh ringen zullen niet meewerken! Geniet tekenen dat het niet goed is.

Het uitzetten van de frame rate cap is heel iets anders. Dat is vrij normaal gebruik (wordt al tientallen jaren door vele mensen gedaan) en zou gewoon goed moeten gaan. Er staat ook geen waarschuwing ofzo bij, want niemand verwacht dat het schadelijk zou zijn.
C.q. dat een kaart hierdoor kapot gaat is abnormaal, waardoor het mijns inziens geen "degelijk product" is. Ook na de 2 jaar fabrieksgarantie zouden ze dit moeten vervangen.
Maar die kaarten zijn zodanig gemaakt dat wat je ook doet, ze niet kapot gaan. Wat de softwareboer ook schrijft.
Ik vind het 100% de 'schuld' van EVGA.
Dat vind EVGA ook, daarom krijgen mensen ook een nieuwe kaart.
Software zou een kaart niet kapot moeten krijgen.
Net zoals Software geen bugs zou moeten hebben. Maar shit happens.
Shit happened inderdaad. Firmmware is ook software en naast de software word ook de hardware door mensen ontwikkeld en geproduceerd. Kan allemaal fout gaan. Uiteindelijk gaat het erom hoe fouten opgelost worden. De fout ligt wat mij betreft dus 100% bij EVGA en die doen precies wat je dan van ze verwacht; het probleem oplossen. Neemt niet weg dat het wel echt een fout is.
Dat vind EVGA (nog) niet. dat gaan ze nog uitzoeken.

Ze doen dit primair om hun goede garantie/service reputatie hoog te houden.

Zou goed kunnen dat de schuld bij Nvidia ligt. Was er tijdje geleden niet een of ander stroom probleem met deze generatie kaarten waar Nvidia van wist maar ze het probleem van zichzelf afgeschoven hebben door te zeggen: de kaartbouwers zoeken dat maar uit?
Deze discussie is in de vorige thread rondom dit topic ook al gevoerd.

"Ik vind het 100% de 'schuld' van autofabrikanten als ik mijn gaspedaal volledig indruk in de 1e versnelling en vervolgens mijn motor ontploft. bestuurders zouden een automotor niet kapot moeten krijgen. Ja natuurlijk doet de bestuurder iets enorm stoms en dat is nogal zonde van de benzine, maar op dat moment dat een motor daarvan doorbrandt, dan is de beveiliging van de motor gewoon niet goed. Ik bedoel, in feite veranderd de bestuurder in een gigantische stresstest voor de motor. Daar mag de motor toch niet kapot van gaan?"

Afin, mijn standpunt moge duidelijk zijn.
Veiligheidsmaatregelen zijn goed.. echter je kunt iets niet tegen álle bedenkbare situaties beschermen, en dat moet je ook niet willen.
Een magnetron heeft ook geen 'kat detectie mechanisme' om te voorkomen dat iemand per ongeluk probeert een kat in de magnetron op te warmen wanneer die zeiknat en koud het huis binnen komt.. men verwacht dat men niet compleet incompetent is en enigszins verantwoordelijk gehouden kan worden voor eigen acties.

Het is totaal onverwacht en ongehoord dat een menu zonder limitatie duizenden FPS genereert. Of vsync nou uit of aan staat zou niet uit moeten maken. Als de meest geanimeerde animatie in dat menu een framerate heeft van 60 fps, dan zou het menu gewoon een hard limit moeten hebben van 60 fps..
Auto's hebben een beperking in het aantal rpm. Vol gas in de eerste versnelling kost brandstof en zal vast voor de levensduur van de motor geen wonderen doen, maar je motor ontploft niet; omdat deze dus beveiligd is. Ik durf wel te stellen dat als de motor wel zou ontploffen dat je knetter hard aangeklaagd gaat worden als autofabrikant.

Deze kaarten hebben blijkbaar geen 'rpm beveliging'. En dan blijft mijn standpunt staan: de beveliging' van de kaart is niet voldoende.
Naja, ik denk dat het ietwat genuanceerder is dan dat.
Ja, ik ben het met je eens. Het zou eigenlijk niet moeten kunnen.

Maar, wat nou als je je auto op krukken zet en vervolgens zo (zonder weerstand op de wielen) het gaspedaal helemaal indrukt en de motor in het rood (van je rev range) laat draaien?
Want dat is wellicht de beste vergelijking hier, en ik garandeer je dat je motor (of wellicht relevanter voor de vergelijking, iets ergens in de drivetrain) dat niet overleeft als je dat lang genoeg doet.

Ik vind het niet 100% zwart-wit dat het 100% de schuld van de graka bouwer(s) is, er zijn bijzonder weinig dingen in deze wereld die echt zo zwart-wit zijn.
Het is echter totaal te verwachten dat mensen die de duurste (!!!) kaart uit je lineup kopen, deze stresstesten. En dat mag best wat vragen van je kaart, zonder enige vorm van schade.
Ik vind juist het omgekeerde. Hardware moet toch niet zomaar door kunnen branden zonder dat het gemod is?

Anders moet je je nu ineens bij elk spel zorgen gaan maken dat je een te hoge framerate speelt. Dat zou wel bizar zijn. Imho..
Volgens mij is dat precies wat ik zeg ;) Ben het helemaal met je eens!
Gezien het niet 100% bij EVGA kaarten voorkomt, kan het niet 100% de schuld van EVGA zijn, bovendien gebeurt het ook bij 100% van de EVGA kaarten?

Anyway, EVGA was blijkbaar dezelfde dag spelers al nieuwe kaarten aan het sturen, dus de schuldvraag is 1 ding, ze lossen het wel netjes en snel op. Aldus JawzTwoCents

Ben benieuwd of en wat zij als oorzaak kunnen vinden (als Amazon ze een ongepatchte versie van het spel beschikbaar stelt)
Het artikel gaat over EVGA, vandaar dat specifiek EVGA genoemd wordt. Maar laat ik het anders zeggen: de schuld ligt wat mij betreft 100% bij de fabrikant van de videokaarten.

Volgens mij is de oorzaak in de basis vrij duidelijk; er is geen frame limiter aanwezig in het menu van het spel én de graphics in het menu zijn niet ingewikkeld waardoor videokaarten in feite een soort stress test voor hun kiezen krijgen en een idioot hoog aantal frames gaan renderen. Sommige kaarten kunnen dit niet aan en oververhitten en gaan dood.

[Reactie gewijzigd door Luuk1983 op 23 juli 2024 02:14]

Bij wie ligt eigenlijk de verantwoordelijkheid van de koeling en bijkomend de aansturing hiervan bij oververhitting, is dat iets dat door de leveranciers van de kaarten (AMD/Nvidia) wordt geregeld of krijgen leveranciers zoals EVGA volledig vrij spel met wat ze met de kaarten doen. Heb me altijd afgevraagd wat die "tussenleveranciers" eigenlijk juist doen op dergelijke onderdelen. CPU's is dat bv rechtstreeks vanaf intel/amd.
Dit zijn blijkbaar 2000 euro kostende kaarten? Dan mag je toch wel iets verwachten buiten performance dat de PCB ook goed ontwikkeld is? En dat men ook nadenkt met failsafes juist vanwege dat dit een hoog presterende kaart is?

Ik doe al geruime tijd niets met self-builds maar dit is toch wel goed fout en hopelijk dat evga hiervan leert. Je huis zal maar in de fik vliegen.
Ik ben het met je eens. Maar er zijn praktische beperkingen natuurlijk.

Bijvoorbeeld; je hebt het over "de temperatuur" van componenten. Theoretisch is dat objectieve data. Maar voor je systeem zijn het samples op een bepaalde tijd en op een bepaalde locatie. Je bent gelimiteerd door waar je je sensors op een zinnige en ook economische plek kan aanbrengen. Er kan een behoorlijk verschil zitten tussen "de temperatuur" zoals die is, en wat het systeem denkt wat de temperatuur is aan de hand van de samples die het heeft.

Natuurlijk moet een systeem zijn stinkende best doen om dat verschil te minimaliseren. Maar we hebben allemaal gezien met wat voor een markt de GPU manufacturers de laatste tijd te maken hebben. Daarnaast verwacht ik ook de dat high segment markt kleinere marges erop na houden, en temperaturen verder op laten lopen dan de mid en lower segment.
Zeker waar, ik las op reddit dat evga echt last minute nog de hele power delivery had veranderd van 1x6 2x8 naar 3x8 of iets dergelijks, wellicht heeft dat er iets mee te maken.
Hopelijk kan het gefixt worden met een vbios update oid.
Ik zou namelijk wel heel zuur zijn als mijn kaart van dik 2000 euro zou doorbranden door zo iets doms.
Zou zeer goed kunnen, dit is gewoon bad engineering, en had nooit mogen kunnen.
Als je het in korte tijd moet ontwikkelen, kunnen er stomme fouten gemaakt worden.
een failure IS een kapotte kaart
Jay heeft ondertussen ook een video op YouTube gezet waarin hij het probleem probeert te reproduceren met zijn vroege productie FTW 3 3090.

Doorbranden krijgt ie niet voor elkaar, maar je ziet er wel allerlei eigenaardige zaken voorbij komen (zoals een powerdraw die vele malen hoger ligt dan de ingestelde limiet en ook nog eens flink fluctueert. De kaart wordt daardoor ook extreem warm (ongeveer 55 graden op de backplate!).

Video hier => https://t.co/5xleRJwqQh?amp=1
55 graden op fe backplate is heel laag eigenlijk? kijk naar hoe warm die rx 6900xt's draaien ter vergelijking ;)
Oke, maar hij zou wat verder kunnen gaan. Even met een thermische camera kijken wat er precies heet wordt en dan vooral in het gebied waar de pcba was verbrand. Een algemene temperatuur zegt niet zoveel. Vooral niet als het van de on board temperatuursensor komt, dat is waarschijnlijk niet de hotspot aangezien de thermische beveiliging niet altijd afdoende lijkt te zijn in dit geval.

[Reactie gewijzigd door Ablaze op 23 juli 2024 02:14]

Voor echte kennis van zaken kun je beter bij gamers Nexus kijken. Die J2C is daar niet echt voor.
Helaas heeft Gamer's Nexus geen video besteedt aan dit fenomeen. De enige video die gerelateerd is aan dit onderwerp is die van BuildZoid, maar die doet ook niets meer dan speculatief kijken naar het ontwerp van de kaart.

Igor's Lab heeft een video online gezet waarin hij beweert dat het probleem onstaat door de controller die gebruikt wordt voor de ICX3 koeling oplossing. Deze zou doorbranden door een te hoge belasting. In testen die door hem en anderen zijn gedaan lijkt het erop dat deze controller de fans naar extreme rpm's probeert te sturen met waarschijnlijk bijbehorende stromen.

Hij beweerd dat dit een issue is met alle ICX3 kaarten, dus niet alleen de 3090 FTW3!

Sinds zijn video's in het Duits zijn, link ik even naar het bijbehorende artikel op zijn website dat wel in het Engels gepubliceerd is:

https://www.igorslab.de/e...cause-of-design-failures/
Ik heb 60Hz monitoren dus ik heb altijd gewoon vsync aan staan. Mijn FPS krijgt daarmee een cap van 60, maar hoger dan dat is toch (bijna) niet te zien op mijn beeldschermen.
Je kunt je totale input lag drastisch verminderen met hogere frame rates, en je kunt screen-tearing tegengaan met Nvidia Fastsync.
Tja, misschien zijn dat dingen die uitmaken als je op pro niveau speelt, maar voor 99.99% van de mensen hier maakt het geen reet uit.

Ook met 60Hz monitoren en een draadloze muis haalde ik in de arcadey twitch shooters die ik speelde zoals Overwatch en CS:GO gewoon ranks om trots op te zijn, die paar microseconden maakt pas uit als je het over twee teams hebben die echt aan de top van wat mogelijk is zitten.

Nou speel ik tegenwoordig eigenlijk alleen maar singleplayer spellen en daar is het al helemaal niet relevant. 60FPS ziet er vloeiend genoeg uit, en input lag is zelfs over Parsec heen te weinig om echt te merken.
Dat is een veel geloven mythe. Het zijn mensen met een meer gemiddeld niveau die het meeste voordeel dragen uit hogere frame rates. Het zijn de pro's die zo goed zijn dat de limitaties van 60fps kunnen overkomen.

We spreken hier nog steeds over een verschil tientallen milliseconden, iets wat degelijk een voordeel brengt. Hoe dichter de twee teams in vaardigheid zijn, des te meer dat het een verschil kan maken.

En dan hebben het nog niet over hoe veel minder wazigheid (blur) er aanwezig is bij hogere refresh rates.
Ja ik draai zelf 144hz, dus of ik cap de game op 144 of ik laat hem uncapped met g-sync aan als ik niet consistent 144fps kan halen.
Het liefst laat ik v-sync uit vanwege de input lag, zeker in shooters.
Met dikke kaarten als de 3090 zou je denk ik in bepaalde games wel 165hz of 240hz schermen kunnen gaan gebruiken.
Het idee van een scherm die VRR ondersteund is dat het adaptief frames kan synchroniseren met de ververssnelheid van je monitor die valt in een bepaald bereik. Al zou je max 100 fps halen, dan geniet je nog steeds van VRR.
Op 144Hz met v-sync is de input lag toch al dermate laag dat je vrijwel niks wint door het uit te zetten?
ik speel op 240 en ja dat merk je wel g-sync is al beter en kijkt wat rustiger en fijner als uncapped met niks maar het voelt nooit zo snappy en direct als met die rommel uit
League of Legends bijvoorrbeeld voelt altijd een beetje stroperig met V-sync enabled, en ik ben echt qua framerate een boomer die prima met 30fps kan gamen. Ik snap dus wel dat wat fanatiekere gamers het uit zetten.
Dit is dus waar het design van een videokaart en/of de firmware bestand tegen moet zijn. Het is dat de New World devs nog geen framerate limiter in het menu hadden zitten, maar dit had ook met andere games kunnen gebeuren.

Voor zo ver ik weet is de EVGA service wel goed, dus die mensen krijgen vervangende kaarten. Of die kaarten dan het zelfde probleem hebben wie weet :P
Dat gebeurde ook bij StarCraft 2 bij de launch. Ik kon zo snel even geen betere artikelen vinden, maar hier ging het er ook al over of StarCraft 2 videokaarten zou killen. En dat van een gerenomeerde studio als Blizzard! https://techcrunch.com/20...JGNgDo08LE9C7MuoLu5mRRqCE

[Reactie gewijzigd door Luuk1983 op 23 juli 2024 02:14]

Ja dat herinnerde ik me ook nog. Was al aan het zoeken
Je kan dit voorkomen zonder 3rd Party tool door Nvidia Control Panel te openen -> Naar 3D instellingen te gaan -> Dan bij algemene instellingen en dan bij Max. framesnelheid de hoeveelheid hz in te vullen.
Snap niet waarom er niet een standaard max op staat van 1000 FPS ofzo.
Ik heb een 4K 120Hz scherm, en ik cap ook inderdaad op 120fps... want waarom niet?
Krijg je anders alleen maar tearing van, logisch toch?

Ik lees overigens ook wel dat EVGA in dit geval totaal niet moeilijk doet en gewoon nieuwe 3090's naar de gedupeerden stuurt *D
Sommige mensen denken dat ze binnen 8.33ms kunnen reageren dus willen niet dat hun input verwerkingstijd beperkt wordt door hun monitor.
Het telt gewoon op dus die 8.33ms moet je bovenop je eigen vetraging tellen :)

Tuurlijk is het gerommel in marge, maar het is marge en het is een verschil ;)
Als ik zie dat sommige pro SC2 spelers soms 600 APM halen. Dan wil ik dat best geloven dat ze het merken.
Een uncapped framerate mag eigenlijk geen probleem zijn. Er zijn ladingen spellen waar dat in menu zo is, ik heb ook zat keren geamuseerd zitten kijken waarom kaart opeens zo'n lawaai maakte terwijl ik nog niks deed.

Maar een kaart hoort gewoon beveiligingen te hebben die of een beperking afdwingen als iets te warm wordt (driver/firmware) of de boel uitgooien voordat iets stuk gaat (hardware/firmware). Als ik die reacties onder die tweet lees, is dat bij andere modellen dus ook keurig wat er gebeurt: systeem klapt uit of kaart gaat in beveiliging tot het ding weer voldoende afgekoeld is. Working as intended, in die gevallen.

Dat dat nu bij sommige kaarten niet gebeurt tot ze stuk zijn is gewoon slordig en ofwel een productiefout ofwel een ontwerpfout. Je kan zeggen dat men dan maar gewoon externe tool moet gebruiken om fps te beperken, maar ik zou zo'n kaart zelf niet willen hebben. Er zit een probleem in, waarvan kans te groot is dat het je een keer gaat opbreken. Probleem moet boven water en opgelost, desnoods door vervanging binnen garantie van al die kaarten van modellen met dat probleem, als het niet via firmware opgelost kan worden.
Inderdaad waarschijnlijk wel, ook andere merken hadden last van door gebrande kaarten, maar EVGA het meest.
Weet niet of Rivatuner helpt, maar als je het in kunt stellen zou dat het probleem moeten voorkomen :)
Ik vind niet dat ik de FPS moet cappen. Dat ding moet voldoende koeling hebben om op 100% te draaien.
Voor degene die het interessant vinden: Actual Hardcore Overclocking gaat er zeer diep op in op wat mogelijk het probleem zou kunnen zijn.

https://youtu.be/dbCrNBpW-RQ
Vreemd dat alle pijlen op EVGA gericht zijn, er blijken toch ook gevallen boven te komen van andere 3090's en zelf AMD kaarten? De gemene deler blijft het spel New world.

Ik hoop dat er ook duidelijk komt over wat er zo uniek is aan dat spel dat het deze schade kan berokkenen. Uncapped menu's zijn bepaald niet uniek te noemen.

Ben alvast extra blij dat ik standaard mijn framerate cap op iets onder de refresh van m'n monitor. Spaart me niet alleen stroom en warmte maar dus ook mogelijks een nieuwe kaart.
Als ik dus tussen neus en lippen door lees dan is de PCB en de power delivery van de verschillende componenten op de PCB dus niet helemaal goed geengineerd en er nu met New World een scenario voorbijgekomen wat dit aantoont? Klinkt een beetje als een situatie met nalatigheid/shortcuts bij EVGA (of Nvidia) waarvan men had gehoopt dat het nooit aan het licht zou komen.

[Reactie gewijzigd door zzzzz op 23 juli 2024 02:14]

https://www.reddit.com/r/...likely_cause_of_failures/ is al een oud probleem denk ik, zag het een poos geleden langskomen. Misschien is dit de eerste situatie waar het relatief bij veel mensen tegelijk gebeurde.
Klopt, het is een oud probleem heb het mijn RTX 3090 van EVGA ook meegemaakt. Heb een refurbished model terug gekregen.
Volgens mij gebruikt EVGA voor hun topkaarten gewoon het reference design van Nvidia. Lijkt me dan dat de fout bij Nvidia ligt en niet per se bij EVGA.
Nee, voor hun FTW3 kaarten, en hoger, gebruiken ze een aangepast reference design. Alleen hun basis kaarten, de XC3, zijn nagenoeg reference design (alsnog aangepast eigenlijk, maar minimaal).

Dit weet ik omdat ik zelf de 3080 FTW3 heb met Optimus waterkoelingsblok erop, en alle fabrikanten moesten dat ding eerst ontwerpen, omdat het niet een reference design was.

[Reactie gewijzigd door Sakete op 23 juli 2024 02:14]

Volgens mij heeft buildzoid een teardown gedaan van een EVGA RTX 3080 FTW3 Ultra Gaming. De conclusie was meen ik dat het een stretched PCB was met het Nvidia reference design. In principe niks mis mee, maar het extra geld niet waard.

Full disclosure: Ik heb zelf een EVGA RTX 3080 FTW3 Ultra Gaming, omdat de enige kaart was die ik kon krijgen die dicht bij de MSRP zat.
FTW3 kaarten hebben additionele sensoren op het PCB zitten om zo lokaal de temperaturen te kunnen managen. Hierbij kunnen dan de 3 fans individueel aangestuurd worden. Het is de fan controller voor deze 3 fans welke lijkt te ploffen en die is niet standaard op het reference design. Wat overigens ook raar is dat EVGA het zo implementeert. Want interne chip sensoren zijn nauwkeuriger en sneller dan externe board sensoren.

[Reactie gewijzigd door Sn0wblind op 23 juli 2024 02:14]

Dat deze sensoren langzamer zijn lijkt me hiermee dan aangetoond :)
Ja je zal maar een berg geld hebben neergelegen voor een GeForce RTX 3090, en dan brand hij door, ben heel benieuwd hoe lang het duurt tot ze weer een nieuwe krijgen, en of die dan de zelfde fout heeft, en het weer kan doorbranden met een andere spel.
Het custom pcb-ontwerp is van EVGA, maar elk pcb-design wordt wel uitgebreid gekeurd door Nvidia in het Greenlight-programma. Dat heeft de naam behoorlijk strikt te zijn.
In dat geval zou het toch moeten betekenen dat mijn 3090 FE doorgebrand moet zijn?

Dat is die niet, gelukkig. Draait nog op volle toeren.
Andermans aanwijzingen volgen ontslaat je nog niet van de plicht zelf na te denken en verantwoordelijkheid voor je eigen acties ;)
Toch lijkt me dit een uitzonderlijke situatie. Met andere games speelt het probleem schijnbaar niet.
Met andere 3090TI kaarten speelt het probleem ook niet... die branden afaik niet af..
Het gebeurt zelfs met niet 3090 kaarten van andere merken.
Ik ben nog geen verifieerbare melding tegen gekomen van een niet evga kaart die werkelijk doorgebrand is., alleen maar "van horen zeggen"
... verifieerbaar...
Alsof mensen die zeggen "Ik heb kaart X, en die toonde ook dit gedrag en is kapot gegaan bij dit spel" dan door een onderzoeksteam bezocht moeten worden om te kijken of ze niet liegen...
Alsof mensen die zeggen "Ik heb kaart X, en die toonde ook dit gedrag en is kapot gegaan bij dit spel"
Dat vind ik al verifieerbaar in deze, omdat het een persoon is die het zegt, en daar kun je navraag bij doen, maar zelfs dergelijke berechten heb ik nergens gezien.
Alleen maar berichten zoals die van jou, onverifieerbaar, geen links naar een post/tweet, een artikel, bericht van een getroffen gebruiker, niks....

[Reactie gewijzigd door Zer0 op 23 juli 2024 02:14]

Je gaat er nogal gemakkelijk vanuit dat ik dat niet geverifieerd had. Het idee is kennelijk niet eens in je opgekomen om me te vragen hoe ik dat wist, je gooit alleen gelijk er tegenin dat JIJ geen verifieerbare meldingen tegen bent gekomen...

Mijn bericht is dus niet onverifieerbaar, jij nam gewoon automatisch aan dat het niet te verifiëren was zonder enige poging te doen... En je hebt het nog steeds niet gedaan, ondanks dat ik je onnodig kritische houding aankaartte. Maar goed, omdat het kennelijk te moeilijk is om gewoon te vragen zal ik het maar gewoon aanreiken he?

JayzTwoCents heeft aan de kijkers van zijn kanaal gevraagd om de specificaties en ervaringen mee te delen als ze dergelijke problemen ook hadden met het spel. https://twitter.com/JayzTwoCents/status/1418107831786434561

[Reactie gewijzigd door StefanDingenout op 23 juli 2024 02:14]

I've now had the following GPU owners express they have had shut downs and failures with New World...
Shutdowns and failures.... dat is iets anders dan kaarten die doorbranden, dat probleem lijkt zich enkel bij EVGA voor te doen....

En als jij iets claimt moet jij het onderbouwen... niet ik.
Ehm... FAILURES. Dat betekend letterlijk dat de kaart kapot gegaan is... Dus nee het probleem doet zich niet enkel bij EVGA voor.

En het punt is dat je er niet eens om vroeg, want NEE ik hoef niet zomaar elk beetje informatie dat ik deel met anderen te onderbouwen. Ik ben geen onderzoeksrapport aan het schrijven, ik deel gewoon wat informatie waarvan ik weet dat die klopt. En dat hoef ik alleen te onderbouwen als iemand daar op een normale manier om vraagt, en ik het belangrijk vind om ze te overtuigen... En jij weigerde dus er op een normale manier om te vragen, en het interesseert me niks of je het geloofd. De enige reden dat ik je de bron geven heb is om je te laten zien hoe fout je zat met je afwijzende houding.

Want het centrale punt, wat kennelijk heel moeilijk voor jou te begrijpen is, is: jij beschuldigde me er zonder enige reden gelijk van dat wat ik zei niet verifieerbaar IS. Zonder zelfs maar het miniem beetje respect te tonen voor andere mensen door er vanuit te gaan dat ze wellicht niet zomaar een hoop onzin uitkramen en misschien wel een bron hebben... In plaats van gewoon te vragen "hoe weet je dat?"

Dus niet alleen was je basisloze beschuldiging dat ik het niet kon verifiëren fout, als ik je dan de verificatie geef, ondanks dat je houding dat niet verdient, ontken je gewoon wat die bron letterlijk zegt. Het is dus wel duidelijk dat je gewoon EVGA aan het haten bent, en je verschuild achter 'burden of proof' om net te doen alsof je alleen maar skeptisch bent.

[Reactie gewijzigd door StefanDingenout op 23 juli 2024 02:14]

want NEE ik hoef niet zomaar elk beetje informatie dat ik deel met anderen te onderbouwen
Het probleem is dat je geen informatie gedeeld hebt, alleen een statement hebt gemaakt.....
Zonder zelfs maar het miniem beetje respect te tonen voor andere mensen door er vanuit te gaan dat ze wellicht niet zomaar een hoop onzin uitkramen en misschien wel een bron hebben... In plaats van gewoon te vragen "hoe weet je dat?"
Lol.. nieuw op internet?


Maar goed, ik zal het netjes vragen, wil je alsjeblieft een voorbeeld geven van een niet-EVGA videokaart die afgebrand is door deze game?
Wauw, leugen op leugen met jou.

Ik heb wel informatie gegeven, alleen wees jij het gelijk af als niet te verifiëren omdat je te arrogant was om zelfs maar een poging te doen het te verifiëren. Zoals al aangekaart. En ' lol nieuw op internet?' is geen excuus.

En ik HEB je die informatie al gegeven, en je loog dat het niet over kapotte kaarten ging. Zoals al aangekaart.

Ik ga dus niet nog meer tijd aan jouw oneerlijkheid verspillen.

[Reactie gewijzigd door StefanDingenout op 23 juli 2024 02:14]

En ik HEB je die informatie al gegeven, en je loog dat het niet over kapotte kaarten ging. Zoals al aangekaart.
Nee dat heb je niet, je hebt een linkje naar een tweet gepost van iemand die van horen zeggen heeft....

En je blijft er van uit gaan dat ik niet zelf gezocht heb, dat heb ik wel, en niks kunnen vinden...
Kom nu eens met een link naar een bericht van een niet evga gpu die afgebrand is door New Worlds...
Ik ga dus niet nog meer tijd aan jouw oneerlijkheid verspillen.
Mijn "oneerlijkheid" is het probleem niet, het probleem is dat ook jij geen berichten kunt vinden van niet-evga kaarten die af/doorgebrand zijn. Als jij daar nu eens eerlijk over zou zijn.
Ik ga dus niet nog meer tijd aan jouw oneerlijkheid verspillen.
Mocht het nog niet duidelijk zijn: ik ga mijn tijd niet meer verspillen aan jouw leugens, ook niet als je ze blijft herhalen. En ik ga dit dus ook niet meer herhalen. Dus je mag dit als een standaard reactie zien op iedere leugenachtige reactie die je nog gaat doen.

[Reactie gewijzigd door StefanDingenout op 23 juli 2024 02:14]

Kanaal JayzTwoCents gaf een wat genuanceerder beeld. Wat ik ervan begrijp is dit:

Ja, het klopt dat de engineering dusdanig is, dat bepaalde beveiligingen niet getriggered worden en de kaart dus stuk gaat. Maar dat is niet zozeer slechte engineering. Met elke beveiliging richt je je op een specifieke omstandigheid. Je kan de kaart vol blijven bouwen met beveiligingen, maar eigenlijk is er altijd wel net een specifieke omstandigheid waar je niet op checkt.

Meestal gaat een omstandigheid waar je niet voor controleert gepaard met een andere die je wel ziet, en dan triggert er dus alsnog een beveiliging waardoor het allemaal goed gaat.

Maar zulke beveiligingen worden niet gebouwd om constant getriggered te worden. Als dat telkens opnieuw gebeurt gaat het een keer mis. En er hoeft maar net een stuk software iets heel raars te doen waar toevallig niet op gecontroleerd wordt, maar de kaart op een hele specifieke manier belast, en het kan zo alsnog misgaan.

Uiteraard kunnen er fundamentele fouten met de kaarten zijn. Het is niet gezegd dat het puur aan het spel ligt. Het lijkt wel zo te zijn dat vooral EVGA geraakt wordt hierdoor, maar EVGA schijnt ook relatief veel kaarten te hebben verkocht. Hoe meer kaarten een merk heeft verkocht, hoe meer er kapot gaan.

Maar ik papegaai ook maar dingen die ik heb gehoord en gelezen.
JayzTwoCents maakt vermakelijke filmpjes hoor, maar bij dit soort onderwerpen kan je beter niet te veel op zijn content vertrouwen. Veel ongeïnformeerde speculatie en klok-klepel technobabble 😋
Dat en teveel naar de fabrikant hangen met zijn verhaaltjes.
Of, dat kan natuurlijk ook he, gewoon een oprechte fout? Zonder opzet?
Tsja, als 99% van die kaarten toch alleen maar gebruikt wordt om te minen zullen niet veel gebruikers er tegenaan lopen ;)
Ik snap niet waarom je met een 3090 wilt minen. Je kunt wat dat betreft beter 2x3070 doen. Die zijn efficiënter en sneller dan één 3090, voor zover ik begreep.
Ik snap niet waarom je met een 3090 wilt minen. Je kunt wat dat betreft beter 2x3070 doen. Die zijn efficiënter en sneller dan één 3090, voor zover ik begreep.
Omdat de andere kaarten niet beschikbaar zijn en iemand die zelfstandig is alles in onkosten kan brengen en koopt zonder btw waarschijnlijk ? 2000€ euro voor een kaart kan maar een klein percentage van de gamers zich aanschaffen omdat dit meer als een maandloon betreft voor velen. En meestal is zo een kaart ook wel overkill als de rest van de hardware niet meekan.
Er zijn een hoop andere modellen/merken die hetzelfde probleem toonden.
Ik cap mijn Asus Tuf 3090 OC op 4K 116 fps omdat mijn monitor 4K 120 hertz doet.
Doe ik dat niet dan heb ik hoge FPS in de menu's van spellen.
Geen problemen hier
Is er een reden waarom je niet op 120fps capped?
Je wil je FPS altijd cappen op een paar % onder je monitor refresh rate.
Dit helpt tearing voorkomen. Tearing word heel duidelijk boven je monitor refresh rate en op 120 fps en 120 hz kan je af en toe nog een spikeje hebben van een paar fps meer en dus een tearing effect.
Helemaal voorkomt het tearing echter nooit ondanks dat sommige dat denken.
Met Freesync is tearing toch een non-issue?
Zolang je binnen de freesync range blijft. Over het algemeen is dat 48-144 maar fps kan dippen onder die 48 en pieken over die 144 ondanks dat er een limiet ingesteld is. De sync is dus niet helemaal perfect. En daarom cap je fps onder de 144.
Je monitor synchroniseert the refresh rate met je monitor als je fps zou synchroniseren met je monitor zou je dat probleem niet hebben. Daarom probeer je dit te voorkomen met de cap.

In een ideale wereld timed de gpu de fps met de monitor wat dus een frame elke 6.944444444444 ms.
De tear komt doordat er een 2de frame afgeleverd word binnen die 0 - 6.9444 ms en je dus onderin je scherm een ''oude'' frame zier en bovenin de nieuwe al geladen word. Als iedere frame binnen zijn eigen 6.944 ms VOLLEDIG afgeleverd en weergeven zou worden op de monitor zou er geen tearing bestaan.
Zoals je kan bedenken is dat enorm lastig te implementeren en synchroniseren.
maar fps kan dippen onder die 48
Daar heb je frame doubling / low frame rate compensation voor.
en je dus onderin je scherm een ''oude'' frame zier en bovenin de nieuwe al geladen word.
Het scherm wordt van boven naar onder ververst, dit heb je dus altijd.
Met tearing heb je juist boven een oud frame en onder een nieuw frame.

[Reactie gewijzigd door Olaf van der Spek op 23 juli 2024 02:14]

Altijd minstens 3fps onder de max cappen. Zo weet je zeker dat je in de juiste range blijft. Daarnaast altijd de ingame cap gebruiken indien nodig en anders via RTSS. Andere manieren zorgen voor meer inputlag.
Jazeker
Het advies is om net wat lager dan je max van de monitor te gaan zitten om stotteren te voorkomen.
Buildzoid heeft er een heel interessante video over gemaakt,.
Die staat dan ook gelinkt in het artikel ;)
Oops, volledig overheen gelezen 8)7
Waren toch al filmpjes van dat bepaalde delen van die kaarten 100 graden haalden?
Dat lees ik wel vaker, ook bij andere games op het VRAM. Maar ik vraag mij wel af hoe mensen dit voor elkaar krijgen en wel nagaan of ze geen koeling problemen hebben, zelf heb ik een 3090 overclocked en met luchtkoeling komt het vram niet boven 85 graden uit onder langdurige belasting.
Dit verschilt per model. De VRAM komt bij mij geregeld boven de 90 graden bij sommige games (interne temp./memory junction, GTX3080). Wat een prima temperatuur is bij normaal gebruik, ze beginnen pas te throttelen bij 110C. De kaarten met extra lage VRAM temperatuur zijn ideaal voor mining.
Dit kan nog wel eens een staartje krijgen. Het zijn nu 'maar' 30 kaarten, maar er zijn natuurlijk véél meer EVGA 3090 eigenaren. Mogelijk zit er dus een zwakte in de kaart die bij andere games of hoge workloads ook getriggered kan worden. Een game mag een kaart nóóit tot doorbranden brengen, dan zit er echt iets op hardware of bios niveau niet goed.. dit mag gewoon niet gebeuren, en als het bijna gebeurt moet er een beveiliging aanschieten. Een unlimited frame limiet kan en mag gewoon geen oorzaak zijn.

Voor zover ik weet wijkt EVGA bij in ieder geval de FTW3 en Kingpin kaarten af van het reference PCB design, voor de XC3 weet ik het niet zeker.. volgens mij zijn die (nagenoeg) identiek aan reference PCB.

Ben benieuwd of er nog meerdere merken kaarten zijn getroffen en wat EVGA gaat vinden in hun analyse. Gelukkig heeft EVGA wel een erg goede en snelle customer support.

[Reactie gewijzigd door stin00 op 23 juli 2024 02:14]

Hoe je het went of keert, super dat de gedupeerde gewoon een nieuwe kaart ontvangen. Hoop het ook dat het alleen bij de kaart is gebleven. Het zou ook mogelijk zijn dat andere componenten van de build ook daarna mankementen kunnen vertonen. Hoop van niet.
Je zal maar zo een kaart zitten hebben van 2000€ + die dan opeens door fikt en niet onmiddellijk over een andere kaart kunt beschikken. Je bent dan in verlof en hebt tijd voor een flink potje te gamen in je vrije tijd en optimaal gebruik te maken van je duur betaalde 3090 ! De meesten hebben dan ook hun vorige kaart of back up kaart verkocht omwille van een mooie prijs. Laat ons hopen dat EVGA hier snel RMA geeft en die mensen niet weken laat wachten zoals het geval is.

Op dit item kan niet meer gereageerd worden.