Spelers melden doorgebrande RTX 3090-videokaarten bij mmorpg New World

Diverse spelers van de bèta van de aanstaande mmorpg New World melden dat hun RTX 3090 crasht of doorbrandt bij het spelen van de game. Ook spelers met andere videokaarten melden een extreem hoge gpu-belasting, tot honderd procent, tijdens het inloggen en in de queue.

Spelers met RTX 3090-kaarten melden op Reddit en Twitter problemen met hun videokaarten tijdens het laden van de game. Zo zegt Twitch-streamer Sean 'Gladd' Gallagher dat zijn EVGA 3090 doorgebrand is tijdens het inloggen. Andere spelers zeggen dat hun videokaart vastloopt, dat hun display uitgaat en dat ze na een reset geen beeld meer hebben. Op Reddit lijken vooral EVGA 3090-kaarten te crashen door het probleem, al zijn dit niet de enige kaarten die problemen hebben met oververhitting en extreme stroompieken.

Op het forum van New World merkt een speler op dat het spel in het loginscherm en in de queue honderd procent van de rekenkracht van de gpu eist. Deze speler gebruikt een AMD RX 580. Spelers met een GTX 1060, RTX 2060 of een RX 5700 melden een soortgelijk probleem. Een ander meldt dat twee EVGA RTX 3090-kaarten zijn doorgebrand tijdens het laden van New World. Op zijn oude GTX 980 ervaart hij geen problemen.

Een communitymanager van New World zegt in een reactie op het forum dat het probleem veroorzaakt wordt door spelers die de instellingen van hun driver overschrijven, bijvoorbeeld via Nvidia Control Panel, waarbij ze 'vertical sync' uitzetten. Hij stelt voor dat spelers de optie 'gebruik instellingen van de 3d-applicatie' aanvinken. Hij voegt daaraan toe dat de ontwikkelaars van New World werken aan een permanentere fix, al kan het even duren voordat deze wordt doorgevoerd. Verschillende spelers reageren op zijn post met de opmerking dat deze optie aanvinken bij hen het probleem niet oplost.

De makers van New World, Amazon Game Studios en EVGA hebben nog geen officiële reactie gegeven. In februari werd de game nog uitgesteld, omdat er nog gewerkt werd aan end-gamefeatures voor het spel. De bèta ging maandag live. Op Twitter zegt de ontwikkelaar wel hard te werken aan oplossingen voor serverproblemen en voor lange wachttijden bij het inloggen.

New World gpu-verbruik
New World gpu-verbruik van een gebruiker. Beeld: user Lucos op New World-forum

Door Stephan Vegelien

Redacteur

21-07-2021 • 13:31

202

Submitter: Chester

Reacties (202)

202
199
94
17
0
80
Wijzig sortering
De kaarten behoren hardwarematig en via de firmware hier tegen beschermt te zijn.
Dit is dus een probleem voor de Gpu-boeren. |:(
was dit probleem niet ook met starcraft 2 of iets dergelijks? In het menu ging de framerate naar 1000+fps wat voor oververhitte videokaarten zorgde.

Maar feit blijft dat 3rd party software, geen hardware zou mogen slopen. 't zou toch wat zijn als je een programma start dat een beetje uitschiet in zijn berekeningen, de processor zou laten smelten...
Doorbranden zou inderdaad nooit moeten kunnen, maar dat gebeurt gelukkig ook maar heel zelden. Het is niet alsof de videokaart- en GPU-makers niks doen op dit vlak; in zowat alle gangbare scenario's is er natuurlijk gewoon thermische bescherming.

Waarom het soms toch gebeurt, zit 'm volgens mij in de verschillende delen van een videokaart. De GPU zelf kan perfect beschermd zijn tegen oververhitting, en veel andere onderdelen ook, met sensoren waar dat maar redelijk nodig is. Maar specifieke toepassingen kunnen net te veel warmte produceren in dat ene deeltje dat niet beschermd was. Zeg een bepaalde brug of chip die zo goed als nooit te heet wordt, en normaliter nooit de bottleneck is, behalve in heel uitzonderlijke toepassingen. Zoiets moet het hier eigenlijk wel zijn, want anders waren deze videokaarten natuurlijk al doorgebrand in de eerste de beste situatie van hoge belasting.

Dit praat het nog steeds niet goed natuurlijk, maar het probleem zal in elk geval in een vrij klein hoekje zitten. Zelfs bij soortgelijke situaties - onbeperkte framerate bij weergave van een eenvoudig beeld zoals een menu of loginscherm - volgt er zelden oververhitting en schade aan de hardware.

Videokaart- en GPU-makers kunnen hier misschien alsnog lering uit trekken, want nu gebeurt het toch. Maar zij zullen ook wel ergens ophouden met het toevoegen van meer sensoren en beveiliging, omwille van de tijd en winst.

Edit: we weten nu iets meer. Het lijkt erop dat specifiek de EVGA RTX 3090 ftw3 een probleem heeft met doorbranden in situaties met enorm hoge framerates. Andere videokaarten worden in New World wel heel heet en produceren enorm veel frames per seconde, maar branden niet door. Zo'n ongelimiteerde situatie komt in meer games voor en wordt dan vaak verholpen, dus dit is voor de meeste videokaarten geen groot probleem. Maar de EVGA-kaarten specifiek zullen deze zwakte houden wanneer zo'n situatie zich opnieuw voordoet. Erg zuur bij zo'n dure en moeilijk verkrijgbare kaart, dat er zo'n risico is. Bij bijvoorbeeld Starcraft 2 is dit ook eens voorgekomen, en dat zal vast niet de laatste keer zijn.

[Reactie gewijzigd door geert1 op 22 juli 2024 21:20]

Schade aan hardware is inderdaad zeer uitzonderlijk. Het is niet dat als je 1/0 uitrekent op een GPU, dat deze spontaan in fik zou vliegen. "Doorbranden" zou dan echt een verborgen component moeten zijn die niet dankzij throttling wordt beschermd. Echter ik kan maar 3 onderdelen bedenken die hitte genereren: de GPU, het geheugen en VRM. De GPU en geheugen zullen afhankelijk van utilisatie warmer worden. De VRM levert deze stroom afhankelijk van de belasting, en zal daarbij enkele verliezen omzetten in warmte. Daarin is het dus eigenlijk 1 van de schakels in een ketting, en een goed gebouwde/gekoelde VRM zou niet eerder moeten throttlen dan de GPU, bijvoorbeeld. Statisch gezien (als alles zijn equilibrium bereikt) zou dit ten alle tijden in orde moeten blijven.

Je zou dan toch iets op een soort dynamisch gedrag kunnen komen dat alleen in uitzonderlijke applicaties wordt getriggered. Maar ik zou het eigenlijk juist vreemd vinden dat een volledige GPU belasting dat niet veroorzaakt. Bij volledige GPU belasting zal de GPU core continu op 1 kloksnelheid draaien. Als een scene die op 1000fps gerenderd kan worden, wordt ge-Vsync'ed naar 60fps, dan betekent het dat elke Vsync periode de GPU maar 1ms van de 16.67ms actief is. De andere 15.67ms mag de klok verlaagd worden. Dat kan zeer kortstondige stroompieken veroorzaken, en is het dus aan "kunsten" van de VRM om zeer kortdurende piekbelastingen de Vcore e.d. niet teveel te laten fluctueren.

Echter dit zou gewoon niet moeten gebeuren. Techneuten kunnen genoeg stabiliteit criteria (gain/phase margin) op de VRM en boost gedrag loslaten dat dit niet gebeurd. Als dat wel zo is, dan overtreft dat de knulligheid van de crashende RTX3000 kaarten die we bij launch (soms) zagen. Ik kan het eigenlijk moet geloven; want vanuit software standpunt zou dit niet moeten kunnen.

[Reactie gewijzigd door Hans1990 op 22 juli 2024 21:20]

Was er niet een artikel een paar maanden geleden dat op een hoop foute ontwerpen wees?
Diverse fabrikanten hadden of de verkeerde type condensatoren gebruikt of ze hadden het referentie ontwerp aangepast om een paar componenten te besparen waardoor de stroomvoorziening onvoldoende was.
Dat was speculatie over het type condensatoren in de GPU socket (MLCC of SP-CAP). Alle kaarten zagen crashes, min of meer onafhankelijk van de keuze tussen deze onderdelen en hoeveelheid van elk. Een driver update hielp uiteindelijk.
Dan hoort een virus wat hardware kan slopen opeens ook weer bij de mogelijke ellende ...
Goeie optie om crypto-concurrentie uit te schakelen.
Is die kaart tijdens het wachten niet gewoon lekker wat Bitcoins aan het minen?
Het eerste wat er bij door de gedachten ging ;-)
Maar feit blijft dat 3rd party software, geen hardware zou mogen slopen.
Als jouw gebouwde stukje hardware kapot gaat door een main menu doe je het toch echt verkeerd. Als je een GPU benchmark gaat draaien ga je toch ook tot de max? Of wanneer je dikke games gaat spelen wil je ook ALLES uit je kaart halen. Als een 3d game lekker uit wil pakken wil je alle kracht van de GPU aan kunnen spreken zonder dat je per ongeluk de kaart kapot brandt.
Ik denk dat je @M2M z'n punt mist tenzij je z'n punt wilt versterken? Het mag niet mogelijk zijn om met 'normale' software de hardware te slopen.
Dus jij pusht je auto motor ook non-stop tot 9000 toeren? ;)

In mijn opinie zijn hier 2 partijen schuldig, zowel de graka bouwers als de game ontwikkelaars.
In een queue of menu hoor je gewoon niet 100% van je GPU op te branden, of Vsync nou aan staat of niet.
hahaha ga je nu echt een mechanische motor met een stukje hardware op printplaat vergelijken

je moet toch een paar uur kunnen gamen op hoge settings man
denk jij dat gedurende die paar uur op hoge settings gamen elk onderdeel van jou GPU non-stop 100% belast wordt?...

Dat is namelijk mijn punt. Je auto motor belast je ook niet non-stop 100%.
En als jij een uur lang tegen/in het rood van je rev-counter aan zit dan word jou motor daar niet bepaald blij van.

Dat is nou het hele punt van dit artikel.
Dit spel belastte dus wél non-stop je GPU 100% (of iig, een bepaald onderdeel ervan).
100% belasting van je GPU wat 120fps aan 'high-end graphics' produceert is niet hetzelfde soort belasting als 100% belasting van je GPU wat 1200fps aan simpel menu weergeeft. Die '100% belasting' is ook maar een aggregatie, en ik vermoed enkel een weergave van de zwaarst belastte bottleneck in je grafische pipeline.

Als je de vergelijking met een mechanische motor niet begrijpt, wellicht een vergelijking met een stopcontact en een lamp? Als je een lamp aansluit op je stopcontact vind ie dat prima, de lamp bied weerstand en zorgt dat je stroomdraden niet overbelast raken.. wat echter als je een paperclip aansluit in je + en - ?.. ja dan (hopelijk) klapt je stop eruit. Omdat de paperclip niet genoeg weerstand bied (te makkelijke weg om te overbruggen) resulteert dat in téveel stroom waardoor je kabels te warm worden en zouden smelten als ze niet beveiligd waren met stoppen.

Zie dit dus als soortgelijks.. het renderen van het menu biedt te weinig weerstand voor de graka en omdat er geen limitering ingebouwd is wil hij zo veel frames per seconde pushen als ie kan (net zoals je stroomnet zo veel stroom door die paperclip wil pushen als het maar kan) en daardoor kan het dus zijn dat er wat POEF zegt omdat het die belasting niet aan kon.
De vergelijking is interessant maar is toch wel onvolledig/scheef zoals je hem opschrijft.

Als je een game speelt zal je grafische kaart altijd volle bak gaan. Dat is het standaard gebruikersscenario ingame: zoveel mogelijk FPS genereren. (Vsync doet daar verder overigens weinig ter zake omdat dat een beeldoptimalisator is en niet een GPU-veiligheidsfeature.). Hij zal dan wel niet continu op 100% zitten, maar wel continu heel hoog.

Bij een auto is (tenzij je gaat racen) dat niet. Optrekken kun je rustig voluit doen, maar bij cruise speed gaat je belasting naar heel laag. De auto is inherent ontworpen voor korte piekbelastingen, dus als je daar constant in de rev limiter hangt is dat wel degelijk niet het normale gebruikersscenario.

Dat zou hetzelfde zijn als dat je je grafische kaart op 50% moet zetten als je langer dan een half uur gaat gamen.

Nu is het specifieke probleem hier dat in het menuutje er zoveel FPS gegenereerd wordt dat iets op de kaart pang zegt. En dan ook enkel in de 3000-serie. Dus een heel specifieke situatie waarin kaarten stuk gaan.

Als we de vergelijking met de auto dan recht proberen te trekken is dat een beetje hetzelfde als dat je op ijs/sneeuw rijdt en dat je je banden slippen bij gas geven en je differentieel oververhit. Echter zit daar tegenwoordig toch vaak bescherming op in de vorm van traction control. En dat is ook best wel redelijk, net zoals je wat mij betreft mag verwachten dat je grafische kaart zich daar tegen beschermt. Zo niet, heb je gelukkig garantie :)

[Reactie gewijzigd door A Lurker op 22 juli 2024 21:20]

regelmatig is niet hetzelfde als non-stop.
Ik zei expliciet ''non-stop" omdat dát is wat je auto, en dus je graka, kapot kan maken. ;)
In die gedachtegang zou je zeggen dat Intel niet zijn CPU's hoeft te beveiligen tegen extreem overclocken en slechte software en andere onvoorziene omstandigheden? Maw ik ben het eens met @olly180. In de basis beschermt in de IT en Techniek (voor zover ik dat zo mag aannemen) het object dat iets doet voor een andere altijd of de input wel klopt of niet. Een functie in een programma controleert of de invoer wel klopt en geeft anders een foutmelding en hetzelfde geld voor de chips die controleren of de temperatuur, voltage en andere cruciale variabelen niet uit de pan lopen. Zo controleert een zekering ook of de afgenomen hoeveelheid ampere niet de kabels laat oververhitten. Of dat een motor niet het toerental mag begrenzen, maar dat jij het gas niet teveer moet intrappen om te voorkomen dat je over de redline waarden gaat en dus je motor ontploft
.

[Reactie gewijzigd door LNDN op 22 juli 2024 21:20]

Nee sorry, je vergelijkt appels met peren. Je hebt het namelijk over ingrijpende modificaties of zaken die inherent risico hebben. Ja, als ik op de snelweg 120 rijdt, ik forceer mijn versnellingen in z'n 1 en laat de koppeling hard opkomen gaat et iets stuk. Duh
We hebben het hier over een gemakkelijk bereikbare instelling (vsync uit) waar geen waarschuwing bij staat een waarvan het heel normaal die te gebruiken. En gewone consumenten die gewoon een game willen spelen. Dan hoort niets kapot te gaan nee. Daar hoort een kaart van intussen 2000 euro tegen beschermd te zijn.
Ik blijf het wel vreemd vinden, wanneer een recente videokaart te warm wordt... gaat hij vanzelf downclocken/boost uitzetten.
Ja, als ik op de snelweg 120 rijdt, ik forceer mijn versnellingen in z'n 1 en laat de koppeling hard opkomen gaat et iets stuk. Duh
Ja ik vergelijk helemaal geen appels met peren: het heet gewoon idiot-proofing. Dat wat jij beschrijft kan je tegenwoordig met veel auto's ook niet eens meer want: de auto/onderdelen worden beschermd met mechanismes om dit soort acties te voorkomen. Zo kan je bijv. niet op snelheid [per ongeluk] zijn achteruit. Same goes for videokaarten. Die videokaart had gewoon moeten downclocken/zichzelf moeten beschermen tegen dit soort foute codes. Stel dat AMD CPU's dit soort fratsen nog toe zouden laten, dan had je nog steeds AMD CPU's waar dit bij kan gebeuren: AMD CPU smelt weg
Bij black desert online ging mijn gtx1080 destijds naar een 10.000 rpm setting voor wat betreft de ventilatoren. Die leken op te stijgen... de 3080 heeft er nu geen last van, kan zijn dat black desert gefixt is, of de 3080 gewoon geen last heeft hiervan
Doet me denken aan mijn PS4 Pro en Call of Duty. Trucje om in de CoD point store een wapen te bekijken en je hebt een stille fan.

Laatste minuut 4-5 switcht die van GTA naar COD.

https://www.youtube.com/watch?v=K44cBJUJqck

Nu ging dit niet stuk zoals in filmpje hierboven maar ik weet wel dat dit tot ik mijn 5 kreeg nog een issue was dat het ding toestemming moest krijgen van de luchtverkeersleiding..

Wel vervelend dat je dure 3090 stuk gaat, zie dan maar eens een nieuwe te krijgen..
Gelukkig zijn de 3090 kaarten nog niet zo oud, ze hebben waarschijnlijk gewoon garantie ;)

Ik heb ooit een GTX 1070 verloren aan een game, Silent Hunter 5, draaide eerst gewoon normaal, tot een update van het spel, ineens liep het vast, verschillende keren, tot mn kaart geen beeld meer gaf, gelukkig had ik toen nog een jaar garantie dus heb ik een nieuwe ontvangen :) en heb dat spel nooit meer gespeeld
Of is het de taak van de ontwikkelaar om diens menu's gewoon te cappen op 60fps ipv ongelimiteerd? Daarnaast zijn er trouwens ook spelers die na enkele uren spelen pas issues kregen met hun GPU, het probleem is dus niet alleen bij het inlogvenster, zoals de tekst wel lijkt te suggereren.
Je moet hardware toch voor 100% kunnen belasten zonder dat deze doorbrand. Waarom zou je daar als ontwikkelaar rekening mee moeten houden? Nu is het toevallig in een menu, maar wat nou als het gewoon in een spel is waar je 100% van je GPU gebruikt?
De hardware natuurlijk gewoon zichzelf hoort te beschermen tegen door branden, en bij normaal gebruik niet oververhit hoort te raken en te crashen (duidelijk problemen van Nvidia en de kaart fabrikanten).

Echter, het is natuurlijk wel absurd dat je computer/GPU vol vermogen staat te werken en stoken, voor een simpel inlog scherm. Ongeacht of v-sync nou aan of uit staat zou zo'n simpel scherm niet voor een hoge belasting moeten zorgen.

[Reactie gewijzigd door knirfie244 op 22 juli 2024 21:20]

Eh de 'if all else fails' om na enkele maatregelen (fan vol aan, voltage omlaag) is exact wat jij crashen noemt en dat is exact wat ik van moderne hardware verwacht als het niet normaal gebruikt wordt.
Het is inderdaad niet optimaal, dat ontken ik ook niet. Maar met een stuk software hardware kapot kunnen maken duidt op en design probleem. Dat kan zijn in de hardware, de firmware of wellicht de APIs die dit toestaan, maar de verantwoordelijkheid ligt toch wel bij nVidia. Anders zou je ook software kunnen schrijven die moedwillig mensen hun videokaart sloopt al dan niet verspreid als malware.
design probleem
Ja - want niet alle kaarten gaan kapot. Wel een pijnlijke (en kostbare) crash dan....
Dit feit snappen veel mensen niet. Als je hardware door teveel load of temperaturen doorbrandt, lijkt er hier een hardware issue aan de hand. (Of VBIOS met inadequate fan curve wellicht?)

[Reactie gewijzigd door Marctraider op 22 juli 2024 21:20]

Is het niet wat zonde om 350w te verstoken terwijl een watt of 50 ook voldoende zou kunnen zijn? Of geldt dat alleen voor miners? ;)
Schijnbaar is het in combinatie met deze game een issue, en andere games niet. Vergeet niet, de RTX 3000-serie is niet gisteren gelanceerd of zo en nu opeens komt dit aan het licht. Dan ga je mij niet wijsmaken dat dit een technisch issue is met de kaart zelf, die thermal throttling moet hebben. Het gros van de ontwikkelaars houdt er dan dus wel rekening mee, deze ontwikkelaar dan blijkbaar niet, anders had het probleem al veel eerder opgedoken en zou dit geen nieuws meer mogen zijn, me dunkt.

[Reactie gewijzigd door CH4OS op 22 juli 2024 21:20]

Dan nog is het een hardware i.c.m. firmware en API probleem en ligt de oorzaak niet bij de game. Als je als developer gebruikt maakt van de APIs dan zou je geen hardware kapot moeten kunnen maken. Daar zou ergens in de keten bescherming tegen moeten zijn.
De gebruikers hadden de instellingen van hun driver overschreden, dus waarschijnlijk een stabiele OC, die de kaart opblaast met dit spel omdat die geen frame Cap heeft in main menu...

Wie zijn fout is het? De dommerik die zijn 3090 OC natuurlijk, al kan je wel zuur kijken naar software design
Dat staat niet in het artikel, daarin staat alleen dat er VSync is uitgezet, niet dat ze OCed zijn. Als er wel OCed is, dan wordt het inderdaad weer een ander verhaal.
En zelfs als er geOC'd wordt en je niet gaat overvolten en verder ook alle thermal throttling limits intact houdt, zal normaliter alsnog je GPU niet doorfikken. De kaarten doen zelf ook vrolijk aan smart boost op basis van power, temp etc, zou gek zijn als je een kaart koopt die heel goed getuned is door de maker en van dusdanige koeling is voorzien dat die dan doorfikt omdat de kaart door zijn smart boost een hogere top frequentie haalt.
Sterker nog, door productiespreiding en rekening houdend met veroudering moet een producent alles overdimensioneren. C.q. en kaart van deze leeftijd zal waarschijnlijk gemiddeld 110% van de nominale specs belast moeten kunnen worden
100% je GPU belasten om 1000 fps in een menu scherm te krijgen is het zelfde als 200km/u bergafwaarts te scheuren. Omdat het kan wil niet zegen dat je het moet doen.
Moet niet uitmaken. De GPU zou gewoon thermische beveiliging moeten hebben. Ongeacht wat een developer wel of niet met zijn game doet. Ondertussen al honderden games gezien die menu's en zelfs laadschermen met honderden of duizenden fps laten draaien en zo je GPU 100% belasten zonder enige noodzaak.

Als een onderdeeltje op mijn RX580 iets te warm wordt, valt de hele kaart gewoon uit en crashed mijn systeem. Zoals toch al zeker een jaar of 20 de norm is.

Doorgebrande of gesmolten videokaarten waren dacht ik echt een ding uit de oudheid. Blijkbaar niet dus }:O
Frapante is dan weer wel, dat deze game vele spelers deze problemen veroorzaakt en andere games niet (anders was het al eerder aan het licht gekomen). Dus om te zeggen dat het het thermal throttling zou moeten hebben, terwijl de kaarten al bijna een jaar op de markt zijn (als het niet meer is eigenlijk...) is dan ook een beetje vreemd. Dan zou ik verwacht hebben dat het vanaf het begin raak had moeten zijn.
Mogelijk omdat andere games niet op 1000fps zitten bij een inlogscherm.
Maar het lijkt een bug te zijn in de videokaarten, die gevoelig is voor zeldzame scenario's zoals bij slecht game design.

Ik ben erg benieuwd wat exact doorbrand en wat de temps waren van de kaarten.
Als je in-game zit (dus niet in een menu oid, maar echt daadwerkelijk aan het spelen bent) verwacht je wel dat de GPU op 100% van zijn kunnen werkt. Bij andere games zijn er geen issues met doorbranden (anders had het internet eerder al vol gestaan me dunkt). Als voluit gaan het issue zou zijn of veroorzaken, zou het issue immers bij meerdere games zijn (namelijk in potentie alle games die je speelt) en niet specifiek 1 game. Een gevoeligheid als dit komt echt niet boven drijven door slecht design van 1 game. De meeste games gebruiken immers Direct X, dus zij 'praten' over het algemeen hetzelfde.
We weten ook dat OEM's alle kantjes er vanaf lopen waar mogelijk. Dus misschien hier te ver gegaan.

Volgens mij zijn er in GPU land slechts 2 OEM's die degelijke kaarten produceren en dat zijn Asus bij team groen en Sapphire bij team rood.

XFX, Gigabyte, EVGA en MSI hebben meermaals bewezen niet in staat te zijn hardware te leveren die aan de verwachting voldoet. Of zijn we poscap gate alweer vergeten?
Colorful, Power color, Inno3d, Galax e.d. zijn hier vrij exotisch en staan mijn inziens ook minder hoog aangeschreven dan Asus of Sapphire.

[Reactie gewijzigd door eL_Jay op 22 juli 2024 21:20]

Waarom zou een ongelimiteerde framerate je GPU doorbranden? Ik heb vaak genoeg 1000+ FPS gezien in oude games/benchmarks.
Idd had ik ook met ark met 600 fps voor een stilstaande beeld... Lekker hoog gpu cpu belasting
Beetje vreemde redenatie, je moet een systeem gewoon voor 100% kunnen belasten. Of het nu slim is, is in principe niet relevant.
Maar dat is mijn punt niet. Ik zeg nergens dat je niet moet willen dat je niet die 100% kan halen. Voor het weergeven van menu's is het onnodig. Als je daadwerkelijk zit te spelen wil je dit uiteraard wel.

Echter wat je ook ziet is dat dit de enige game is die dit soort problemen bij de spelers veroorzaakt, andere games doen dat immers niet. Gebeurde dat wel, had het internet allang en breed vol gestaan met dit soort issues. :)
De GPU wordt aangestuurd met een API dus je stuurt er gewoon "werk" naartoe en de kaart moet het verder doen binnen de parameters van de kaart zelf.

Als ze nu hun eigen driver gebruiken dan kan ik me er wat bij voorstellen, maar niet als het gewoon een Vulkan/DX (of een CUDA taak) spelletje is.
Je kan je FPS limiteren in The New World, de optie 30 en 60 FPS zit er in.
Ik maak standaard gebruik van zoiets omdat ik weinig nut zie om hoger te gaan.

Door de jaren heen ben ik wel te weten gekomen dat vaak MMOs nog al eens last kunnen hebben van zulke resource hogs door bugs in beta, waardoor je hardware in overdrive schakeld om alles draaiend te houden.

Ik geloof ook wel dat mensen omdat er lange queue tijden waren voor de meerderheid van de servers en dus zullen sommige onder hun ook wel het spel heel de dag hebben laten open staan, en tja het zou niet mogen gebeuren maar je plaats je eigen wel in een situatie dat het kan.
Of is het de taak van de ontwikkelaar om diens menu's gewoon te cappen op 60fps ipv ongelimiteerd?
Dat het in een menu gebeurt is wat ongelukkig, maar in principe is het de taak van de ontwikkelaar om er voor te zorgen dat de GPU in een game altijd 100% belast wordt. Je wilt toch de maximale prestaties uit je hardware halen ? Nu lukt dus vaak, om allerlei praktische redenen, niet maar als ontwikkelaar van GPU code probeer je het gebruik van de GPU zo dicht mogelijk richting de 100% te krijgen.
Wat heb je aan de maximale prestaties in een menu? :? Is niet voordelig voor het stroomverbruik ook... Dus nee, wanneer het er toe doet wil je 100% performance halen, niet daadwerkelijk 100% van de tijd, of je moet graag een torenhoge stroomrekening willen hebben, mij best hoor. ;) In Windows zelf wil je dat ook niet immers, waarom in de menu's van een game dan wel? :)

[Reactie gewijzigd door CH4OS op 22 juli 2024 21:20]

Nee, in een menu is het zinloos. Mijn punt was meer dat zo’n kaart er op gebouwd moet zijn om continue op 100% te kunnen draaien, want dat is ook waar game developers zich op richten.
Ja, in-game, wanneer je daadwerkelijk aan het spelen bent, maar nogmaals, met andere games is het issue er niet. De GPU's zijn ook niet nieuw op de markt, ze zijn er al bijna een jaar (zo niet al langer). Dus als het zou komen door te spelen (wat voldoende zou moeten zijn om de GPU 100% te laten gaan werken lijkt me), dan had dit issue al veel eerder op moeten treden en was deze game daar niet de enige mee, wat nu allemaal wel het geval is of in elk geval het geval lijkt te zijn.

[Reactie gewijzigd door CH4OS op 22 juli 2024 21:20]

Dus als het zou komen door te spelen (wat voldoende zou moeten zijn om de GPU 100% te laten gaan werken lijkt me)
Zo simpel is het niet. De meeste games zullen de GPU niet 100% laten werken. Het is heel erg moeilijk om GPU code te schrijven die ten alle tijde alle onderdelen van de GPU 100% aan het werk heeft.
Dus je wilt iets (ten alle tijden 100% GPU usage), maardat lukt toch niet, dus moet de hardware tegen zichzelf beschermd worden voor iets wat toch (in de regel) niet lukken gaat... Dat is wat je nu zegt, maar wat dus niet echt ergens op sslaat, zoals je zult begrijpen. Hoezo dan jezelf ergens voor in bescherming nemen? :?
Hetzelfde gebeurde ook bij de originele release van Cube World (voor het na jaren stilte ineens een half-assed spel in een hele andere richting werd). Toen zijn er meerdere mensen geweest die ook ineens een gebakken GPU hadden.

Blijkbaar zijn er toch situaties waar de fabrikant niet op voorbereid is
Inderdaad. Heb het zelfde gehad met Red Dead Redemption 2. Dat was tot 3x to fataal voor mijn 2080 TI. gelukkig wel elke keer vervangen maar 3x 3 weken kwijt zuigt toch wel hard.
Klopt, echter ook een slordigheid van de game ontwikkelaar om de GPU zonder cap zijn gang maar te laten gaan, in een loading screen....

Echter zou GPU inderdaad nooit moeten zelf ontbranden.

[Reactie gewijzigd door Jonathan-458 op 22 juli 2024 21:20]

De "GPU boeren" LOL Boeren, doe niet zo peppie man.
Afgezien van dat het opmerkelijk is dat een loginscherm het GPU vol open trekt: daar zou die toch gewoon tegen moeten kunnen? Dan zou er vanzelf iets moeten terugvallen uit de turbo, of desnoods iets moeten gaan throttlen om de koeling de kans te geven om het weer bij te houden, zou ik denken.
De heatsink zou groot genoeg moeten zijn om de tijd tussen de thermische piek en het aanjagen van de fans op te vangen.

edit: typo

[Reactie gewijzigd door hooibergje op 22 juli 2024 21:20]

De heatsink zou groot genoeg moeten zijn om de tijd tussen de thermische piek en het aanjagen van de fans op te vangen.
Wat Gamer Nexus wel eens laat zien is dat er niet altijd een thermische pad tussen het geheugen en de heatsink zit. Als niet elke chip een eigen sensor heeft, of als de sensor stuk is, dan kan zo'n chip wellicht doorbranden omdat deze veel te heet wordt terwijl de GPU zelf in de veilige zone zit. De heatsink en fan zijn vast groot zat om alles te koelen, maar dan moeten alle hittebronnen wel goed contact maken.

Zie ook dit over de thermal pads van de 3070
En hier een Dell 1660 Super zonder thermal pads en super heet VRAM
De 3090 heeft als enige RTX 30xx kaart geheugen chips op de achterkant van het PCB zitten. Sommige fabrikanten van de 3090 koelen deze geheugen chips totaal niet en deze kunnen bij normale games dan al 100 graden worden. Voor de EVGA versie van de 3090 waren enkele mensen ook al zelf koelelementen aan de geheugenchips aan het plakken.
Andere fabrikanten koelen de chips wel enigszins en daar lijken minder problemen mee te zijn.
Ik mag aannemen dat van een flagship kaart van over de 2000 euro de thermal pads wel netjes in orde zijn, maar dat is wellicht optimisme grenzend aan waanzin.
Ik vraag me dan vooral af: wat doet die kaart tijdens het tonen van zo'n simpel scherm? Staat hij intussen een of andere coin te minen of zoiets? Voor het tonen van zo'n simpel scherm zou je niet eens een dedicated videokaart nodig hoeven hebben...
Waarschijnlijk doen ze op de achtergrond stiekem een hoop werk terwijl de speler naar een statisch-ish scherm staart. Is zeker slim om te doen, maar niet op een manier waardoor je GPU smelt.
Dat ze iets doen is duidelijk. De vraag is wat ze doen.
textures inladen (disk -> VRAM), 3d-model opbouwen, sound en lightning model, ...
Nouja er is geen limiet aan frames die je kan renderen, dus als je gewoon geen limiet aangeeft zal de GPU gewoon altijd op 100% draaien. Als je G-sync / freesync gebruikt is dit nog vaker het geval omdat je altijd het maximale eruit haalt.

Het vreemde is eerder dat de kaart hierdoor doorbrandt, een andere gebruiker had al vermoedens dat, omdat het zo'n simpele operatie is, er maar een superklein gedeelte van de kaart echt veel werk verricht en die lokaal oververhit raakt waardoor de temperatuursensors etc het niet detecteren en de kaart "doorbrand".
Het is juist bij gebruik van G-sync en Freesync aan te raden om een FPS limmiter in te schakelen (+ vsync) onder de max refreshrate van het scherm (b.v. 140fps op een 144hz scherm). Zomaar altijd maximale fps halen is vrij nutteloos op een g of free sync scherm. Dan werkt de hele sync juist niet meer...
Als je G-sync / freesync gebruikt is dit nog vaker het geval omdat je altijd het maximale eruit haalt.
Bij G-sync/freesync wordt de kaart nog begrensd door de max refresh rate van de monitor.
Nee, dat is gewoon niet zo. Een GPU gaat niet zelfstandig zo snel mogelijk frames renderen. Dat wordt altijd aangestuurd met draw calls vanuit de CPU.
Toch zie ik het wel vaker bij games, geen 100% maar toch een redelijke hoge load voor het menu, 50/60%, ik denk omdat op de achtergrond de 3D engine al loopt.
Tony Hawk's Pro Skater 1+2 kan er ook wel wat van. In het menu stijgt mijn PC zowat op. In ieder geval onder WINE, weet niet of Windows gebruikers hetzelfde ervaren. Het menu is zowat zwaarder dan de daadwerkelijke gameplay.
Hoewel het hier dus beetje de vraag is of het echt gerelateerd aan VSync is, maar het is een vaker voorkomend iets. Wat staat hij te doen? Het login scherm te renderen. En zonder vsync staat hij dat te doen op duizenden FPS.
Ik denk dat ze iets anders bedoelen. V-sync is enkel voor tearing (lock op fps/hz) en doet verder niks bijzonders maar zet wel een limiet op de FPS. Oftewel een frame limmiter had het ook voorkomen waarschijnlijk.
Ik weet wat v-sync doet, daarom zetten veel spellen v-sync in menu aan ook al kan je in opties in de rest van het spel uitschakelen. En ja, framerate limiter had ook gekund, maar vsync is wat elegantere optie in menu's.
De kaart doet wat het moet doen, een maximale hoeveelheid frames te voorschijn toveren. Je ziet dit ook vaker bij spellen in EA, dan zijn de menu's nog niet gelimiteerd voor frames. Zo had ik in Airport CEO vaak iets van 500/600 FPS in het hoofdmenu en stond mijn GPU lekker te blazen.

Tegenwoordig met de vele schermen die meer dan 60hz kunnen zie je in games de optie komen om de framerate cap in te stellen voor het spel zelf en een losse cap voor in de menu's (IPV hard gebakken op i.e. 30 of 60).
Ethereum minen ;)
Zo'n kaart doet vrij weinig. Het renderen van zo'n scherm gaat zo snel, dat je vaak 1000+ FPS haalt.

Een
while(true)
in applicatie code doet ook niet zoveel, maar zorgt er wel voor dat een CPU core naar 100% schiet.
Het is heel simpel:

1. Een GPU moet je gewoon 100% kunnen belasten 24/7, zeker een van 1500+ euro

2. Het is inderdaad een beetje lomp dat er geen fpscap op het loginscherm stond, maar het gaat hier ook om een beta
Er wordt gezegd dat er videokaarten worden "doorgebrand" , als in. Permanent stuk?
Ik snap dit niet echt, had je al eerdere thermal issues met je build ? Want wat er gebeurt zo te zien is dat je GPU 100% belast wordt. Dat is ... de bedoeling?

Ik bedoel als ik Cyberpunk 2077 of COD Black ops speel met max settings (RT etc.) op 4K dan max ik m`n GPU (3080) ook uit op 100% , of als ik de hele dag bezig ben met Davinci resolve exports op 4K/60 wat ook 100% gebruikt ... na enkele uren speel en/of renderplezier heb ik nog steeds geen doorgefikte GPU.

Dus er moet iets anders aan de hand zijn? (want er wordt ook al gezegd, v-sync aan lost het probleem niet op)

[Reactie gewijzigd door lithiumangel op 22 juli 2024 21:20]

Wat in het verleden nog wel eens is gebeurd bij spellen is dat het inlogschermen op ongelimiteerd FPS hadden staan. Aangezien dit practisch statisch was, werd er vervolgens maar een heel klein gedeelte van de GPU heel intensief gebruikt werd.

Door slechte drivers/ontwerp ontstond er dan ergens lokaal een hittepunt, maar ging de kaartkoeling niet aan omdat de overal temperaturen/performance dat niet vereisten,

[Reactie gewijzigd door heuveltje op 22 juli 2024 21:20]

Door slechte drivers/ontword ontstond er dan ergens lokaal een hittepunt, maar ging de kaartkoeling niet aan omdat de overal temperaturen/performance dat niet vereisten,
Dus een garantiegeval. Immers zou een kaart niet moeten doorbranden als die/een deel daarvan op 100% draait (zonder overclock of andere narigheid).

Een probleem bij de RTX 3090 is mogelijk dat een vervanger niet zomaar/snel beschikbaar is. Dus je kan wel garantie claimen, maar voordat je daadwerkelijk een andere kaart terug hebt... En die andere kaart lost het probleem niet op.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 21:20]

Voor garantie krijg je vaak een refurbished kaart, die liggen vaak op stock bij de vendor.
Daar mag je trouwens bezwaar op hebben; Je mag volgens consumentenwetgeving om een nieuw exemplaar vragen.

Nu helpt je dat niet met de huidige markt...

[Reactie gewijzigd door ArmEagle op 22 juli 2024 21:20]

Daar mag je trouwens bezwaar op hebben; Je mag volgens consumentenwetgeving om een nieuw exemplaar vragen.
Als zij dat niet kunnen leveren in een redelijke tijd, dan kan je ook het volledige aankoopbedrag terugkrijgen.

Nu helpt je dat niet met de huidige markt om een nieuwe kaart te krijgen... :'(
Incorrect. In Nederland heb je recht op een “deugdelijk product” - bij een defect product lever je een gebruikt product aan de leverancier, de leverancier mag dan kiezen: ze geven je een nieuw product (zelden), ze repareren jou product (dat is een hel! Want de doorloop tijd is vaak te lang, in Nederland mag je er niet teveel last van hebben), of je krijgt een refurb. Dat gebeurt het vaakste.

Nu heb je natuurlijk we recht op een nieuw product als je een DOA hebt - of binnen 14 dagen na ontvangst van het product.

Bron: eigen ervaring, en je kan het nalezen op ConsuWijzer

[Reactie gewijzigd door Mopperman op 22 juli 2024 21:20]

Dank je wel, ik had het ook opgezocht toen wat mijn rechten zijn als consument en je hebt gelijk. De kaart werkt, kan weer Doom Eternal spelen, ben eindelijk na een jaar of zo bij het einde bijna :)
Volgens Alternate heb je daar geen recht op een nieuwe kaart. Mijn RTX 3090 van EVGA was amper gebruikt en wanneer ik het gebruikte was het voor games Doom Eternal. Na vier maanden was de kaart defect, heb iets meer dan een maand moeten wachten voor een vervangend model en deze was refurbished. Heb gevraagd of ik geen nieuwe kan krijgen en zij zeggen nee dat kan niet. Nu weet ik ook wel dat het lastig is om een nieuwe te krijgen.
Volgens Alternate heb je daar geen recht op een nieuwe kaart. Mijn RTX 3090 van EVGA was amper gebruikt en wanneer ik het gebruikte was het voor games Doom Eternal. Na vier maanden was de kaart defect, heb iets meer dan een maand moeten wachten voor een vervangend model en deze was refurbished. Heb gevraagd of ik geen nieuwe kan krijgen en zij zeggen nee dat kan niet. Nu weet ik ook wel dat het lastig is om een nieuwe te krijgen.
En dat is de rede dat ik al heel lang niet meer iets koop bij Alternate, heb ontzettend veel problemen met ze gehad JAREN terug, en zo te zien zijn ze niks veranderd, jij heb wettelijk recht op een nieuwe product, ze horen je een splinternieuwe te geven als hij niet gemaakt kan woorden, en niet een andere grafische kaart die een refurbished is, walgelijke praktijken weer is van Alternate.
Alternate was niet mijn eerste keuze maar de kaart was daar op voorraad. Helaas was toen nog niet bekend dat EVGA kaarten bekend stonden om de red light defect bij de power connector. Dit kwam later aan het licht en het was een bekend probleem. Heb alle ondersteunende informatie moeten toevoegen aan mijn melding.
Alternate was niet mijn eerste keuze maar de kaart was daar op voorraad. Helaas was toen nog niet bekend dat EVGA kaarten bekend stonden om de red light defect bij de power connector. Dit kwam later aan het licht en het was een bekend probleem. Heb alle ondersteunende informatie moeten toevoegen aan mijn melding.
Aha ok, ja ik zie heel vaak dingen goedkoper staan bij Alternate, maar heb veel ervaring met ze gehad hoe ongelooflijk slecht hun service is, of beter gezegd je kan dat geen service meer noemen, ben er meerdere keren geweest toen ze nog bij Rotterdam zaten in Ridderkerk, en wow heb dingen daar zien gebeuren wat echt triest voor woorden is.
Ja je mag overal om vragen maar het is niet zo dat in de wet staat dat je recht hebt op een nieuwe, er staat dat de fabrikant mag kiezen hem te repareren of te vervangen voor een gelijk exemplaar, dus als die van jou 6mnd is mag hij je laten kiezen tussen reparatie en een van 6mnd oud
Probleem zit hem in VRAM dat veel te warm word op stock settings.

https://www.youtube.com/watch?v=swq4EhBwq_4

Waarbij dit probleem echt niet enkel bij New World optreed

GTA V
https://forums.evga.com/T...iled-for-me-m3134356.aspx

Onbekend maar duidelijk in brand gevlogen
https://www.techarp.com/computer/gaming-pc-catches-fire/

Neural training
https://www.techpowerup.c...o-power-connector.284718/


Mocht je zelf zo een kaart hebben, ik zou ze asap inspecteren op schade & undervolten indien ze nog onbeschadigd is.

[Reactie gewijzigd door sprankel op 22 juli 2024 21:20]

Artikel bij die in brand gevlogen PC zegt:
There is literally nothing to salvage from this gaming PC
Maar toch zijn de geheugenchips niet te zien en zijn de bankjes dus leeg. :9
Wanneer je een poederblusser gebruikt op elektronica, gaat het na enige tijd alsnog kapot, hoe goed je het ook schoonmaakt.
Daarom kun je beter kiezen voor een CO2 blusser in een dergelijk geval, als er op zo'n moment iets te kiezen valt natuurlijk. Een afgebrand huis is een nog slechtere uitkomst natuurlijk en verzekeringen dekken meestal ook schade veroorzaakt door poederblussers aan elektronica.
Laatste post is wel een enorme edge case en hier zijn de 3090s niet schuldig. Ja de 3090s lussen stroom en kennelijk zijn 4 3090s te veel voor de 12v kabels die naar het moederbord gaan. Dikkere kabels of power limiter op moederbord moet dit voorkomen. Niet de 3090s.
Het percentage zegt maar een klein deel. Als 1 specifiek deel van de GPU heel hard aan het werk wordt gezet en de rest niet, dan kan het toch misgaan.

Ik weet nog uit het verleden (van voor 2000) dat we een computer hadden met een IBM of Cyrix intel kloon meen ik, daar kon je met een programmaatje die een specifiek deel van de CPU belaste de CPU veel heter krijgen dan onder normale 100% belasting.

Dit zal met GPU's waarschijnlijk niet anders zijn.

[Reactie gewijzigd door Fairy op 22 juli 2024 21:20]

Ik kan me nog herinneren dat een CPU dwars door het mobo, bureau en en zichzelf in de vloer embedde. Puur omdat daar geen protectie op zat zoals dat nu het geval (zou moeten) zijn.
Dat klinkt behoorlijk als een broodje aap verhaal. In die tijd was een 300W voeding vaak nog ruim voldoende voor een gaming systeem terwijl je dat tegenwoordig voor alleen de GPU al nodig hebt.
Een CPU die door een printplaat heen smelt zou langere tijd op 150 graden celsius moeten draaien zonder stuk te gaan. Door buro, kast en vloer heen is meer een 'nucleaire meltdown' van duizenden graden wat je niet gaat halen zonder een lasapparaat oid. Het is een CPU, geen kernreactor ;)
Waarom zou de max temp 150C zijn bij een 300W voeding? Wattage en temperatuur zijn niet direct aan elkaar verbonden, als je 300W in een relatief klein stukje silicon propt, wat pas smelt bij een stuk hogere temperatuur dan 150C (1414C) en alleen maar warmte kan afstaan aan de lucht en de mobo/printplaat wat er onderzit...

Volgens mij zit je componenten van nu te vergelijken ipv. die van 25+ jaar geleden.
150C is de minimale temperatuur die je nodig hebt om een printplaat te smelten. Het lijkt me bijzonder onwaarschijnlijk dat een voeding zichzelf niet uitschakelt vanwege kortsluiting of juist het verbreken van de electrische contacten en de CPU met behoud van vermogen afname rustig van het moederbord af smelt.
Een 'meltdown' scenario zoals jij beschrijft waarbij de CPU letterlijk de vloer in smelt is zo onwaarschijnlijk dat ik dat niet geloof zonder foto's ;)
Je begrijpt hopelijk dat gebeurde toen de er amper smartphones waren, laat staan met geïntegreerde camera of dat studentjes van die tijd dit konden betalen...

Dit was natuurlijk een lab setting, ik weet niet of er nog gerotzooid was met de voeding, maar het experiment ging een stuk beter dan de docent had verwacht, hij verwachte alleen niet dat het dwars door de tafel en in de vloer zou belanden. Ik verwacht dat dergelijke hardware tegenwoordig lastig te krijgen is, laat staan dat iemand het op die manier wil kapot maken.
Heel herkenbaar :)

Dat waren nog eens tijden, later met je Athlon CPU flinke overclocks halen en zonder heatspreader, die bestonden nog niet voor die CPU, dus de koeler 0,1mm scheef en je was aan de beurt.

[Reactie gewijzigd door Fairy op 22 juli 2024 21:20]

Deed me denken aan het volgende filmpje:
https://www.youtube.com/watch?v=ssL1DA_K0sI&t=107

Of het fake is mag je zelf uitmaken, maar grappig vind ik het wel :+
Sorry maar dit is echt complete onzin!
Want wat er gebeurt zo te zien is dat je GPU 100% belast wordt. Dat is ... de bedoeling?

Ik bedoel als ik Cyberpunk 2077 of COD Black ops speel met max settings (RT etc.) op 4K dan max ik m`n GPU (3080) ook uit op 100% ,
Meting van GPU gebruikt is niet zo objectief als je zou denken adhv het feit dat er een getal op wordt geplakt. De ene 100% is de andere 100% niet. Als ergens op de video kaart een bottleneck verzadigd is bvb de geheugen bus, dan zit de videokaart aan z'n max framerate (100%), terwijl andere delen vd kaart niet maximaal belast worden. Maar het is wel mogelijk om ook die andere onderdelen zwaarder te belasten en dus 'meer 100%' te trekken.
Zo zal een GPU benchmark zoals Furmark (die doelbewust zo veel mogelijk delen vd video kaart zoveel mogelijk belast) meer vermogen trekken dan de meeste games die 100% GPU gebruiken. En aangezien Furmark een bekende benchmark is zou het me niet verbazen als GPU boeren er in de firmware rekening mee houden om 'doorbranden' te voorkomen.
Wat er aan de hand is is dat je appel en peren loopt te vergelijken.
lekker dan - maar doorbranden? is dat neit een vout/issue van de fabrikant? dacht dat tegenwoordig niet meer voorkwam
Ik bezie dit inderdaad als een fout van de fabrikant. Er kunnen bugs zitten in de software die de gebruiker draait, in het OS of de driver. Of de gebruiker kan zelf een abnormale belasting hebben veroorzaakt door een combinatie van settings aan te passen. In geen enkele van deze gevallen zou dit mogen leiden tot beschadigde hardware, hoogstens een vastloper of reset van het hele systeem.

De firmware van de videokaart zou hier tegen moeten beschermen, onafhankelijk van wat er van de videokaart wordt gevraagd. Enige uitzondering op deze regel is als je zelf de hardware limieten hebt aangepast. Bijvoorbeeld door de spanning van de GPU te verhogen, dan ben je in mijn ogen wel zelf aansprakelijk.
Natuurlijk kan het wel, maar je moet wel heel gekke dingen uithalen en net de pech hebben dat je alle ingebouwde beveiligingen omzeilt. Ook is het vaak niet de GPU die het probleem heeft, maar de stroomvoorziening (VRM etc.). Applicaties als furmark kunnen ook een GPU flink laten zweten. Doorgebrande VRMs en andere onderdelen die niet direct in de GPU zitten zijn ook gewoon mogelijk met Furmark. Maarja, de meeste GPU bakkers testen daar wel mee tegenwoordig. Blijkbaar doet dit spelletje iets unieks.

Het probleem hier is dat het spel een videokaart heel hard onder load zet. De genoemde voorbeelden (RX580, etc.) redden het. Andere GTX3090jes die niet van EVGA zijn redden het grotendeels ook wel, maar allemaal met de nodige lawaai van de koeler en throttling.

Mogelijk heeft EVGA hun VRMs of andere onderdelen van de stroomvoorziening niet op orde en knallen die eruit. Of heeft Nvidia met hun VRM spec er teweinig rekening mee gehouden. De GTX3090 loopt van zichzelf al heel erg richting de grenzen van wat die techniek aankan.
Ja een videokaart heel hard onder load zet mag nooit zorgen voor problemen. Mijn 980ti draait bij bijna elke nieuwe game op 100% load. Een videokaart moet hier gewoon tegen kunnen. Mocht de videokaart onverhoopt toch te warm worden dan moet de videokaart als het goed is uitschakelen.

Ik weet wel dat ik in het verleden ook wel games heb gespeeld die in het menu 5000 a 6000 fps laten zien je hoort dan coil whine uit de videokaart omdat er on hoog fps wordt weergegeven ook dan gaat de gpu dan inderdaad naar 100% toch moet een videokaart daar gewoon tegen kunnen of Nvidia moet in ieder geval regelen dat een te hoge fps niet schadelijk wordt voor een videokaart
Mensen snappen daar op reddit niet dat een doorgebrande kaart niet komt van een game, maar van een weak point in hun setup of hardware onderdeel.

Verbaast me steeds meer hoe veel mensen in bezit zijn van computer componenten en high-end PC's maar er totaal geen verstand van hebben. Hier zijn toch consoles voor?

Overigens zijn er echt wel odd cases waar een stuk software een stuk hardware kan bricken (En dan heb ik het niet over het component max stressen etc), maar het lijkt me in deze situatie extreem maar dan ook extreem klein.

Dat deze problemen nu net met New World verschijnen kan simpleweg komen omdat deze game specifiek een bepaald onderdeel meer stresst dan enig ander spel.

[Reactie gewijzigd door Marctraider op 22 juli 2024 21:20]

Dit is toch het exacte -op zich onwaarschijnlijke- voorbeeld van een stuk software wat een stuk hardware bricked?
Vind het wel wat dubbel, je zou wel verwachten dat de kaarten throttlen als ze het te warm krijgen en niet gewoon doorbranden. CPU's doen het volgens mij gewoon, clock speed verlagen tot ze het terug koel genoeg hebben, of zelfs volledig shutdown.

Eigenlijk zelfs sterk dat de hardware het zo lang uithoudt dat hij gewoon doorbrand ipv fouten te geven en uit te vallen.
Verbaast me steeds meer hoe veel mensen in bezit zijn van computer componenten en high-end PC's maar er totaal geen verstand van hebben. Hier zijn toch consoles voor?
Zulke high-end componenten/prestaties vind je niet in consoles?

Trouwens een beetje kort door de bocht om te stellen dat het doorbranden niet door de software/game komt, ja het is de hardware die stuk gaat, maar blijkbaar is de specifieke belasting - de software - wel de trigger.

Sowieso kan je precies dezelfde hardware/setup in andere situaties (met andere software/spellen) wel gewoon langdurig 100% belasten, zoals je van hardware van duizenden euro's mag verwachten. Pieken in de vermogensopname van de 3090 zijn sinds de eerste reviews al wel bekend, maar dit is de eerste keer dat ik hoor dat de kaarten zelf daadwerkelijk doorbranden.
Misschien omdat als Vsync uit staat hij een extreem hoge fps haalt in het menu o.i.d waardoor er wat mis gaat?

Doorbranden zou natuurlijk niet moeten kunnen, maar je hebt wel eens dat je ook extra coil whine hoort bij zeer hoge framerates.
Er word gezegd in het artikel dat er ook mensen op reddit melden die V-sync gewoon aan hebben staan en dit alsnog gebeurd (100% utilization) - dus het ligt totaal ergens anders, en de developer roept maar wat om de blaam bij de gebruikers te leggen.
Dat die V-sync-uitleg niet klopt zou natuurlijk best kunnen, maar die developer valt ook weinig te verwijten. Tenzij er stiekem een crypto-mining-algoritme in het spel zit ingebakken moet je die GPU gewoon lekker zwaar kunnen belasten, daar is 'ie voor, zeker in games. Ja, dat een login-scherm je GPU 100% belast is een beetje dom maar het is een beta, daarin is dit nou geen onoverkomelijke bug.

Dit heeft er toch alle schijn van dat de thermische beveiliging van de GPU niet goed genoeg is.

GPU-fabrikanten bouwen tegenwoordig apparaten die 300W verstoken op enkele vierkante centimeters chip, tsjah, dan kan je de software moeilijk kwalijk nemen dat dat ding te heet wordt.

[Reactie gewijzigd door bwerg op 22 juli 2024 21:20]

Tja, als er zoveel miljoenen worden besteed aan een game mag je toch hopen dat er ook een beetje capabele test afdeling is? 100% load in een scherm waar letterlijk niks te zien is lijkt me een van de eerste dingen die opvalt. Dit gebeurt namelijk bij letterlijk elke GPU, niet alleen de 3090. Tenzij je een fps limiter hebt ingesteld (v-sync of iets anders).

Desondanks zou een 100% belasting normaal gesproken nooit een GPU kunnen doorbranden. GPU's zijn gemaakt om continue op 100% te draaien.
Dat een tester dit ziet betekent toch niet dat het probleem meteen weg is? Dat mag iemand daarna nog oppakken. Sterker nog, waarschijnlijk weet degene die die render-loop aanroept ook wel dat daar geen limiet op zit. Waarschijnlijk met de gedachte dat ze dat nog wel een keer fixen, samen met de 1000 andere bugs die ze al kennen of later nog wel tegenkomen. 100% GPU-usage in een of ander laad-scherm is (normaal gesproken) nauwelijks relevant voor de gebruiker.

Als je verwacht dat je met een investering van paar miljoen euro ineens alleen maar bug-vrije software hoeft te verwachten, dan heb je software-ontwikkeling nog niet helemaal begrepen.
Je snapt toch wel dat ik daarmee de hele OTAP omgeving bedoel... Dit hoort er gewoon niet in te zitten ook al is het een beta. De game komt over 30 dagen uit. De beta is dus zo goed als final product. Gezien ze met een onzin verhaal over V-sync en nvidia control panel settings aankomen zegt al genoeg. Dat heeft verder niks met bug-vrije software te maken. Maar dat zware bugs zoals deze er gewoon uit zijn 30 dagen voor release. Ze wisten donderdgoed dat tien of zelf honderdduizenden mensen langer dan 30min in een que zouden staan. Hoezo niet relevant? Grote kans dat het ook gewoon in release zou zitten.
Het lijkt me dat zo'n extra cryptomining-algoritme juist je gpu zou kunnen gered hebben :) De opwarming van je gpu is dan op een manier die geen problemen geeft. En ze hebben wat extra funds voor eventuele schadeclaims.
Ik vind het lastig hier nu al conclusies over te trekken, waar jij concludeert dat 'de developer maar wat roept' op basis van reacties op reddit, dat vind ik mogelijk een toch wat te snel genomen conclusie.

Uiteraard kan het goed zijn dat de developer het mis heeft, maar 'mensen op reddit' zijn over het algemeen nu ook niet echt een betrouwbare bron, die kunnen het ook gewoon fout hebben.
Uiteraard kan het goed zijn dat de developer het mis heeft, maar 'mensen op reddit' zijn over het algemeen nu ook niet echt een betrouwbare bron, die kunnen het ook gewoon fout hebben.
Wat betreft de precieze oorzaak kunnen mensen op reddit het fout hebben, maar niet wat betreft het feit dat hun video kaart in problemen komt in het menu van een game - dat behoort een game niet te doen, en de meeste games doen dat ook niet.
dat behoort een game niet te doen, en de meeste games doen dat ook niet.
Een GPU zou zo ontworpen moeten zijn dat een game dat helemaal niet kan doen. Als een programmeur zich druk moet gaan maken over hoe heet de hardware kan worden waar die software op gaat draaien, dan is het einde zoek. Dus om te zeggen dat de game "dit doet" is niet terecht. Render-loops draaien vrij standaard ongelimiteerd (en als je game maar zwaar genoeg is helpt een frame-limiet zelfs niet).

Dat het spel crap geprogrammeerd is zou geen probleem mogen zijn, anders dan voor de speelbaarheid van de game zelf.

[Reactie gewijzigd door bwerg op 22 juli 2024 21:20]

[...]


Wat betreft de precieze oorzaak kunnen mensen op reddit het fout hebben
Daar heb ik het dan ook over.

Dat er een probleem is, is duidelijk en lijkt me ook niet ter discussie te staan. Belangrijk is echter om te weten wat de oorzaak is. Dat een game dit niet hoort te doen klopt natuurlijk volledig.
Maar als je een 240+ hz scherm hebt dan staat je GPU ook met VSync aan lekker die 240FPS te bakken en als daarvoor slechts een stukje van de kaart opwarmt (dat mogelijk geen eigen sensor heeft) dan gaat hij niet throttlen als hij net daar te warm wordt.
Dat klopt uiteraard, echter maar het eens hoeft het ander natuurlijk niet uit te sluiten, het kan bijvoorbeeld best zijn dat de dev geconcludeerd heeft dat bij een geval iemand vsync heeft uitgezet en dit tot problemen heeft geleid, terwijl inderdaad een ander vsync aan heeft staan, maar doordat deze een scherm heeft met hoge refreshrate alsnog problemen kan ondervinden wanneer er geen harde FPS cap is voor het menu.

Vandaar dat ik probeer aan te geven, trek niet te snel conclusies m.b.t. een 'schuldvraag'.
100% GPU usage zie ik geregeld bij andere games ook wel eens, maar m'n 2070 brand daar (gelukkig) tot nu toe niet van door. Dat het bij new world dan specifiek wel gebeurd lijkt me toch echt iets software matig wat er niet goed inzit. De kaart zou idd iets van oververhitting beveiliging moeten hebben (CPU's throttlen toch ook als ze te warm worden?). Maar dat het nu bij deze game optreed en bij andere niet me geen hardware issue :)

Throttling lijkt me iets dat in de driver ingebakken moet zitten, CPU's doen het volgens mij wel, GPU's dan niet blijkbaar?

[Reactie gewijzigd door Powerblast op 22 juli 2024 21:20]

Opmerkelijk dat dit kan gebeuren! Dat betekent dus dat het spel zo'n piekbelasting genereerd dat de GPU niet eens de tijd heeft om te throttlen en dan maar door de hitteontwikkeling kapot gaat?! Dat is een prestatie op zich haast.

En dan die VSync reactie |:(

[Reactie gewijzigd door Laurens-R op 22 juli 2024 21:20]

Tja, als jij vsync uitschakelt, geen frameratecap, je CPU geen bottleneck is (queue scherm) dan kan je GPU natuurlijk flink gaan zweten door ongelimiteerd frames te gaan staan pompen. Vind het eerder vreemd dat er geen failsafe is getriggerd in de driver.

Edit: @batjes hardware failsafe zou inderdaad slimmer zijn :)

[Reactie gewijzigd door Caayn op 22 juli 2024 21:20]

Lijkt me toch niet dat de thermische failsafes bij Nvidia via de driver gaan? Dat is nogal dom.
Wow, kan iemand mij uitleggen hoe dit kan?

Ik snap best dat een kaart door piekbelasting issues kan krijgen. Maar het moet/kan toch niet dat je de kaart zo ver overbelast dat dit gebeurt, of zijn er mogelijkheden als spelbouwer om "verder te boosten" dan de kaartlimieten toelaten?
Het kan natuurlijk ook liggen aan de kaarten, gezien het feit dat de kaarten die defect raken (vrijwel) alleen maar EVGA kaarten lijken te zijn, kan het natuurlijk zo zijn dat deze kaarten een fabricage fout hebben die zich openbaard bij een belasting zoals hier gegenereerd wordt.
Misschien dat er slecht werkende thermometers op die kaarten zitten zodat het stroombeheer niet op tijd 'in de remmen' gaat? Of zitten die dingen al in de GPU chip tegenwoordig?
Er zit altijd wat vertraging tussen het opwarmen van je GPU en de temperatuurmeting, als je de GPU dus snel genoeg laat opwarmen kan die doorbranden voordat de beveiliging ingrijpt. Best kans dat bij de kaarten die verbranden de temperatuurmeting iets verder van het drukst belaste deel afzit dan bij andere kaarten. En de heatsink is leuk en nuttig maar ook daar zit altijd een vertraging in.

Ik zeg niet dat dit de reden is van dit probleem, maar het is een mogelijkheid, in mijn beleving is zoiets een ontwerpfout in de GPU/Firmware.

[Reactie gewijzigd door Groningerkoek op 22 juli 2024 21:20]

Dat vraag ik me in dit geval wel af, dat soort sensoren reageren normaal gesproken relatief snel (dan denk ik aan milliseconden), terwijl als ik enkele ervaringen lees het probleem hier (vooral) optreed op computers die soms al uren in queue staat te wachten om in te mogen loggen, of waarbij spelers al enige tijd bezig waren in het menu met het finetunen van settings.

Op basis van die ervaringen lijkt het dus iets te zijn waarbij de belasting langere tijd aanwezig is. Maar goed, definitieve conclusies trekken zal nog niet gaan.
Bij een goede regel lus(PID), zou ook dit afgevangen kunnen worden. :)

Op dit item kan niet meer gereageerd worden.