Blizzard onderzoekt problemen met RTX 3080 Ti in Diablo IV-bèta

Blizzard onderzoekt meldingen van Diablo IV-spelers die tijdens het spelen van de bèta problemen ondervinden met hun RTX 3080 Ti-videokaart. Uit posts blijkt dat gamers die over een dergelijke gpu beschikken, het spel zien crashen en soms hun grafische kaart gebrickt zien geraken.

De problemen lijken bij sommige Diablo IV-spelers te ontstaan na het afspelen van bepaalde cutscènes in de game. Het scherm wordt bij sommige gamers, die over een RTX 3080 Ti-gpu beschikken, dan eerst compleet zwart, waarna ook de ventilatoren van de grafische kaart een hoger toerental bereiken. Gebruikers die hun pc opnieuw hadden kunnen opstarten, melden op Reddit dat ze na deze ingreep ook geen beeld meer zagen.

Uit de reacties blijkt dat sommige gamers met een RTX 3080 Ti-kaart de dans echter ontspringen. De meeste problemen lijken zich voor te doen bij Gigabyte-varianten van deze kaart, maar dat is nog niet met volledige zekerheid te zeggen. Er zijn immers ook Diablo IV-spelers met andere grafische kaarten die problemen melden.

Blizzard meldt ondertussen op zijn forums dat het de zaak onderzoekt. Het bedrijf raadt gebruikers die problemen ondervinden een volledige power cycle te doen en de drivers van de grafische kaarten opnieuw te installeren. Als die maatregelen geen soelaas bieden, vraagt het bedrijf om extra informatie over de systeemconfiguratie achter te laten, zodat het meer inzicht in de problematiek kan krijgen.

Diablo IV is vanaf vrijdag 24 maart tot en met zondag 26 maart vroegtijdig speelbaar in een open bèta. Spelers die toegang hebben kunnen aan de slag met de proloog en Act 1 van de game. De volledige release van deze dungeon crawler vindt plaats op 6 juni. Tweakers ging al aan de slag met de preview van de game die onder meer een vernieuwd Paragon-systeem krijgt en meer dan 150 dungeons zou bevatten. Diablo IV komt naar de PS5, PS4, Xbox Series X/S, Xbox One en pc.

Door Jay Stout

Redacteur

26-03-2023 • 12:58

209

Reacties (209)

Sorteer op:

Weergave:

3 dagen geleden meldde JayzTwoCents als hetzelfde probleem met de closed beta, hebben ze er sindsdien dan niet naar gekeken en gewoon de open beta laten starten ? |:( |:( |:( :?
Voor Blizzard is dit een edge case met specifieke hardware. Hardware zou niet mogen sterven, als er dan één specifiek type/model dat wel doet, is het duidelijk dat de software niet in de fout gaat. Een workaround implementeren voor een specifiek hardwareprobleem heeft geen prioriteit over het oplossen van bugs.
Bovendien moet je weten wààr je een workaround voor nodig hebt, en dat is zover ik weet nog niet het geval.
Hardware zou niet mogen sterven, als er dan één specifiek type/model dat wel doet, is het duidelijk dat de software niet in de fout gaat.
Duidelijk? Waarom draaien we het probleem niet om dan? In andere games sterft de kaart niet maar enkel als er een cutscene van D4 wordt gedraaid kan het einde oefening zijn.
Het is dan toch duidelijk, niet een hardware probleem maar juist een D4 software probleem?
Aannames maken gebaseerd op helemaal niks leiden enkel tot wilde speculatie die letterlijk alle kanten op kunnen gaan.

Het is niet de eerste keer dat Blizzard problemen heeft en een cutscene of main menu achtergrond en video kaarten de dood in jaagt. (SC2)
Ja leuk als de video kaart 500+ fps in een menu of cutscene kan halen maar waarom??? Het vreet stroom en voegt verder helemaal niks toe. Ze leren blijkbaar niet van oude fouten.
Zowel Blizzard als Nvidia zijn schuldig voor het probleem.

Tussen de closed en open beta hadden ze met gemak een frame limiter op de cutscenes kunnen zetten. Of tussen SC2 en D4 hadden ze makkelijk een frame limiter op de cutscenes kunnen zetten.
Eens dat er beter een frame rate limit op een cut scène zou moeten zitten, maar een videokaart mag er hoe dan ook niet van kapot gaan. Dan is de thermische beveiliging simpelweg onvoldoende. Ik vind dat de fabrikant van de kaart 100% verantwoordelijk is. Software/een spel zou een videokaart nooit moeten kunnen slopen. Dan is de hardware simpelweg niet goed genoeg beveiligd of ontworpen. Dat zou betekenen dat de kaart namelijk ook bij stevige benchmarks kapot zou kunnen gaan en dat is niet acceptabel.
Ik weet niet of er een framecap zit op cutscenes maar D4 heeft standaard een cap op 400 fps foreground en 8 fps background. Overigens heb ik ook gelezen dat iemand zn kaart kapot is ondanks een framecap op 144 fps.
Meeste cut scenes hadden bij mij 36fps op een 13900k + 4070ti. In het spel zelf 144Hz (heb windows op die refresh gezet). Power usage was laag bij 36fps dus ik vraag het me af of dit probleem in de game engine zit. GPU usage zat op 65-70% bij 60-65 graden C en power verbruik rond de 150-170W. Tijdens cut scenes zakte dat naar 45% en 100W resp. CPU zat op ongeveer 10% en 56 graden C. Ik kon de fans nauwelijks horen.

Wellicht dat niet iedereen goede PC ventilatie hebben of dat het om een mobiele versie van de 3080ti ging oid. Als je vaak Northridgefix youtube kanaal kijkt dan zie je regelmatig gaming laptops en high end video kaarten voorbij komen. Meestal zit 't probleem in een power mosfet of smd condensator die een short to ground heeft. Overlevingskans van het GPU IC is ongeveer 50% volgens deze youtuber, soms lager. Blijft toch een probleem om zo'n hoge energie dichtheid en warmte dissipatie op zo'n klein oppervlak te hebben, met mosfets, electrolytische condensators etc vlak bij de warmte bron. En veel gamers overclocken 'm dan ook nog eens.

Op een van de gaming youtube kanalen werd er ook gespeculeerd over GPU kaarten die tijdens de periode van elektronica tekorten zijn gemaakt en minder goede kwaliteitsonderdelen bevatten.

Daarnaast zijn veel PSUs te klein bemeten en goedkoop gebouwd en zou het zomaar kunnen dat deze spikes afgeeft bij snel wisselende belasting. Mosfets, smd condensators en GPU ICs kunnen niet erg best tegen power spikes op de 12V lijn.

Het zou een combinatie van zaken kunnen zijn uiteraard.

Ik vind het wel schappelijk van Blizzard om hier aandacht aan te besteden eigenlijk. Een heel klein percentage gamer beschikt over zo'n high end kaart en nog kleiner deel heeft problemen.
Ik vind het wel schappelijk van Blizzard om hier aandacht aan te besteden eigenlijk. Een heel klein percentage gamer beschikt over zo'n high end kaart en nog kleiner deel heeft problemen.
Ik vind van niet. Voor Blizzard is het een klein percentage, als het jouw dure videokaart is is het voor jou 100%. Enerzijds mag software geen hardware kapot kunnen maken, maar sinds Stuxnet weten we, dacht ik, beter... https://en.wikipedia.org/wiki/Stuxnet
Dus Blizzard moet geen idiote framerates toelaten. Natuurlijk mag de kaart er ook niet aan kapot gaan, maar dit soort dingen zou ik ook niet 100% bij de HW leggen.
Tuurlijk moet de software veilig zijn, maar vraag me af of dat de taak van de dev is, en niet van de driver/hardware fabrikant. Maar vanuit een power saving perspectief zou onnodig aantal fps beperkt moeten zijn. Soms bij het laden vliegt de fps omhoog voor een paar seconden voordat deze terug naar 36-41fps terugzakt.

Als je je auto met 200km/u om een boom vouwt moet je ook niet klagen bij de provincie of wie ook maar de weg heeft aangelegd. Uiteraard moeten de waarschuwingen goed zichtbaar zijn en de weg redelijk overzichtelijk maar je auto moet niet opeens 10k toeren gaan maken en op hol slaan. Dan klop je denk ik wel aan bij de fabrikant van de auto, als je nog leeft ;)

Ja het blijft vervelend als je dat overkomt idd.
Als jij je PC niet voldoende koelt kan jij met gemak je CPU mollen met Prime95 of je GPU met Furmark.
Dat was 20 jaar geleden het probleem en kan nog steeds de huidge generatie CPU's en GPU's de nek omdraaien.
Ja we hebben nu "airbags" maar net als in een auto zijn het geen wonder middelen.
Als het goed is, is tegenwoordig een CPU niet zo makkelijk meer stuk te krijgen. Tenzij je sleutelt aan de CPU zelf gaat deze gewoon trottelen en wanneer de grensden echt worden overschreden schakelde deze gewoon uit.

[Reactie gewijzigd door _Dune_ op 23 juli 2024 09:11]

Je zegt het precies goed
niet zo makkelijk meer stuk te krijgen.
de kans is nog steeds aanwezig.
Wat er vaak gebeurt is dat bijvoorbeeld je geheugen controller een dram bankje niet meer goed kan lezen of een core niet meer boven 60% komt. Het komt daarna misschien wel weer online in windows maar dat ene benchmark die je in het begin draaide zal nooit meer gehaald worden. Je CPU of GPU is permanent kreupel.
Lees even goed, ik zeg “Tenzij…”, daarnaast als een geheugen bank niet goed leesbaar meer is, dan is dat veelal niet de controler van de CPU die het probleem is, maar de geheugen module. Het is werkelijk zeer zelden dat een CPU stuk is/gaat, ik zeg zelden, je hebt natuurlijk altijd uitzonderingen.
Nee je zegt in je eerste zin dat het niet zo makkelijk gaat.
In je "Tenzij" zin bedoel ja dan het tegenovergesteld van "niet zo makkelijk"
Het is werkelijk zeer zelden dat een CPU stuk is/gaat,
Alleen voor mensen die denken dat stuk=niet opstarten.
Tussen 100% en 0% zit een hele gradatie van problemen maar zolang de machine opstart is de CPU "onverwoestbaar"...
Je lijkt eerder op zoek naar een excuus voor custom cooling. Je lijkt bijna blij dat hardware kapot kan gaan van een simpel benchmarkje. Het hoort niet zo te zijn. Ik heb nog nooit hardware kapot gemaakt door belasting. Als me dat overkomt dan ga ik het er niet zomaar bij laten.
Excuus voor wat? Waarom zou ik er blij mee zijn?
I gebruik geen eens een nvidia kaart.
Het gaat om realistich zijn met de verwachtingen wat een CPU of GPU wel of niet kan.
Die dingen kunnen wel degelijk stuk gaan door software. En dan maakt het niet uit of het intel, amd of nvidia betreft.
Aan de ene kant kan een 3080 TI makkelijik RTX Cyberpunk draaien zonder door te branden.
Aan de andere kant heb je een stukje software wat opeens 500+ FPS door de kaart heen jaagt op een moment dat het totaal niet verwacht wordt.

Er is geen enkel reden dat er een dergelijke spike voor komt en die GPU gaat echt niet uit zichzelf even bedenken "Weet je wat ik vindt dit cutscene zo mooi dat ik het maar met 1000+ fps ga renderen"
Dat actie is aangestuurd door de software gemaakt door Blizzard.
Moet ik maar overwegen om mijn beeldscherm wat ik net heb aangeschaft maar terug te sturen. Blijkbaar is 500fps niet goed voor een videokaart en moet ik maar een 360Hz scherm nemen ipv 500Hz.
/einde sarcasme

Zo'n kaart zou dit prima moeten kunnen. Genoeg (oude) spellen waar ik de fps counter naar meerdere duizende fps heb zien gaan; geen enkele keer is mijn videokaart doodgegaan.

Je noemt Furmark in een van je eerdere posts; zowel AMD als Nvidia detecteren dat en limiteren de videokaart express. Daarnaast simuleerd Furmark niet alle workloads die een videokaart voorgeschoteld krijgt. De kaarten moeten gewoon nooit doodgaan door een stuk software.

Het is jammer dat er een batch kaarten problemen hebben met het spel en daardoor kapot gaan doordat ze waarschijnlijk een fabricage fout hebben. Ik zie het persoonlijk juist als goed nieuws dat die kaarten nu doodgaan want er is een grote kans dat dit nog net binnen de garantie periode is. Als het uiteindelijk een keer was gebeurd met die kaarten doordat ze zwakker zijn dan gemiddeld door een fabricage fout dan zit je met je dure videokaart zonder garantie.

Het enige waar ik het met je eens ben is dat het netter is om fps in video's en menu's te limiteren aan de maximale refresh rate van je monitor.
Het klopt dat Blizzard beter de cutscene zou kunnen limiteren. Het is namelijk ook niet leuk als je fans dan als een gek staan te loeien. Maar dit maakt ze nog niet verantwoordelijk voor het feit dat bepaalde videokaarten er kapot van gaan, dat is 100% gewoon de fout van de fabrikant (of eventueel de gebruiker als die bepaalde beveiligingen omzeild heeft).
Dat het op een onverwacht moment gebeurt maakt helemaal niks uit. De videokaart is niet bewust, die heeft geen verwachtingen, dus er gebeurt ook niks onverwachts voor een videokaart. Als het tijdens het zelf spelen zou gebeuren of tijdens een benchmark zou dat voor de videokaart helemaal niks uitmaken, totaal geen verschil met wanneer het tijdens een cutscene gebeurt.
Als het goed is, is tegenwoordig een CPU niet zo makkelijk meer stuk te krijgen.
Kleine kanttekening dat bijvoorbeeld een Intel Core i9-13900K een behoorlijke wattage (100-200watt+ extra) trekt voor circa 10%~ meer overall performance(minder dan 5% tijdens gamen) op sommige, met name gaming moederborden. De P1/P2 states zijn hierbij zo'n beetje op 1 lijn als je deze op een grafiek zou bekijken, terwijl voorheen de P2-bursts korte periodes van circa 90 seconden waren.

Asus noemt dit bijvoorbeeld in diens BIOS Multicore enhancement en staat standaard ingeschakeld.

De CPU trekt dan tussen de 300-500+ watt, waar zelfs menig 360mm AiO koeler en dus ook luchtkoelers niet tegenop kunnen boksen. Veelal wordt dan dus ook aangegeven dit uit te schakelen en handmatig een powerlimit in te voeren van 253 watt of lager, maar het feit blijft wel dat het vreemd is dat dit niet standaard gelimiteerd is.

Aantal artikelen hierover:
https://www.techpowerup.c...el-core-i9-13900k/26.html
https://www.techspot.com/review/2552-intel-core-i9-13900k/

Voorbeeld threads op Reddit hierover:
https://www.reddit.com/r/...ing_with_nzxt_kraken_x73/
https://www.reddit.com/r/...ermal_throttle_too_badly/
https://www.reddit.com/r/..._celcius_on_i9_13900k_in/

Zelfs op 420 AiO koeler:
https://www.reddit.com/r/...led_at_100c_in_cinebench/

Thread op Overclockers.net
https://www.overclock.net...ct-intel-support.1802867/

Nu zal je over het algemeen thermal throttling krijgen, waarbij deze automatisch terugschakelt en/of crasht maar goed je kan je afvragen of veel hogere temperaturen op langere termijn ten goede komt voor de levensduur van een CPU, los van het feit of deze onder de 'veilige standaard' zit zonder onderhoud in de vorm van thermal paste vervangen etc. Dan heb ik het uiteraard over levensduur in een vergelijking van gemiddeld 60 graden vs 80+ graden.

Het mooie is dat je veel betere koeling kan halen, maar het enige wat je daarmee doet in deze situatie is de reikwijdte van de kaart qua performance verder opschroeft en deze alsnog doordrukt totdat deze de 100 graden behaalt als je geen powerlimit instelt.

Ben daarom benieuwd wanneer dit agressieve performance gevecht tussen AMD en Intel een keer voor echte problemen gaat zorgen, de gemiddelde wattages, voltage en temperaturen gaan enkel en alleen maar omhoog, waarbij het op een punt komt dat je bijna verplicht bent een custom loop te hebben om dit nog een beetje te kunnen koelen.
Als jij de kaart zo ontwerpt dat er een cap afvliegt bij een plotse 100% load, heb je de kaart niet goed ontworpen. Dat zou nooit mogen gebeuren en is gewoon slecht ontwerp. Een cutscene op 2000fps renderen is niet handig nee, maar zelfs dan zou dit nooit mogen gebeuren.

[Reactie gewijzigd door Thekilldevilhil op 23 juli 2024 09:11]

Nee de cpu gaat throtelen voor schade te ver komen, trouwens bij GPU is de koeler al gemonteerd.
Een cpu/gpu waar geen koeling op zit kan binnen seconde doorfokken. De 3000/4000 serie van NV zonder koeler word bij opstart 700+°C binnen de seconde, hier is geen beveiliging tegen opgewassen.
Een plotselinge spike in power draw kan een chip dermate snel opwarmen dat ie dood is. Dit laatste is ook niet ongewoon bij de laatste 2 generaties van NV, die gpus fakkelen snel af om medio van redenen.
Als jij je PC niet voldoende koelt kan jij met gemak je CPU mollen met Prime95 of je GPU.
Niet voldoende is dan ook niet zonder!
Deze fakkeled niet door hoor.
https://youtu.be/A9j7gnfjVwc
19:10 zonder koeler.
;)

[Reactie gewijzigd door Exitz op 23 juli 2024 09:11]

Wat je zegt klopt voor geen meter. Heb een i5 2500k wat al erg oude cpu is voor de lol tot de max gepusht onrealistisch voltage en clock snelheden deed zelfs een normale ventilator tegen mijn kast aan.

CPU is nooit gestorven zelfs met erge benchmarks. Daarna heeft het nog steeds 1:1 gedraaid. Ook al deed ik doodelijk voltages viel de pc meteen uit :+
Had dat laatst bij 1 of andere indie game, daar ging FPS in menu naar +2.000 fps videokaart flipte helemaal op 100% load en fans op 100% (gigabyte) 3080. Na aanzetten van vsync was load 5%.
Ik vraag me af in hoeverre de fabrikant 100% verantwoordelijk is...

Bij game development wordt vaak NVidia ingehuurd voor 'ondersteuning'.
Ik laat even in het midden hoe ver de 'ondersteuning' gaat.
Meestal gaat het nog een paar stapjes verder en worden ook de Game Ready drivers gereleased.

Ik kan me goed voorstellen dat bepaalde limiters niet actief waren tijdens het tonen van een cut scene.
Of dat hier het geval is of toen bij 'New World'.., blijft speculatie. ;)
Precies zo.
Ik heb een hele simpele videokaart van nu e300 en bij aanschaf minder.
Ik was aan het experimenteren met een fan speeds.
Fan speed ap gaf problemen en mij systeem is meerdere malen uitgevallen voordat ik het probleem ontdekte. De fan stond helemaal stil en het koelblok was warm genoeg om mijn vingers aan te branden.
Fan speed opgelost, en geen verdere schade.
Helemaal mee eens, hardware hoort gewoon niet stuk te gaan van zoiets. Dat het nu fout gaat bij d4 beta wil niet zeggen dat het ook de oorzaak is. Een tijd geleden was er ook al zoiets aan de hand met 3090 kaarten bij de new world beta.
Je kan het een niet los zien van het ander.

Je hebt twee partijen. Twee stukken software (bios/en drivers van Nividia) en de software.

Software zou NOOIT defecte hardware mogen veroorzaken met de orginele bios en officiele drivers. Simpel weg omdat je niet wil dat bv een virus zoiets veroorzaakt. En ja dat zou zomaar kunnen als dit bekend wordt.

Daarnaast kan je problemen met bv hitten over stroomverbruik door een te hoge framerate natuurlijk zelf oplossen als in dit geval Blizzard zijnde.

Je kan het een niet los zien van het andere.

Daarnaast was dit een BETA, daar zitten fouten in.
Software zou NOOIT defecte hardware mogen veroorzaken
In een ideale wereld klopt dat maar dat hebben we helaas niet.
Daarnaast was dit een BETA, daar zitten fouten in.
Klopt maar dezelfde fout was al gebeurd in SC2 en daar hebben ze niet van geleerd. Daar ging het hoofdmenu video zich afspelen met 1200+fps met als gevolg dode kaarten.

Als het een keer gebeurt, ja ok, maar nu is de reactie "Alweer???"
Het zelfde is ook gebeurd bij New World, wat geen Blizzard game is, deze sloopte 3090 kaarten. Om met jouw woorden te spreken “alweer een Nvidia kaart!!!”. Daarnaast heeft Blizzard wel degelijk geleerd, in Diablo 4 zitten aparte framerate caps voor zowel voor- als achtergrond content. Deze kun je zelf ook aanpassen.
fun fact die limiters zaten ook al in Diablo 3 :)
Bij New World was er hetzelfde probleem. Die game brickte 3090's. Naderhand bleek het een slechte soldering in die batch te zijn geweest.

Het wil dus nog niets zeggen dat dit in Diablo IV gebeurd.
Bekijk deze eens https://www.youtube.com/watch?v=or7njUlYTLI dan wordt misschien wat duidelijker waarom de fout toch bij de grafische kaarten gezocht moet worden. Het vermoeden is dat er simpel weg kwalitatief slechte componenten zijn gebruikt. In ieder geval zou een grafische kaart nooit op deze manier stuk mogen gaan, er zou al veel eerder ingegrepen moeten worden door bijvoorbeeld trotteling van de kaart.
En toch is het niet een probleem in CyberP/Fortnight/CoD/BF/Desitny/WoW/Valorant/PoE/ ect..
Er is geen enkel reden waarom een cutscene ongelimiteerd fps kan draaien. Het is slordig programeer werk en heeft in het verleden ook al videokaarten gemold.
Elke ander game studio zou hierdoor zijn playerbase kwijten raken en Bliz doet het gewoon even 2 twee keer achter elkaar.
"Niks te zien hier...je moet bij nvidia zijn" Right...
Je zit ernaast. een spel kan never, ever nooit geen videokaart slopen. een kaart die gewoon 100% goed is, moet zijn hele te verwachten levensduur op volledige load kunnen opereren in de omstandigheden die de febrikant eraan plakt. In het verleden kwamen dit soort problemen altijd door slecht soldeerwerk of onderdelen van inferieure kwaliteit. Dat is nu ook weer het geval.
Dan zou de kaart ook stuk gaan bij spellen met veel zwaarder GFX. Er zijn geen feiloze producten in geen enkel branch.
"never, ever nooit" is gewoon je hoopvol denken maar zeker niet de realiteit.
Hij heeft gewoon gelijk hoor. Een spel is nooit verantwoordelijk voor het kapot gaan van een videokaart. In zulke gevallen ligt er altijd een hardwaredefect of fout aan ten grondslag.

We hebben dit al vaker gezien en in alle gevallen bleek er een fout in de kaarten te zitten, zoals bijvoorbeeld ook bij New World het geval was.
De kaart zou gewoon moeten gaan throttlen om niet kapot te gaan, dat het dat niet doet of te weinig kan mijn inziens nooit een software issue zijn (van de gebruiker, wel een driver issue bijvoorbeeld).
Dan zou de kaart ook stuk gaan bij spellen met veel zwaarder GFX. Er zijn geen feiloze producten in geen enkel branch.
"never, ever nooit" is gewoon je hoopvol denken maar zeker niet de realiteit.
Nee hoor, dat hoeft helemaal niet. Wellicht moet je je eens verdiepen in hoe dat werkt op hardware niveau. Wat ik zeg is de waarheid, en als je dat niet kan accepteren is dat niet mijn probleem.

Een correct gebouwde kaart die volgens spec gebouwd is moet zijn hele leven lang op 100% load kunnen draaien zonder defect te gaan. Zoniet, is er wat mee. En dat gebeurt nu even vaker bij Nvidia dan bij AMD, maar is ook wel eens anders geweest.
Inderdaad, niet de realiteit. Maar wel een fout v/d hardware fabrikant.

Jij claimt garantie op je:
- Geheugen. Antwoord fabrikant: Uiteraard mag het geheugen niet constant vol zitten.
- CPU. Antwoord fabrikant: Uiteraard mag de CPU load maximaal 2 uur per dag 100% zijn.
- Scherm. Antwoord fabrikant: U begrijpt toch wel dat een scherm iedere 3 uur even uit moet om af te koelen?

Zou jij dat soort onzin antwoorden accepteren?
Nee, dan heb je niet goed gelezen. Zoals het er nu naar uitziet gebeurd het bij specifieke kaarten uit de 3080Ti serie en dan met name die van Gigabyte. Het probleem ligt dan niet zozeer bij Nvidia, maar eerder bij de AIB in dit geval Gigabyte die de kaart gemaakt heeft en mogelijk voor minder goede componenten heeft gekozen, vermoedelijk door schaarste.
De meeste problemen lijken zich voor te doen bij Gigabyte-varianten van deze kaart, maar dat is nog niet met volledige zekerheid te zeggen. Er zijn immers ook Diablo IV-spelers met andere grafische kaarten die problemen melden.
Nee hoor, goed gelezen want het is enkel een aanname dat het gigabyte kaarten treft.
Het is slordig programeer werk en heeft in het verleden ook al videokaarten gemold
.

Een RTX3080 is toch een al 'iets hoger' segment van videokaarten toch?
Gezien ik de betazonder problemen kon draaien op een 'minderwaardige' kaart (RTX3060) toont toch aan dat het niet aan het programmeerwerk ligt? of wil je zeggen dat dat programmeerwerk zich specifiek op een 3080 richt maar alle andere RTX'en (en zelfs gelijkwaardige AMD's) buiten beschouwing laat?
Lijkt mij dus eerder een hardware probleem
Ik weet even niet meer welke game dit eerder gebeurde, maar binnen de game heeft men wel degelijk uiteindelijk ook een framerate limiter geïmplementeerd op de cutscenes om te voorkomen dat het probleem ontstaat. Vervolgens zijn in overleg met de fabrikant de GPU's onder garantie hersteld die hierdoor defect zijn gegaan.
New World.

En idd voor alle mensjes hier, een kaart gaat niet door een spel kapot. Een kaart gaat kapot door een fabrieksfout.

Tenzin deze game opeens in staat is om tijdens cutscenes de boel te flashen xD
New World.

En idd voor alle mensjes hier, een kaart gaat niet door een spel kapot. Een kaart gaat kapot door een fabrieksfout.

Tenzin deze game opeens in staat is om tijdens cutscenes de boel te flashen xD
inderdaad, indien het spel een 3080 kapot kan maken, waarom is het dan niet gebeurd met 'mindere' kaarten (RTX3050-3060-3070) of met gelijkwaardige radeons?
Lijkt mij dus eerder een specifieke fabrikagefout in die 3080 ipv in het spel
En toch kan er best een software implementatie komen om deze fout een halt toe te roepen. Dat was de vorige keer immers ook de fix (ik weet even niet meer welke game dat was, maar gebeurde hetzelfde bij): framerate limiet op cutscenes.
Mogelijk bedoel je New World, welke op die manier 3090 kaarten sloopte, of wat langer geleden StarCraft II ook van Blizzard. Ja, het kan natuurlijk opgelost worden in de software, dat gebeurd veel vaker. Kijk naar de security issues van voornamelijk oudere Intel processoren, veel daarvan wordt in software ondervangen. Echter dat betekend nog niet dat de hardware in orde is, in de basis ligt daar het probleem. De hardware doet niet wat het zou moeten doen, vermoedelijk door gebruik van minder kwalitatieve componenten.

[Reactie gewijzigd door _Dune_ op 23 juli 2024 09:11]

Sorry trouwens voor de berichten spam, ik kreeg hier 404-errors, terwijl de reacties dus wel gepost zijn. :?
Dat noem je dus workarounds. In dit geval een softwarematige aanpassing om hardwarematige issues te omzeilen.
Huh? Dit slaat kant nog wal.
Ok, prima. Maar wie moet dat probleem voorkomen?
Als er een bug in hardware zit waardoor kleuren soms omgewisseld worden is dat de fout v/d game studio omdat hun software dat niet oplost?
Nee het is geen software probleem, althans niet eentje voor blizzard. Software mag NOOIT hardware kunnen beschadigen, en daar moet je als software engineer vanuit kunnen gaan tenzij documentatie expliciet vermeld dat een bepaald gebruik schade kan veroorzaken. En zover ik weet is dat voor geen enkele directX call het geval. In dit geval wat mij betreft dus een probleem met nVidia drivers
tenzij documentatie expliciet vermeld dat een bepaald gebruik schade kan veroorzaken.
Ik zou daar graag en achtergrond artikel over lezen dat de juridische kant belicht.
Zelf doe ik niet aan overklokken maar de software v/d fabrikant geeft die optie wel.
Ik vraag me af in hoeverre een disclaimer garantie doet vervallen als je de functionaliteit zeer prominent aanwezig is.

Voor mij is het als een autofabrikant die aangeeft dat je super benzine mag tanken voor extra performance op eigen risico.
En toch is het enkel blizzard die het voor elkaar weet te krijgen.
In een high-end game zoals Cyberpunk met het zwaarste vorm van RTX kan je draaien zonder dat je bang hoeft te worden dat een cutscene de boel molt.
Maar blizzard zal wel een of ander obscure functionaliteit gebruiken wat verder niemand iets van af weet zodat je cutscene boven de 1000fps kan komen. Gewoon omdat het kan.
Waar heb je het over? Diablo 4 heeft gewoon settings voor zowel v-sync als max fps voor zowel als je het speelt en als het spel op de achtergrond draait als je alt-tabt naar iets anders. Ik heb het even geprobeerd en bij mij respecteert diablo deze settings gewoon. Ook als je vsync uitzet gaat diablo niet over de frame-cap die ik heb ingesteld ook niet in menu of cut-scenes.
Ik heb een aantal reacties van je voorbij zien komen. Wat ik het idee krijg is dat jij zegt dat een videokaart dus eigenlijk geen 3/4/500+ fps aankan en dat het daarom een software fout is en geen hardware fout, terwijl voor alsnog alleen Gigabyte kaarten stuk zijn gegaan, alleen 3080ti's en geen andere generaties. Klinkt gewoon hetzelfde als het new world verhaal waardoor de hoge fps er ergens een onderdeel disfunctioneert en daarom de videokaart sloopt. Klinkt toch echt als een hardware probleem, en geen software. https://www.eurogamer.net...dodgy-soldering-says-evga
Doet blizzard iets buiten DX12? Kan dat überhaupt tegenwoordig in Windows?
Na de omschakeling van DX11 naar DX12 en Vulcan wordt er veel minder overhead gebruikt en kan elke engine rechtsteeeks communiceren met de GPU en nu ook ssd/nvme voor SMA.
Het voordeel is veel meer preformance.
Het nadeel is dat je de boel veel makkelijker in de soep kan laten draaien met een verkeerde configuratie.
Dergelijke problemen gebeuren ook altijd met "custom" 3d engines.
Een game in unreal of unity zal nooit je GPU mollen.
De queue vroeg 100% gpu en dat is idd zeer slecht, naar windowed mode gaan met alt tab bracht het terug naar 5fps gelukkig. Bizar dat niemand aan zoiets denkt bij zon groot bedrijf.

Verder, als een game een videokaart zou kunnen slopen dan kan malware het ook, er zit gewoon een enorme design fout in die kaart en het is toch echt de taak van de hardware om zn eigen integriteit te bewaken.
Er is ook malware wat hardware kan slopen. Laatste voorbeeld was van een Tarkov cheater drama.
1 streamer was het beu dat er zoveel gecheat werd in Tarkov dus had hij een tweede account gemaakt en de cheats gekocht om het op te nemen op stream hoe het werkt.
Puntje bij paaltje hebben de cheat developers op afstand zijn nvme drives genuked. De nvme sticks konden daarna gelijk de prullen bak in.

Ja er zit wel een fout in de kaarten maar de vraag is hoe ernstig is het als het verder normaal werkt. Beetje zoals je een disccusie gaat voeren over auto airbags waarbij iemand gaat klagen dat de bestuurder dood ging omdat de airbag gefaald had terwijl de auto net frontaal op een spookrijder geklapt was die met 300km/u tegen het verkeer in reed.
Dat verhaal van g0at vind ik een beetje vaag en ik denk dat hij niet goed weet wat er is gebeurd of wat er aan de hand is. Hij heeft het over een Boot Nuke, maar een Boot Nuke is een manier om een drive 100% te wissen tijdens het opstarten. Daar maak je een drive niet mee stuk.

Kan goed zijn dat ze door heel veel wis operaties uit te voeren de drives stuk hebben gemaakt, maar waar hij het over heeft is niet zomaar mogelijk met een Boot Nuke.
De firmware is gewiped er is geen device detectie daarna meer mogelijk. Het is dan officieel "bricked"
Dat zegt hij dus niet. Hij heeft het over een Boot Nuke.
volgensmij hebben alle devices daar tegen woordig een 2de chip voor die inkicked als dat gebeurd. net asl een MB crash free bios heeft
Volgens mij is daar wel aan gedacht, je kan immers in het spel een maximale FPS instellen, en deze kan ook nog eens verschillend ingesteld staan voor voorgrond en background. Dit is trouwens bij (vrijwel) alle Blizzard games zo. Zo heb ik WoW, Diablo III en Diablo IV gelimiteerd op maximaal 144FPS voorgrond en maximaal 8 FPS background voor Diablo III en IV en 30 FPS voor WoW.

Bij Diablo IV kan je dit al voor het starten van de game instellen in je Localprefs.txt file of in het menu na het starten van de game. Met deze parameters:

Volgens mij stond dit zelfs standaard al aan bij Diablo IV, al weet ik dat niet 100% want ik heb de settings aangepast.

Voorbeeld uit mijn Localprefs file: https://imgur.com/ViRAUM9
Zo duidelijk is het niet. Er is interactie meer componenten van zeer complece hardware. Moederbord, CPU, GPU. En wat er ook voor software op draait, crashen kan, maar het zou er nooit van stuk mogen gaan.

Ik zou eigenlijk denken dat de compiler iets niet netjes heeft gedaan, maar zelfs dan...
Als je software toelaat de hardware zo te gebruiken dat deze kapot kan gaan, is een game developer die geen framecap op cutscenes gebruikt wel het minste waar je voor moet oppassen. Ik denk dan aan cryptomining malware of zelfs gewoon virussen die grafische kaarten kapot maken :)

Verder moet je een grafische kaart gewoon gemakkelijk 48u op full load kunnen stresstesten zonder problemen. En ik denk dat deze kaarten dan ook gewoon kapot zouden gaan.
Het kan ook nog steeds een hardware fout zijn die toevallig aan het licht komt bij het draaien van een bepaald stukje software. Al vind ik het zeker een bizarre gebeurtenis.
Je hoort geen hardware te kunnen slopen me software. Dat is een harde regel in electronica design. Gebeurt het wel dan heeft het ontwerp gefaald, of waren er wellicht componenten niet up to spec.
GPUs hebben hardwarematige beveiliging die moet voorkomen dat ze meer doen dan ze aankunnen. Wat de game aan code aanlevert zou daar nooit van invloed op mogen zijn, en dat is in 99,999999% van de gevallen ook niet zo, ook al is de game code van erbarmelijke kwaliteit.

We hebben dit eerder gezien met New World...en heel verrassend ook een Nvidia Ampere GPU. Best kans dat er wat haken en ogen zijn die je in deze edge cases pas ziet. Ik weet iig dat ik van Ampere ver weg blijf, dit is de zoveelste vreemde zaak naast de dramatische generatie die het uberhaupt al is.
I know, maar net zoals de vorige keer is het in een heel specifiek deel van het spel dat dit probleem wordt veroorzaakt. De vorige keer was het omdat er geen limit op de framerate stond en Blizzard hun team is groot genoeg om een hardware-killing bug toch de nodige prio te geven voordat ze tientallen, honderden of zelfs duizenden kaarten defect laten gaan door de open beta door te laten gaan als het probleem zich in de closed ook al voor deed. Ik weet dat beta's net gemaakt worden om bugs te vinden, maar dit is een worst case scenario.
De vorige keer was het omdat er geen limit op de framerate stond en Blizzard hun team is groot genoeg om een hardware-killing bug toch de nodige prio te geven voordat ze tientallen, honderden of zelfs duizenden kaarten defect laten gaan door de open beta door te laten gaan als het probleem zich in de closed ook al voor deed.
Deed zich in die vorm niet alleen eerder in de closed beta van Diablo 4 ook al voor.
Veel eerder nog had Starcraft 2 exact hetzelfde probleem met een ontbrekende frame-limiter waardoor kaarten langdurig op maximale belasting stonden te stampen en hitte-schade opliepen.

[Reactie gewijzigd door R4gnax op 23 juli 2024 09:11]

Echter zou een volledige belasting nooit een kaart mogen slopen, tenzij je moet willig de kaart hebt overclocked. Een grafische kaart zou continue op volle belasting prima moeten kunnen blijven functioneren. Wordt de kaart overbelast of stijgt de temperatuur te veel, dan zou de kaart moeten gaan trottelen, om de waarden omlaag te brengen, ongeacht welke software je draait.

Het vermoeden is dat voor betreffende kaarten goedkope of kwalitatief minder goede componenten zijn gebruikt, waardoor de kaart in een specifieke situatie binnen de marges van de kaart toch defect raakt.

Hier leggen ze dat haarfijn uit: https://www.youtube.com/watch?v=or7njUlYTLI
Mee eens. Is het mogelijk om een kaart hierop te testen bij aankoop? Want dat dit nu pas ontdekt wordt suggereert dat dit soort zwakke plekken veelal ongezien blijven. Het is namelijk wel vervelend om hier pas achter te komen als je software gebruikt die net deze zwakke plek triggeren.

[Reactie gewijzigd door ZatarraNL op 23 juli 2024 09:11]

Even een paar dagen een miner aanzetten. Levert het nog wat op ;-).
Absoluut mee eens.
Dit is slordig van de kant van Blizzard, in de zin dat het een hoop resources onnodig verbruikt.
Je zou ze het meerverbruik in stroom aan kunnen rekenen.
Maar ... zij zijn niet verantwoordelijk voor videokaarten die hier aan onderdoorgaan.
Dat ligt puur bij de fabrikant van die kaarten.
Je zou verwachten dat software zelf nooit de boosdoener mag zijn die een hardware matig defect kan veroorzaken, alleen hoe leg je de situatie van de 320.18 WHQL drivers uit van 2013?

Geheugenopfrissertje:
https://modcrash.com/nvidia-display-driver-damaging-gpus/

Het aparte is dat bij 320.18 WHQL videokaarten gewoon gesloopt werden, maar kaarten op oudere of nieuwere drivers dit probleem niet ondervonden, ondanks gewoon belast te worden.

Ik heb als ik het goed herinner deze driver kort gebruikt gehad voor mijn oude GTX 460, en daarna snel weer gedowngraded naar 314.22 WHQL wegens problemen die boven water kwamen met de driver. Kaart heeft daarna tijd lang nog goed gefunctioneerd op zowel de 314.22 WHQL driver als later versies, tot deze uiteindelijk toch overleed in 2014.

Soms denk ik wel eens of het die driver is geweest die op de lange termijn hem de das om hebben gedaan, terwijl hij nooit echt meer dan 70°C werd.

Kort voordat deze overleed begon hij ineens zware fps-drops willekeurig te vertonen op korte momenten in Carmageddon Reincarnation, daarna was het een BSOD en daarna zat hij vast op 800x600 met rode horizontale strepen her en der (niet veel) door het beeld en kon het OS niet meer starten gezien de Nvidia drivers geen mogelijkheid hadden goed ermee te communiceren en dus in een BSOD loop kwam. Enkel safe mode werkte nog.

Vermoed dat het overigens het VRAM is dat de geest gaf, misschien dat die lagstoten iets met error-correctie te maken hadden als ze dat überhaupt al doen.

Het lijkt bij dit spel inderdaad wel dat het aan de specifieke hardware oplage ligt van x fabrikant wegens de opvallende defecten in die hoek, maar ik zal nooit 100% uitsluiten dat een onderliggend probleem tussen drivers en software communicatie naar de hardware niet voor problemen kunnen zorgen.

En tja, 9999fps pompen in een cutscene of wat dan ook lijkt me voor de capacitors ook niet de ideale situatie, al hoor ik niet zo snel dat mensen hun videokaart de pijp geeft als zaken als 3DMark06 of 3DMark Ice Storm ditzelfde veroorzaken, want die pompen ook makkelijk honderden tot duizenden frames.
Een driver is toch wel van een ander niveau dan een spel of programma.

Wat hij zegt is verder gewoon correct met uitzondering van de driver. Volgens mij draait een driver ook niet eens in user space dus kan die veel meer uitvreten op je hardware. De driver is o.a. ook verantwoordelijk voor het limiteren van de kaart; als die niet goed functioneerd door een bug dan kan dat inderdaad negatieve gevolgen hebben voor de hardware.
Je bent nu al 3x opnieuw aan het verwijzen naar dezelfde link die ik in het begin ook al heb gegeven: JA het zou niet mogen gebeuren, maar door een heel specifieke situatie die géén 100% full load is gaan die kaarten er aan.

De meest voor de hand liggende mogelijkheid is dat er zich een specifieke situatie voor doet waarin een component zonder thermische beveiliging te zwaar belast wordt die in normale full load testen zich niet voor doet, een beetje als een ontbrekende airbag in je koffer omdat je vol gas achteruit gaat racen om het met een belachelijk voorbeeld te stellen.

Moet je dan zomaar je ogen sluiten voor een bestaand probleem dat zich quasi uitsluitend met jouw software voor doet? Blizzard is geen indie met 10 personeelsleden die in hun vrije tijd aan het coden zijn en ze gaan hier sowieso reputatieschade door oplopen, zelfs als zijn zij niet de primaire oorzaak (de mogelijks mindere kwaliteit van componenten) zijn.
Het is niet alleen bij software van Blizzard voorgekomen, zie de issues met New World en de 3090-serie. Blizzard heeft eerder wel een vergelijkbaar iets gehad met StarCraft II wat toen in ieder geval een issue was met betrekking tot framerates in een menu, echter heeft Diablo 4 daadwerkelijk al frame rate caps, welke je overigens zelf ook kunt aanpassen. Dus zij leren van hun ‘fouten’, ik heb ook niet het idee dat Blizzard haar ogen ergens voor sluit.

Zover ik weet is de exacte oorzaak op dit moment ook nog niet echt bekend. Het gebeurd ook met een specifieke ‘groep’ kaarten. Dit is iets waar je als gameontwikkelaar vooraf niet echt rekening mee kunt houden. Je kunt vooraf niet elk stuk hardware testen of elke combinatie, om er achter te komen dat een stuk hardware anders reageert dan je zou mogen verwachten.

Zoals jijzelf ook aangeeft het zijn specifieke situaties, zoals ook in het filmpje wordt genoemd, zogezegd “ a perfect storm”.

Wat betreft de link ja ik had het filmpje ook gezien en duidt naar mijn idee goed wat er gaande is, daarom heb ik het een paar maal in een reactie opgenomen, nadat ik ook wat andere bronnen er op nagelezen heb.

[Reactie gewijzigd door _Dune_ op 23 juli 2024 09:11]

Ik begrijp dat ontbreken v/e frame-limiter wel.

Als een van de vele reviewers de kaart test wil je goed scoren en geen opmerkingen zoals "deze kaart heeft 33% minders fps dan de directe concurrentie."
Uiteraard draait de algemene beoordeling niet over dat ene specifieke geval, maar het is niet wat je wil als fabrikant.
Maar is dat echt relevant?

Fictief voorbeeld.
Een hardware fabrikant heeft onderzoek gedaan waaruit blijkt dat alles >200fps onzin is.
Die fabrikant bouwt nog wat marge in en de kaart werkt zonder problemen tot 250 fps.

De game studio heeft ook onderzoek gedaan en maximaal nuttige fps is 400fps.
Frame-limiter op 400fps en de GPU gaat kapot omdat 400 ver boven 200/250 is.

Wie is hier fout bezig?
Wie is hier fout bezig?
De poster Lurkz, omdat deze het probleem direct verbindt a/h ontbreken van een frame limiter en er een halve stroman van maakt. Dat is nl. niet het probleem; enkel een mogelijke aanleiding.

Het probleem is dat de kaart -- of een bepaalde hardware-component op de kaart -- langdurig maximaal belast wordt, en dat de kaart daar onder bezwijkt.

Bij Starcraft 2 werd die situatie bereikt doordat er een frame limiter ontbrak en de kaart op hol sloeg om in hoge vaart de zeer simplistische 3D scenes aan boord van Jim Raynor's commando-schip te renderen met niet honderden, maar duizenden frames per seconde.

Maar dat is bij lange na niet altijd hoe je in deze situatie belandt.
Denk bijv aan benchmarking-applicaties die specifieke features van de kaart doelbewust punt-belasten om performance te meten.
Zulke applicaties worden zelfs al langere tijd met schering en inslag door de hardware vendors vanuit de driver gethrottled om kaarten te beschermen, omdat deze er anders aan onderdoor zouden gaan wanneer de werkelijk beschikbare koeling niet aan de gestelde TDP waardes kan voldoen. Of de TDP incorrect is, bijv. omdat er sprake is van een overklok. Al dan niet zelf uitgevoerd, of fabrieks-af.

Hardware-matig thermisch throttlen is op moderne kaarten ook gewoon een basis-feature geworden. En vooral dat dat hier ook faalt, betekent dat het defect te wijten is aan de hardware-fabrikant die niet goed genoeg kan detecteren wanneer er gethrottled moet worden. (Of dit gewoon niet in de uitvoering van hun kaarten op wil nemen, want: te duur.)

[Reactie gewijzigd door R4gnax op 23 juli 2024 09:11]

Maar dan ligt het probleem toch bij de fabrikant? Geen limiet op framerate mag geen probleem geven, de driver/hardware zou daar zelf beveiliging voor moeten hebben, en als het alleen lijkt te gaan om een specifiek merk/type dan lijkt daar toch een probleem te liggen.
Ik vraag me ook weer af om hoeveel spelers het werkelijk gaat, en misschien komt het ook gewoon door de setup van de gebruiker zelf, te weinig koeling bv.
De vorige beta heb ik niet meegemaakt, maar in deze beta zit er ondertussen een optie om het aantal FPS te limiteren zowel als het game actief is (default 150 FPS), als in de background (default 5 FPS).
Niet mee eens. RIsico = kans x impact.

De kans op problemen is misschien klein, maar als de impact is dat voor de getroffen klanten dat hun dure videokaart kapot is, dan had Blizzard dit toch zeer serieus moeten nemen.

Ook in hun eigen belang. Als er eenmaal een gerucht op gang komt dat Diablo IV Nvidia kaarten kapot kan maken, dan kan dit ze veel toekomstige klanten gaan kosten. Zeker als - zoals in dit artikel - de indruk ontstaat dat Blizzard van de problemen wist en er evengoed niets aan deed.
Er is dus geen directe impact voor Blizzard, maar voor derden. Bovendien is de kans heel klein (theoretisch onbestaande). Ik denk ook niet dat gebruikers massaal Blizzard de schuld gaan geven en Diablo dan maar laten liggen. Meer nog; negatieve publiciteit is ook publiciteit!
zou toch vreemd zijn als je GPU stuk gaat door het aanroepen van DX12 functionaliteiten?
Ze kunnen natuurlijk moeilijk een Beta compleet stoppen omdat een kleine groep mensen er problemen mee heeft. Daarnaast, de post waar in dit artikel naar gelinkt wordt is van voor het beta weekend, dus ze zijn er zeker wel sinds de vorige beta naar aan het kijken.
Jay heeft wel eens vaker iets gemeld hè.. (wat dan achteraf niet juist bleek te zijn)
hij is daar ook open en voorzichtig over in zijn video, maar een gewaarschuwd man is er 2 waard
Jawel hoor, Tweakers is gewoon zoals gebruikelijk laat met het posten van "nieuws". Dit bericht is gepost op 23 maart, 1 dag voordat de open beta is begonnen en Nvidia heeft ook een nieuwe driver uitgebracht.
Misschien dat ze een grotere sample size wilden hebben. Daarvoor is die open beta juist bedoeld. Zo'n open beta is er niet voor de gamers. En ja als je mee doet met een open beta stel je jouw systeem beschikbaar voor hun test. Het is gewoon een risico dat er door gamers genomen wordt.
Meesten spelen de beta als gameplay demo
Dat ze het als demo gebruiken neemt niet weg dat het geen demo, maar een beta is. Als de game daad werkelijk uit is, zal er waarschijnlijk een echte demo komen.
Een beta is natuurlijk niet bedoeld als power virus burn-in test voor je pc.
Dat is het natuurlijk niet. Een game devolper mag er van uit gaan dat hardware fabrikanten hun zaakjes op orde hebben. Helemaal als dit soort ongein al eerder met de hardware is voorgekomen.
Een open beta 3 maanden voor release is er bijna nooit om daadwerkelijk te testen. Het is een demo zodat mensen gaan pre-purchasen.
Tuurlijk wel. Ze hebben al aangegeven dat ze dit o.a. zouden gebruiken om hun servers te testen. Dus waarom ook niet voor andere zaken.
Een demo is ook een test.
Test van gameplay, verhaallijn, eyecandy, en "goede fps?"
3 dagen inderdaad, terwijl er ook nog een miljoen andere zaken lopen. Hoe durven ze.

Koek koek
JTC zegt het al in zn video, het zou niet uit mogen maken wat de software doet, een pirouetje, split of spagaat als de hardware er mee in de knoop komt dan zou het voldoende hardwarematig beschermd moeten zijn.

Onbeperkte framerate in een cutscene is misschien dom, maar het is iets wat een beginnende coder zomaar ook zou kunnen doen.

Het gaat hier duidelijk om een edge case van bepaalde omstandigheden die de kaart om zeep helpen. Dan kan je zeggen de software doet iets raars, maar dat zou de hardware af moeten vangen of moeten beperken.
En wat te doen als je videokaart echt aan de duivel is doorgegeven? Verwacht namelijk niet dat ze die mensen compenseren...
Je beroepen op de garantie, dit mag natuurlijk nooit gebeuren. Als gebruiker kan je er niks aan doen, je bent niet aan het overclocken. En er zou toch een fail safe in de videokaart moeten zitten om dit te voorkomen. Ik denk dat je in Nederland wel in je recht staat als consument.
... Alleen bij bepaalde Gigabyte-varianten ...
Alle 3rd party fabrikanten (Asus, Gigabyte, MSI, etc.) leveren OC varianten, die net iets meer eruit persen dan nVidia reference kaarten.
Gamers die dergelijke kaarten aanschaffen hebben ook wel GPU Tweak, Afterburner, etc geinstalleerd.
En in NL wordt amper iets aan gedaan, alleen in Amerika worden Class Action Lawsuits opgestart.
Verwijderd @GoT26 maart 2023 14:59
Van dat soort rechtzaken worden vooral in de USA gevoerd omdat je als consument vrij weinig rechten hebt daar. In NL is de garantieregeling toch een stuk beter geregeld. Daarom gaf ik al aan dat je in NL waarschijnlijk gewoon je garantie kan claimen.
Dan moet je nog wel recht op garantie hebben.
Na 2 jaar wordt het een moeilijker verhaal (ja, ik weet dat garantie niet noodzakelijk na twee jaar verlopen is, maar je staat dan als consument een stuk zwakker).

Edit:

google zegt me dat de 3080 Ti in mei 2021 uitkwam, dus dan zou iedereen nog binnen de 2 jaar termijn zitten. Dus dat valt dan weer mee.

[Reactie gewijzigd door aap op 23 juli 2024 09:11]

Als je als fabrikant de kaart met een OC levert ben je alsnog verplicht garantie te leveren, garantie vervalt pas zodra je met de stroomleveringen e.d. gaat klooien.
Zouden ze wel moeten doen, maar veel succes als je een Gigabyte kaart hebt.
Die 3080ti kaart zit nog in de garantie.
Ja, maar of Gigabyte (gezien die kaarten de meeste problemen lijken te geven) die ook echt naleeft is de 2e vraag.
dat is dan het probleem van je leverancier..
Zouden ze wel moeten doen
Alleen als er sprake is van moedwillige nalatigheid mss.
In principe doet het spel niets anders dan de GPU maximaal belasten.

Als de GPU langere tijd maximaal belast wordt, dan kan dat problemen geven met puntbelasting en hot-spots die niet afdoende gekoeld worden. Met name waar de fabrikant van de videokaart op zaken beknibbeld heeft of gebruik heeft gemaakt van overclocks die bij langdurige piekbelasting de kaart zouden beschadigen, maar waar dat als acceptabel risico genomen wordt omdat het een onwaarschijnljike casus is. (Tja... totdat je natuurlijk een stuk software hebt wat al dan niet bewust, juist die casus triggert.)

Maar dat is dan het probleem van de fabrikant van de videokaart; of hier in Nederland de verkoper van de videokaart. En niet het probleem van de uitgever van de software; of hier in Nederland de verkoper van de software.

[Reactie gewijzigd door R4gnax op 23 juli 2024 09:11]

Ja, dus ze zouden garantie moeten geven :P

Ik bedoelde niet blizzard, maar de maker v/d kaart, maar gezien het voornamelijk Gigabyte kaarten schijnen te zijn die er de brui aan geven is 't nog maar de vraag of je ook werkelijk garantie krijgt.
In mijn persoonlijke ervaring is Gigabyte altijd coulant met RMA, ook al ben je niet de originele koper of heb je de factuur niet (meer).
(ik ga geen merken noemen die daar wat minder in zijn, want dan worden die en hun fanboys sjacherijnig)
Als er niet met de kaart gerommeld is verder(garantielabels verbroken, duidelijk opengeschroeft en/of gemod) zal het wel loslopen.
Ik verwacht dan toch eigenlijk wel een ziel terug. Of minstens een Big Favor. :+
Ik vind het werkelijk bizar hoeveel mensen hier de game devs voor blamen. Dit moet toch op driver niveau voorkomen worden?
Nee het moet op hardware niveau voorkomen worden. Eigenlijk ben je als designer al verkeerd bezig als je het op firmware voorkomt, laat staan driver niveau.
Ik heb de open beta gespeeld en het spel lijkt nog redelijk buggy.
Het laat mijn systeem vastlopen als ik probeer om de game te sluiten.
Dialogen en cutscenes die niet voor alle partyleden afspelen.
Sommige viewpoint kon ik niet activeren.
Stuttering
Een aantal keer tegen een onzichtbare muur gelopen als ik uit stad probeer te gaan.

Het spel heeft wel iets, maar ik kan me niet inbeelden dat het over 2 maand ineens veel vlotter zal zijn.
Het spel zal wel goed zijn tijdens release.
Devs hebben hierover gesproken.

Al hun games draaien altijd goed. Daar staan ze ook bekend om, dat het hun eerste prio gameplay is. Dit zal zeker geen uitzondering zijn.
Heb je Blizzard wel gevolgd in de afgelopen 10 jaar? :p
Altijd goed ? Hmmmmm, nochthans met Wow heb ik dikwijls problemen gehad hoor, zeker tijdens Vanilla, Naxx Thaddius deden wij gewoon op donderdag want woensdag was dat gewoon niet te doen. Diablo 3 had toch ook wel een paar akkefietjes bij launch. Elke Wow release is er altijd wel wat. Nuja ik ben zelf programmeur, en echt alles, maar dan ook alles testen, daar hebben zij wel teams voor. Maar je kan de inventiviteit van gebruikers niet voor mogelijk houden. En op elk mogelijke hardware configuratie testen met elke kaart van elke vendor is onbegonnen werk
Dit is dan wel een echte beta test. En geen uitgebreide kijk ons met deze demo 1 week voor launch... test.
Ze hebben nog 3 maand en als je kijkt naar Diablo 2, 3 en ook D2R wat ze verbeterd hebben met patches zie ik dit niet echt als een (groot) probleem.
Die onzichtbare muur had ik ook bij de East gate, wist hem wel te doorbreken door op een gegeven moment vanaf de andere kant de stad in te lopen, daarna verdween die. M'n wederhelft had nergens last van. Hoop dat dat met de go live opgelost is, is vaak genoeg gerapporteerd in ieder geval.

Zeker als een van je party members naast je zit is het inderdaad wel vrij irritant als cut scenes etc niet synchen. Zit je of met een echo dat je af en toe jezelf moet muten om dat voor te zijn.

Dit stutteringen waren waarschijnlijk gewoon de verwachte server overbelasting. Hopelijk is dat met release beter. Alhoewel ik gezien de ervaringen met de D3 release er niet al teveel van verwacht de eerste paar uur na de release.

Ik ben benieuwd naar hoe het gaat zijn met de release :)
In Nederland, als consument die een 3080Ti heeft gekocht bij een winkel die nog steeds bestaat, heb je nog een hoop mazzel, gewoon terug naar de winkel. Zo te zien begon de verkoop in juni 2021, dus nog binnen de 2 jaar consumenten garantie. Het wordt al een heel stuk lastiger als je het van iemand ander heb overgenomen '2e hands' (nog een reden om niet van scalpers te kopen). Direct hulp van Gigabyte (of Asus) lijkt lastiger te zijn...

Het issue blijft natuurlijk dat ongeacht wat een stukje legitieme software doet, het mag NIET je videokaart brikken! Dan is er iets mis met je hardware.
Het wordt al een heel stuk lastiger als je het van iemand ander heb overgenomen '2e hands' (nog een reden om niet van scalpers te kopen).
Zolang je het aankoopbewijs hebt (de bon dus), heb je gewoon recht op garantie. Garantie is namelijk gekoppeld aan het product, niet de klant. Al ben jij de tiende persoon die het product bezit, zolang het binnen de garantietermijn is (veelal 2 jaar), heb je gewoon recht op garantie.
Heb je daar een betrouwbare bron voor? De winkel is immers een koopovereenkomst aangegaan met persoon A, niet met persoon B...
Hier de website van de Autoriteit Consument en Markt: https://www.consuwijzer.n...kocht-maar-kapot/garantie

De wettelijke garantie wordt altijd overgedragen bij doorverkoop.
Aanvullende garantie is afhankelijk van de garantievoorwaarden.
Strikt genomen is er geen wettelijke grens van 2 jaar, al zal een winkel zich daar misschien achter verschuilen.

Bij ouderdom kan een verkoper wel stellen dat een kaart "slijt" en daarom maar een bepaalde levensduur heeft. Maar vanwege de aard van dit probleem is slijtage natuurlijk niet relevant. Een stukje software dat gelijktijdig op meerdere kaarten direct een probleem veroorzaakt impliceert dat die kaarten gewoon niet tegen die software kunnen, dat was niet anders geweest als je die kaart pas een dag in bezit had gehad.

Conclusie: dit is een productiefout en dat zou gewoon onder wettelijke garantie moeten vallen.

[Reactie gewijzigd door bwerg op 23 juli 2024 09:11]

Wettelijke garantie is in NL voor de verwachte levensduur, en dat is voor een videokaart langer dan twee jaar.
Toevallig net een wat oudere Gigabyte 3080 (non TI) overgenomen van iemand, en de Diablo IV beta duwde mijn vram naar 110 graden. Ik kan me goed voorstellen dat een Gigabyte 3080 TI onder dezelfde omstandigheden kapot gaat. Ik denk gewoon door een slordigheid in de code. Als je temperatuur al in het queue scherm hard oploopt weet je dat er iets niet goed zit. Framelimiter ingesteld op 120 fps in het nvidia control panel hielp, al blijft het een game die de videokaart zwaar belast.

De enige andere manier om de 3080 zo heet te krijgen is crypto te minen, bij andere games bleef de vram temperatuur maximaal tussen 90 en 100 graden. Imho zou een kaart het geheugen terug moeten throttlen voordat je in de buurt komt van 110, aangezien het bij 120 echt einde verhaal is.

Het is me wel duidelijk dat het geheugen niet goed gekoeld werd door pads die niet goed (meer) warmte geleiden. Gigabyte heeft hier gewoon troep gebruikt. Na het vervangen van de koelpads ging de temperatuur naar ongeveer 70 graden onder dezelfde omstandigheden.

[Reactie gewijzigd door Ahrnuld op 23 juli 2024 09:11]

Het is zo te zien wel vaker voorbij gekomen. Maar ik denk niet dat je het stuk laten gaan van een videokaart bij een software ontwikkelaar van een spel neer kan leggen. Die veranderen niks aan firmware van een videokaart of iets dergelijks. De hardware moet er rekening mee houden dat gebruikers onvoorspelbaar zijn. Dus de hardware/firmware moet daar rekening mee houden. Ik werk zelf in de ICT en heb ook wel eens met een paar simpele testjes (als gebruiker) van alles plat gelegd omdat ik dacht dat dat geen probleem zou mogen zijn en dat een organisatie of software component er wel rekening mee zouden houden dat gebruikers onvoorspelbaar zijn en dat ze hun spullen robuust genoeg zouden hebben neergezet omdat te voorkomen.
Deze kaarten hebben vele beveiligingen waaronder thermisch, spanning en vermogen "watts" een kaart mag technisch gezien niet defect raken.

De realiteit is dat als een kaart 100% belast is met een overclock deze voorbij de fabrieks specificaties gaan als dat vervolgens ook nog eens met een oude/slechte psu gebeurd en of daisy chained aansluiting etc.
Kunnen dit soort situaties ontstaan.
Waardoor spanningsregelaars/vermogensregelaars er mee stoppen.

Ik heb in de 20 jaar dat ik nu pc's bouw en onderhoud maar 3! Echte defecte onderdelen gehad "rma" binnen een week. Als ik een berekening doe is dat 3 op de 1000.

Misschien heb ik geluk? Of zeer kieskeurig kwa component keuze.
Maar ook een cursus esd gehad en alles altijd gebouwd op esd veilige werkplaats.

Ik ben zelf heel benieuwd wat hier uitkomt als oorzaak, want dit zou hetzelfde zijn als je mag geen prime95 laten draaien op max burn want dan gaat je cpu stuk.
Vreemd.
Volgens mij is het belangrijker dat de kaartbouwer deze zaak moet onderzoekt.
Klinkt als een slechte driver of hardware bug.
De game legt alleen het probleem bloot.
Nou niet alleen met de 3080 Ti hoor. Ik heb ook veel last gehad met een 5700XT waarin de crashes zo ernstig waren dat ik mn pc moest rebooten. De stabiliteit is er nog niet in mijn ervaring. Mn maatjes zijn ook een paar keer gecrashed met 2080 en een 4070 dus heb het idee dat spel zelf nog beter geoptimaliseerd moet worden.

Veel stutter, hier en daar lag en 4 a 5 crashes in zo'n 6 uur speeltijd gisteren. Na de beta gespeeld te hebben ben ik nog niet overtuigd. Ik ga de game niet meteen met release kopen.
Vooral Blizzard laten weten wanneer en hoevaak je crashde en de hele situatie.
Er is een reden dat deze betatest 3 maand voor launch is.
Er zijn crash reports gestuurd!
Wel een veel minder ernstig probleem dan dat in dit artikel aan word gehaald ;) maar he, wat verwacht je van een beta in jouw geval?
Dat het geen effect heeft op de rest van mijn systeem, op z'n minst. En jij?
Game sluit niet af bij mij met een 2060 super. Moet echt taskmanager gebruiken. Nuja sinds een week werkt wow en diablo 3 ook niet meer onder lutris op linux, dus zal wel met battle.net te maken hebben
Veel stutter, hier en daar lag en 4 a 5 crashes in zo'n 6 uur speeltijd gisteren. Na de beta gespeeld te hebben ben ik nog niet overtuigd. Ik ga de game niet meteen met release kopen.
Heb op mn 1070 ook aardig wat lag stoten gehad. Ik heb mijn GPU fans wel een harder horen draaien en het was geen netwerk lag dus ik vermoed iets memory gerelateerd. Misschien de (default) grafische kwaliteit (textures) wat terugdraaien.

Op dit item kan niet meer gereageerd worden.