EVGA: RTX 3090-kaarten gingen bij spelen Amazon-game kapot door soldeerfout

De EVGA GeForce RTX 3090-videokaarten die doorbrandden bij het spelen van Amazons mmo New World, gingen stuk door een soldeerfout bij de mosfets van de grafische kaart. Dat zegt EVGA na onderzoek. Het zou om een klein deel van alle RTX 3090-kaarten van EVGA gaan.

Tegen PCWorld zegt EVGA defecte grafische kaarten te hebben geanalyseerd met röntgenfoto's, waarop te zien zou zijn dat de mosfets gebrekkig zijn gesoldeerd. Dit zou ervoor hebben gezorgd dat de kaarten konden doorbranden en niet meer werkten. Het bedrijf zegt dat het om een zeldzaam probleem zou gaan dat 'veel minder dan één procent' van alle geproduceerde kaarten zou omvatten. EVGA zei eerder dat het om dertig kaarten zou gaan.

De fout kwam aan het licht bij het spelen van de bètaversie van de game New World. In bepaalde situaties, zoals tijdens het inloggen, in de queue en in het hoofdmenu, was er geen framelimiter waardoor de gpu maximaal werd belast. Nadat Amazon een framelimiter instelde, is het probleem niet meer voorgekomen.

EVGA gaat ook in op de theorie dat de fancontroller van de gpu een rol zou spelen, afkomstig van het Duitse Igor's Lab. Tools als HWInfo en GPU-Z zouden laten zien dat de fancontroller niet genoeg zou reageren op de wisselende loads van New World, waardoor de kaart niet koel genoeg zou blijven. Dit lag volgens EVGA echter aan ruis op de i2c-bus. Dergelijke tools kunnen die ruis foutief interpreteren als een disfunctionerende fancontroller. Inmiddels heeft EVGA een microcontrollerupdate uitgebracht die dit probleem zou moeten verhelpen.

Een close-up van het pcb van een defecte RTX 3090. Bron: GremaxLP / ElmorLabs Discord
Een close-up van het pcb van een defecte RTX 3090. Bron: GremaxLP / ElmorLabs Discord

Door Hayte Hugo

Redacteur

02-09-2021 • 12:37

117

Reacties (117)

Sorteer op:

Weergave:

Dit vind ik bijzonder netjes van EVGA, menig producent zou helemaal niets zeggen of een 'It wasn't me!' statement de deur uitschieten. Niets van te voren geclaimed, alleen gezegd "We gaan het eerst onderzoeken.", dat hebben ze gedaan en nu publiceren ze netjes de resultaten, EVGA heeft een fout gemaakt bij productie.

Sidenote: Ik gebruik zelf geen EVGA, maar ik kan dit soort acties respecteren, zeker met de details die ze vrijgeven. Ik zou willen dat dit de industrie standaard was!
Daar ben ik het ten delen mee eens, maar ik vind het ook wel frappant dat EVGA zo veel schuld op zich neemt, terwijl er toch ook wel degelijk een programmeerfout bij Amazon aan ten grondslag lag om het doem-scenario te laten plaatsvinden voor de 3090 kaarten (en anderen). Natuurlijk is het een hardware-kwestie die dus ook niet 100% snor zat, maar het feit blijft dat alleen de New World game zo veel problemen gaf.
EVGA komt hier heel onderdanig t.o.v. Amazon uit de verf... zal wel een centenkwestie zijn :z

[Reactie gewijzigd door zzzzz op 22 juli 2024 19:01]

Daar ben ik het niet mee eens, (non-admin, user-land) software op de PC zou alles mogen doen naar de beschikbaar gestelde mogelijkheden, en het mag niet de hardware beschadigen.

Ik zou daar een andere mening over hebben als het ging om een foutieve driver, GPU BIOS/firmware, of iets in de OS kernel of in UEFI.

Amazon valt hier niets te verwijten, ze hebben de GPU niet gemaakt, ook niet de drivers, firmware, OS/kernel of UEFI in dit geval. Alleen non-admin user-land software die gebruik maakt van de beschikbaar gestelde mogelijkheden.

[Reactie gewijzigd door grasmanek94 op 22 juli 2024 19:01]

.oisyn Moderator Devschuur® @grasmanek942 september 2021 12:50
^^ Dat dus, brakke user software zou nooit een valide reden moeten zijn dat hardware stuk gaat. Zou wat zijn, bezoek je een onschuldig ogende website, fikken ze ondertussen je videokaart door met wat WebGL dat op de achtergrond draait.
Zo is het wel mogelijk om met software een huis te doen afbranden.
Stel dat een kwaadwillige programmeur dit exploit, kan die brand veroorzaken door moedwillig stoute software binnen te sluizen via een website.

Zou me niet verbazen dat sommigen hier 'mogelijkheden' in zien.
Flashgames vroeger en sommige slecht geprogrammeerde html5 games tegenwoordig, gooien de processorload vaak naar 100. Wat dat betreft kan je er wel vanuit gaan dat de meeste computers die stresstest al gehad hebben. Alleen de GPU misschien niet.
Websites die achter een pi-hole bezocht worden doen het bij mij soms ook. Continue load in idle die van onder de 10% naar boven de 30% schiet die van je pc of mobiel een kacheltje maakt.
Nee, dat kan niet: in een eerder artikel is al benoemd dat de voeding van de PC op beveiliging slaat als dit voor komt (ivm kortsluiting). Kortweg kan dit dus alleen als je een brakke voeding hebt, maar dan heb je sowieso al een fire hazard in huis
Dan zouden ontwikkelaars ook door een bug hun hardware door kunnen branden... Lijkt me niet wenselijk.
Dat kan. Denk aan power management features van moderne hardware. Vaak worden die in de BIOS geregeld, want je wilt niet ruwe register sets van de VRMs exposen naar het operating system (user of kernel space). Potentieel 1 fout ingevuld getal in de VRM controller is einde GPU/CPU..

En daarom is embedded software nog iets anders dan "normale" software ;) Embedded firmware mag niet vast lopen, moet het voorspelbaar en betrouwbaar reageren, eventueel veiligheidkaders monitoren enz. En anders terugvallen naar een veilige fallback modus. In theorie zou een kernel "power virus" flink wat schade aan kunnen richten (mits het onbegrensd VRM instellingen kan wijzigen).

[Reactie gewijzigd door Hans1990 op 22 juli 2024 19:01]

Ik ben het niet helemaal met je eens. Het is inderdaad zo dat het niet de bedoeling is dat brakke software schade aan hardware kan verrichten, echter was het bij Amazone het probleem rondom de game en software gerelateerde zaken wel bekend en werd er toen niet of heel erg weinig aan gedaan. Dus ik vind dat Amazon wel zeker een aandeel heeft in het veroorzaken van defecte hardware.
Ja maar zo werkt het niet. Het is fijn dat hardware fabrikanten willen denken, maar het vrijwaard andere niet om dan maar zorgeloos crappy software te gaan schrijven. Als software schrijver heb je altijd de verantwoording om goede software te schrijven. Amazon is hier wel degelijk gedeeltelijk schuldig, het is gewoon not done in de game industrie om zo veel frames te laten genereren in een wacht scherm. Je maakt een custom load of je limiteert de renderer.. dat is juist common practice tegen dit soort problemen, energie verspilling. En wie vind het nu een goed idee om nutteloos je hardware zo zwaar te belasten zodat het tegen of over grenzen heen gaat en dus slijt of stuk gaat. Niemand kan dat ook in user-software een goed stuk software vinden.
Dit inderdaad. Niets schrijft voor dat een framelimiter 'zou moeten'. Het is een common practice omdat het in de praktijk niet zo nuttig is een paar honderd frames per second te renderen. En dan scheelt een framelimiter in energieverbruik, geluid van je fans, etc.

En er zijn ook situaties waarin je juist dat gaspedaal maximaal wil intrappen.

Het niet hebben van een framelimiter is dus geen programmeerfout, het is hoogstens niet zo netjes.
Alleen was EVGA niet de enige. Een hele boel kaarten. Hebben problemen gehad met New world beta. Ik vind het wel heel karig om te zeggen dat Amazon niets te verwijten valt.
Want de hele beta was een grote hoop ellende.

[Reactie gewijzigd door loki504 op 22 juli 2024 19:01]

Maar dan zou FurMark die kaarten ook moeten slopen, moeten ze dan stoppen met verspreiden, of wat zou hier de oplossing zijn?
En Unigine Heaven benchmark moet ook maar een cap instellen? Ofwel benchmarking software nutteloos maken, want dan is het geen echte benchmark.
Zou Cinebench developer zich slecht moeten voelen als er CPU's doorbranden? Wat zouden die als oplossing moeten aanbieden?

Moeten Amazon, Geeks3D, Unigine en Maxon allemaal de taken overnemen van EVGA, nVidia, AMD, Intel en allemaal hardware monitoring en throttling toepassen?

Moeten zij, allemaal / ieder apart, voor elke GPU variant de acceptabele framerate gaan bepalen? (inclusief alle andere honderden game studios)

Vind er iemand nou echt dat een GPU driver, GPU firmware en PCB/Hardware design helemaal vrijgesteld zijn van een beveiliging hebben? Dat de verantwoordelijkheid bij de eindgebruikers ligt voor niet afbranden van de kaart / zijn/haar huis?
Een render overnacht aanzetten zou dan een grote loterij zijn, om maar een voorbeeld te noemen.

Ik zie niet hoe dit te verantwoorden zou zijn, misschien puur uit winstmaximalisering / meer geld, want dan moet iedere developer die overal maximale performance wil aanbieden, elke mogelijk klaart kopen die ooit wordt uitgebracht, en dan limieten inprogrammeren per kaart.
Verder wens ik een "algemeen algoritme" nog eens veel success, verschillende GPU's hebben andere sensoren voor temperatuur, en op sommige onderdelen zitten geen sensoren.

[Reactie gewijzigd door grasmanek94 op 22 juli 2024 19:01]

Ik heb ook wel een kaart gehad die het loodje heeft gelegd bij FurMark. En daarom krijg je ook een waarschuwing. Want FurMark geeft een onrealistische load op je GPU. Iets wat een spelletje niet hoort te doen.
(..) Iets wat een spelletje niet hoort te doen.
Dat zie je verkeerd. Een spelletje hoort je GPU maximaal te belasten. Dat dat in de praktijk meestal niet lukt is een tweede. In een benchmark is dit makkelijker te realiseren omdat dat het enige doel van de benchmark is.
Ik ben niet bang van furmark. Nog nooit iets mee kapot gemaakt. Alles word gemonitord van temps in je systeem en throttled waar nodig. Zo niet > Hardware fout imo.
" Maar dan zou FurMark die kaarten ook moeten slopen"

Doet het ook! Jaren terug een R9 270 gesloopt ermee :+

Ging prima tot er artifacts verschenen.. PC opnieuw opgestart en.. overal roze/blauwe/paarse blokken op het beeld |:(
Dat is dan gewoon een slecht geproduceerde kaart die je gewoon onder garantie kan laten vervangen.

Ze zeggen bij een raceauto toch ook niet dat je nooit 100% gas mag geven?
Schijnt dat je bepaalde McLarens niet op de racebaan kan rijden zonder dat je garantie vervalt ;)
Moet je gewoon een porsche 911 gt3 kopen ipv engelse rommel ;)
Alleen was EVGA niet de enige.
'De discussie is ook al bij een eerder artikel over dit fenomeen gedaan, maar afaik hadden andere kaarten mildere problemen, en vlogen niet spontaan in brand, dat gebeurde enkel bij een aantal EVGA kaarten.... en EVGA bevestigt dit nu.
Corrigeer me als ik het mis heb; maar weet dat mijn oude nvidia kaart “niet kon doorbranden”, date I say it het systeem niet; bij te hoge temperaturen schakelde de hardware zichzelf uit.

In mijn beleving zou dit dan ook niet mogen gebeuren.

Dat gezegd hebben; ben natuurlijk geen hardware bouwer :+ en als die drivers zie; 300mb - wordt er veel door software bepaald
Alleen is temperatuur monitoring te lokaal om doorbranden van individuele componenten of koperbanen op je kaart te voorkomen. De gpu en geheugen chips zullen een temperatuur sensor hebben, de rest waarschijnlijk niet.

Ik ben het verder eens met wat anderen ook zeggen: userland stuff zou niet deze gevolgen mogen hebben. In het extreemste geval uitschakelen om defect te voorkomen.
Er zijn genoeg kaarten die het loodje hebben gelegd bij FurMark en SC2.

En ja er zit een beveiliging op. Maar ook de beveiliging kan kapot gaan. En software wat eigenlijk standaard tegen een beveiliging aan schopt moet je ook niet willen. En ja het is netjes dat EVGA het oplost. En had ook niet anders verwacht. Maar om Amazon vrijuit te laten gaan vind ik ook te ver. Want ze hebben onbewust(ga ik even vanuit) een stuk software uitgebracht wat op een niet normale manier met je GPU omging.

[Reactie gewijzigd door loki504 op 22 juli 2024 19:01]

Sorry hoor, de software deed binnen de regels van wat kan en mag iets meer en je hardware gaat kapot. Nog even en we gaan mensen die een TV bricken omdat ze op de afstandsbediening voorbij kanaal 999 zappen vertellen dat tv's daar niet voor gemaakt zijn. Hardware mag nooit fysiek kapot gaan door software. Als dat wel lukt is de hardware gebrekkig. Voor je het weet zit je met een nieuwe ransomware aanval die dreigt je bedrijf in de fik te steken als je niet betaald als je hier ook maar een heel klein beetje ruimte laat om schuld bij de software te leggen.
De hardware was niet normaal, namelijk soldeerfout. Heeft niets verder met de software te maken. Deze kaart zou tijdens elke stress test doorbranden.
Als groot fan van het spel heb ik zo'n 200 uur gespeeld in de beta (2 weken). En honderden uren video's gekeken. Ik heb geen enkele crash gehad, en minimaal aantal bugs. Ook bij alle andere mensen die dit spel speelden. Om de beta een grote hoop ellende te nemen slaat mijnziens kant nog wal
GPU firmware en drivers zijn gesigned bij Nvidia, wat mij betreft zijn ze dus ook verantwoordelijk bij gebruik hiervan en niet user-land software. Ik kan me niet voorstellen dat het beperken van settings via hardware dan wel voorwaarden (OC op eigen risico), volgens mij werkt dat prima in de rest van de wereld (CPU etc).
Maar wat is nu precies wat dit veroorzaakt heeft dat alleen in New World gebeurde?
Ik zie telkens "de framelimiter was niet aanwezig in het menu" maar daar is New World absoluut niet de enige in, er zijn talloze games waarbij de GPU gewoon maximaal gas geeft in het menu en vaak moet je zelf de limiter instellen of vSync inschakelen als er helemaal geen lmiter is.
Weinig programmeerfout aan om geen frame limiter te hebben!

Dus waarom alleen New World en geen andere games die hiervoor gezorgd hebben?

[Reactie gewijzigd door drocona op 22 juli 2024 19:01]

Dit is niet de eerste keer dat ik hoor dat een menu in een spel een GPU kapot maakt. Hier is nog een voorbeeld: nieuws: Bug in menu StarCraft II laat sommige grafische kaarten doorbranden

De reden dat de GPU warmer wordt in een menu dan in de game zelf komt meestal omdat je tijdens het spel je GPU niet 100% belast wordt omdat deze altijd ergens op moet wachten. Het werk dat de GPU moet doen om een frame te renderen bestaat uit veel onderdelen en sommige kan je pas doen als andere klaar zijn. In een menu is het anders, een menu is meestal veel simpeler, vooral als de ontwikkelaar wat tijd in heeft gestopt om de geometry en textures te optimaliseren. Ik heb even wat videos op youtube opgezocht van de menu in New World en deze heeft een 3D achtergrond met een camerastandpunt die niet verandert, dit is heel goed te optimaliseren. Als je dan geen frame limiter hebt kan je al snel 100% GPU gebruik behalen.

Het is dus niet zozeer een bug in het spel maar een goede optimalisatie wat vervolgens een fout in de GPU van EVGA heeft blootgesteld (zoals anderen al zeiden hardware moet nooit begeven, als het te warm wordt zou het bijvoorbeeld de kloksnelheid oid terug moeten draaien.). Dat gezegd te hebben vind ik wel dat het al langer bekend is dat de GPU-gebruik is menu's hoog kan zijn en dat een framelimiter is deze gevallen standard aanwezig moet zijn. Dit is niet om videokaarten te sparen maar heeft meer te maken met dat je dan meer geluid krijgt van de koeling en een hogere energierekening en beide zijn niet wenselijk.

[Reactie gewijzigd door PjotrX op 22 juli 2024 19:01]

Bedoel je ook niet hardware matige beveiligingen? Bij voedingen is het zo dat de overcurrent protection is ingebouwd, is het ook niet zo in gpu's? Of tenminste iets wat daar op lijkt.
GPU's hebben thermal throttling, zie hier: https://www.techspot.com/...at-is-thermal-throttling/
Maar die is er voor dat de GPU niet beschadigd.
Een frame limiter zit aan de softwarekant in de game en kan ervoor zorgen dat je GPU niet zwaar wordt belast als dat niet nodig is.
Dat snap ik, bedankt voor de heldere uiteenzetting waarom dit in New World gebeurt en in het verleden met andere games ook wel eens is voorgekomen. Dat het de kaart is die fout is, is bij mij ook duidelijk.

Echter is dit nog geen antwoord op mijn vraag, er zijn legio aan games zonder deze limiet, waarom gaat de GPU wel kapot op New World en niet op bijvoorbeeld Rocket League, PUBG, Counter-Strike, Rust, Apex Legends, Squad, Escape from Tarkov etc? Die hebben allemaal geen FPS limit in de menu's tenzij je deze zelf configureert. Dit zijn er gewoon een paar die ik zelf gespeeld heb.
Als ik zo even terug denk zijn bijna alle games die ik heb gespeeld ongelimiteerd in het menu en is het verre van standaard om een limiter te hebben.

Ben het er mee eens dat het erg hinderlijk is dat die FPS max gaat in een menu, het is zeker niet wenselijk en is altijd de eerste setting die ik op probeer te zoeken als ik een nieuwe game opstart.

[Reactie gewijzigd door drocona op 22 juli 2024 19:01]

Apex Legends heeft een automatische frame-cap op 144fps, ook het menu. Mogelijk was dit vroeger ook niet zo.

Ontopic, er zijn meerdere types cores in een GPU en parameters die fps beïnvloeden. Zonder frame-cap één bepaald type core zeer zwaar belasten op 20k fps kan een forse belasting zijn; te fors bij solderfouten (en te lokaal om een thermische sensor te laten ingrijpen).

Die andere games hebben mogelijk een andere belasting gehad waardoor en 'maar' 5k fps werd gehaald of meerdere cores gebruikt werden die de thermische beveiliging activeerde.

Deze New World game was ook een bèta, dus dat hij hier nog niet geoptimaliseerd was is begrijpelijk. Netjes? Nee, maar dit moet technisch ondervangen worden door de hardware.
Het is in een menu of laadscherm zinloos om zoveel frames per seconden te renderen. Dus limiteer je het rond vsync als het een complexe 3D scène betreft. Is het simpele texture dan 1 frame per seconden, common-practice.

Het is sowieso zinloos voor een GPU Om ver boven v-sync uit te lopen. En ga me niet vertellen dat het kwa ms voor competitive-games uitmaakt, want ik geloof niet dat je het verschil merkt als het boven 144hz uitkomt. Ik denk eerder dat je frame-difference (frame drops) gaat merken dus of iets 95% van de tijd stabiele frames levert.

[Reactie gewijzigd door Zezura op 22 juli 2024 19:01]

Offtopic: Ik heb momenteel nog een 75 hx scherm maar het verschil naar 120 - 144 en 200 en zelfs 200+ merk ik zelfs dus laat staan met een monitor met hogere refresh rate. Dit is ook al bevestigd foor slow motion camera's en pro gamers. Het verschilt echter wel per game wat wel met de engine te maken zal hebben.
Niet perse niet 100% belast maar anders belast.

In het menu kan je 10k fps halen met maar 100 watt verbruik maar op andere delen van de kaart terwijl je in game gewoon 250 watt watt kan trekken maar met maar 150 fps. Lage belasting in-game belasting is due niet echt juist

gister in A plague tale had ik zo spike en ondanks dat met maar 55 watt was had ik enorme coil whine die voor gewoon gamen door een nieuwe voeding bijna verholpen was. De belasting is dus intern op de kaart heel anders tijdens deze hoge fps momenten.
De reden dat de GPU warmer wordt in een menu dan in de game zelf komt meestal omdat je tijdens het spel je GPU niet 100% belast wordt omdat deze altijd ergens op moet wachten. Het werk dat de GPU moet doen om een frame te renderen bestaat uit veel onderdelen en sommige kan je pas doen als andere klaar zijn. In een menu is het anders, een menu is meestal veel simpeler, vooral als de ontwikkelaar wat tijd in heeft gestopt om de geometry en textures te optimaliseren. Ik heb even wat videos op youtube opgezocht van de menu in New World en deze heeft een 3D achtergrond met een camerastandpunt die niet verandert, dit is heel goed te optimaliseren. Als je dan geen frame limiter hebt kan je al snel 100% GPU gebruik behalen.
Mwa het is eigenlijk heel normaal dat je gpu tijdens een game, zonder vsync/limiter, maximaal wordt belast. Je ziet dan 98% staan bij de gpu usage. In geval van New World is het vreemde dat de power limit richting de 117% stijgt terwijl hij dat niveau eigenlijk niet kan behalen. Zo is bij de EVGA kaart 107% de maximum instelbare waarde. Zie https://youtu.be/rpvsaedeeqg?t=395
Dat vraag ik mij ook af. Want ik heb ook gezien dat New works gewoon schijt heeft aan de Max power draw. En makkelijk 140% pakt terwijl er bv 110 is toegestaan. Of hou fans die denken dat ze op 22k rpm draaien.

EVGA heeft inderdaad te kampen met doorgebrande kaarten. Maar zoveel meer kaarten(ook AMD rx 4xx/5xx) hebben hier last van gehad. Dat je het onmogelijk op alleen EVGA kan gooien.
Want ik heb ook gezien dat New works gewoon schijt heeft aan de Max power draw.
Lijkt me logisch, het regelen van de powerdraw is een taak voor de driver/firmware, niet voor de game.
En waarom gaat het bij alleen New world dan mis en niet bij 99% van de games?
Omdat zij zich niet hebben bedacht dat zoiets problemen kan veroorzaken. Andere games cappen de framerate in menu’s dat is eigenlijk standaard gedachten.
Menu’s zijn veel simpeler. Soms zo simpel dat er bijna geen CPU werk bij komt kijken, en dus de GPU, eigenlijk zo hard mogelijk zijn gang kan gaan als dat de GPU wil. Normaal in een game moet de CPU en GPU soms op elkaar wachten. Bij slechte optimalisatie gebeurt dat veel, bij goede optimalisatie weinig. Maar een menu is vaak niet complex, dus hoeft de GPU niet zoveel of te lang te wachten tot de CPU klaar is. En dan krijg je dit probleem als de CPU niet commando’s geeft om niks te doen.. of te wachten. Ook kan het zijn dat de cpu, ook niet gecapt is en dan krijg je dat 1 van de 2 vol uit gaat.. dan kan het zijn dat de CPU vol gaat. Maar meestal wacht de GPU op de CPU als je een beetje moderne GPU hebt. In goede optimalisatie wacht de GPU niet veel op de CPU of andersom.
Het is veel moeilijker om een game te schrijven die GPU Bound is dan CPU bound.

Goede Multithreading op CPU vond ik moeilijker dan de GPU. Heel het systeem rond DirectX en hardware is erop bedacht vanuit oorsprong dat berekeningen tegenlijk worden gedaan.

[Reactie gewijzigd door Zezura op 22 juli 2024 19:01]

Andere games cappen de framerate in menu’s dat is eigenlijk standaard gedachten.
Dat is precies het tegenovergestelde wat ik aangeef in mijn reactie waarop @loki504 weer reageert. Dat is dus niet zo, er zijn een heleboel games die de FPS geen limiet geven in het menu. Zodoende ook mijn reactie waarom het bij New World wel een GPU kapot maakt terwijl op basis van "geen frame limiter" die GPU's allemaal al lang kapot hadden moeten gaan door andere games die diezelfde limiter niet hebben.

Blijkbaar is er dus een ander verschil wat New World doet t.o.v. andere games.
Het is wel common practice (en sense) maar wat er bij Amazon fout ging was dat mensen uren lang in de wachtrij stonden om in te loggen.

EN er zat GEEN cap op.

[Reactie gewijzigd door Zezura op 22 juli 2024 19:01]

Ik weet niet precies wat je wilt, al die andere kaarten zijn vooral anekdotisch geschreeuw geweest. Sure, er zullen vast enkele andere kaarten geweest zijn die fouten hadden waardoor er ook iets abnormaals kon gebeuren (crash of zelfs hardwarefalen) maar nergens zo structureel als bij EVGA gebeurd is. Alleen werd dat wel door bijv. Jayz2cents (behoorlijk pro-EVGA en daarmee soort van automatisch pro-Nvidia) direct geroepen zodat het maar niet aan de kaarten zelf zou liggen maar aan die game, of dat het bij andere fabrikanten net zo slecht is dus. Ik ben benieuwd of hij nog een video wijdt aan dit bericht, maar ik gok van niet. EVGA zegt ook gewoon zelf wat ze fout hebben gedaan dus dat kan je prima op EVGA gooien.

Een game kan geen "schijt hebben aan max power draw", dat is 100% aan de hardware/firmware om te voorkomen dat dat kan. De driver kan hoogstens wat targets vertellen als de gebruiker graag wil overklokken, maar de game heeft hier op geen enkel moment enige zeggenschap in. Elke game pakt gewoon volle kracht wat 'ie kan. Op sommige momenten (zoals een menu) kan de game ervoor kiezen om dat niet op volle kracht te renderen omdat dat meestal niet nodig is, maar dat kan ook gewoon prima en de hardware moet dat aankunnen. En nu heeft het toevallig als gevolg dat het een productieprobleem heeft blootgelegd wat anders op langere termijn alsnog voor kapotte kaarten gezorgd had, maar dit probleem waarschijnlijk niet als zodanig aan het licht gebracht zou hebben. Dat is met deze game puur toevallig gebeurd door de specifieke belasting die dat opleverde. Die specifieke belasting mag nooit voor hardwarefalen zorgen. Als ze straks een herziene productierun van die kaarten hebben gedraaid zou je daar die precieze ongepatchte versie van New World op moeten kunnen draaien, dagenlang, zonder dat de kaart kapot gaat. Deze zal alleen een beetje warm worden en onnodig redelijk wat stroom gebruiken, maar zal niet kapot mogen gaan. Heel gek veel anders dan 24/7 bitcoin minen is het ook weer niet, en dat gaat ook prima.
geen proof ken de game niet,

maar in unreal kun je een simple menu maken , of een complete game wereld er achter laden,

bij optie1 bijna geen load op je GPU,
Bij optie 2 wel,

Sommige games kiezen er voor het menu voor de game wereld te steken ()quickstart zonder wereld te moeten laden na start) of een mooie intro door de wereld met menu open , hierdoor belast je de GPU wel,
.oisyn Moderator Devschuur® @Scriptkid2 september 2021 17:13
Ja en? De GPU wordt toch net zo goed belast als je aan het spelen bent? Het menu zelf voegt grafisch typisch amper wat toe, en als het dat wel doet dan zou dat alsnog niet uit moeten maken.

.edit: oh wacht volgens mij is de stelling dat de framelimiter in het menu uitstaat, waardoor de boel éxtra wordt belast. Tja, nog geen reden dat de boel dan maar doorfikt ;)

[Reactie gewijzigd door .oisyn op 22 juli 2024 19:01]

Zelfs met programmeerfout zou een softwarefout de hardware niet blijvend mogen beschadigen. De kaart moet zichzelf daartegen beschermen. Ik vind het wel logisch, overigens wel heel goed van EVGA dat ze dit toegeven en duidelijk uitleggen.
Nvidia en ATI kwamen overigens pas op dat idee toen er dankzij Furmark heel veel chips doorbrandden. Daarvoor waren ze niet thermisch beveiligd.
Niet alleen heel netjes dat ze dit op een heldere manier uitleggen maar ook totaal in hun voordeel. Je neemt hiermee een heleboel speculatie en twijfel weg waardoor klanten je minder snel structureel gaan mijden. Productiefoutje kan nou eenmaal gebeuren kop in het zand en verstoppertje spelen valt doorgaans niet zo goed.
maar het feit blijft dat alleen de New World game zo veel problemen gaf.
Feit is ook dat Starcraft II exact hetzelfde probleem had, geen FPS limit in het hoofdmenu met als gevolg dat sommige brakke kaarten het opgaven.

Je zou dus ook kunnen stellen dat het bijzonder knullig is dat EVGA niet afdoende getest heeft op een probleem wat al minimaal 11 jaar bij fabrikanten bekend hoort te zijn. Nu is het een hoofdmenu, maar wat als ik een ouder spel start dat een nagenoeg onbeperkt aantal frames tevoorschijn kan toveren? Uiteindelijk hoort de hardware zichzelf te beschermen en niet kapot te gaan wanneer het doet waarvoor het gemaakt is: namelijk in X tijd zoveel mogelijk frames genereren.

[Reactie gewijzigd door Aganim op 22 juli 2024 19:01]

Maar het is niet alleen de onlimited FPS in een. Menu. Maar ook 22k RPM fans of een power draw die richting de 150% ging terwijl hij max 110% mocht. Dus er is meer als alleen een unlocked fps.
Maar ook 22k RPM fans of een power draw die richting de 150% ging terwijl hij max 110% mocht.
Ik heb het hierboven ook al gezegt, dat is een taak van de driver/firmware, niet van de game.
Zoals ook @Zer0 aangeeft: dat is een probleem voor de driver of firmware c.q. hardware. Het spel vraagt de GPU zoveel mogelijk frames te renderen, dat verzoek is in de basis niets mis mee.

Een spel heeft geen weet van de maximum power draw, max fan FPS of maximum core temperatuur. Die eigenschappen weet de fabrikant van de hardware, dus die zal moeten zorgen dat de GPU zich netjes blijft gedragen ipv zichzelf op te blazen.

Neemt niet weg dat een FPS limiet wel handig is vanuit het kader van energiebesparing, het is niet zinvol om een menu op een idioot hoog aantal FPS te renderen. Dat is gewoon pure energieverspilling. Maar dat een kaart zich opblaast is en blijft een zaak van de fabrikant, niet van de userland applicatie die gewoon domweg opdrachten naar die kaart stuurt. Of gaan we straks ook klagen als een GPU in brand vliegt tijdens het draaien van een benchmark? "Jaaa, TimeSpy @ 8K was veel te zwaar!" :+
Genoeg kaarten die met FurMark in aanmerking kwamen hebben dat moeten afkopen met de dood dus het kan zeker.(al zijn er nu beveiligingen die dat tegen haar. En niet alleen tijdens het menu deed de game raar. Ook tijdens het gamen doet het dingen die de meeste games niet doen.

En nogmaals dat ze doorbranden is een fout van EVGA dat ontken ik ook nergens. Maar om Amazon niets te vewijten vind ik ook wat ver gaan.
Dat is het ding een beetje, die kaarten waren dus allemaal al brak. Een andere benchmark of een andere game had ze over de kling kunnen jagen. Zie het als een verhuisdoos waarop staat dat er 50kg in kan. Als jij dan een benchmark van 50kg "draait" op een kapotte verhuisdoos (in de regen gestaan, gescheurd, etc) is er een kans dat de doos helemaal kapot gaat. Dat ligt dan niet aan de benchmark maar aan de doos, en met 10kg was die waarschijnlijk ook kapot gegaan. Jouw argument is dan een beetje dat je er eigenlijk maar maximaal 5kg in moet stoppen omdat weinig mensen fatsoenlijk een doos van 50kg kunnen tillen.
Uiteindelijk hoort de hardware zichzelf te beschermen en niet kapot te gaan
Dat lijkt 'by design' dus ook gewoon het geval te zijn, dit betreft een productiefout.

Dan kan je het nog over de boeg gooien van 'waarom is het er niet bij productietest uit gekomen ?'. Dat komt omdat je in dat stadium niet oneindig tijd hebt om alle (onwaarschijnlijke) scenarios af te testen, dat probeer je zoveel mogelijk in design/proto fase al af te vangen. Er zou anders nooit ook maar een enkel product van de band af rollen.
Ik heb er alle begrip voor dat er weleens een maandagmorgenmodel tussen kan zitten. Ik was inderdaad iets te stellig, op de een of andere manier had ik het idee dat het 1 procent van de kaarten betrof, terwijl het gaat om 'veel minder dan 1 procent'. Mea culpa. :)
Programmeerfout niet echt. Ook met maximale load zou gewoon een product gewoon moeten werken, en zeker niet catastrofaal kapot gaan. Framerate unlocken is gewoon een grafische optie in veel games.
Software zou een kaart niet moeten kunnen slopen, dit is gewoon een hardware fout. De GPU zou zichzelf moeten beschermen van overbelasting en oververhitting, zoals normaal. Een programmeer fout zou niet je hardware moeten kunnen slopen.

Als ik een programma op de computers van de uni schrijf welke voor een overflow zorgt en de CPU blaast zichzelf op is dat toch ook op geen enkele manier mijn schuld? Zou gewoon niet moeten gebeuren.

[Reactie gewijzigd door Horatius op 22 juli 2024 19:01]

Wie weet. Misschien niet, misschien wel of zelfs deels. Want vroeg of laat zal die kaart toch wel stuk gaan en dan niet door programmeerfout van Amazon omdat het een soldeerfout betreft.
De fout in het spel New World was wel erg slordig en zou niet moeten voorkomen, maar de hardware zou er toch mee om moeten gaan. Er zijn veel meer videokaarten en de meeste brandden niet door in dit scenario. Ook is hetzelfde issue vaker voorgekomen, dus enorm hoge framerates in een statisch beeld waardoor GPU's heel hard gaan rennen, o.a. bij Starcraft 2, en ook toen gingen alleen kaarten stuk die al een defect of zwakte hadden (of pc's met slechte koeling bijv).

Vroeg of laat kan eender welke ontwikkelaar altijd iets programmeren dat de hardware enorm onder druk zet. Als dat onnodig is zoals in dit geval dan is dat verspilling van energie en rekenkracht, maar videokaarten en andere hardware moeten dan gewoon meer koelen, terugschakelen, of in het ergste geval zichzelf uitschakelen / opnieuw starten. En dat gebeurt ook in alle normale gevallen, als er geen soldeerfouten worden gemaakt en het product goed is. Daarmee ligt de verantwoordelijkheid dus uiteindelijk vooral bij de hardwaremaker. Dus goed dat EVGA hier eerlijk is, onderzoek heeft gedaan en het probleem toegeeft en oplost. Inmiddels is het spel New World ook geüpdatet om dit niet meer te laten voorkomen.
Als het een fout in de software was, waarom gingen dan alleen EVGA kaarten stuk en van andere merken niet? ;) Je zou dan zeggen dat andere merken ook stuk gingen, terwijl het (praktisch) alleen EVGA GPU's waren.
Dat ze echt stuk zijn gegaan komt door EVGA zelf. Maar genoeg andere kaarten hadden problemen en deed de GPU dingen die ze eigenlijk niet moesten/mochten doen.

Maar feit blijft wel dat Amazon gewoon een gedrocht de wereld in geholpen heeft met die Beta.
Maar dat ze de GPU dingen hebben laten doen die eigenlijk niet moesten/mochten heeft klaarblijkelijk geen effect gehad op het doorbranden van de GPU.

Daarvoor ligt dus geen schuld bij Amazon.
Het doorbranden is puur een hardware fout, zoals EVGA zelf aan geeft. De andere issues die ook bij andere GPU's spelen staat daar dus los van.

Waren de kaarten doorgebrand als Amazon hun game op orde had? Nee waarschijnlijk niet, maar dan was het wel bij andere software gebeurd die een dergelijke stress op de GPU uitoefenend.
Als ze dit niet zouden doen, wat denk je dat er dan gebeurd met EVGA?

Dan koopt niemand daar nog een kaart als ze niet de schuld op zich namen.
De videokaart moet never nooit kunnen doorbranden, er moet een beveiliging ingebouwd zijn, zeker als je de kaart niet op hogere snelheden laat klokken met meer voltages.
(...) terwijl er toch ook wel degelijk een programmeerfout bij Amazon aan ten grondslag lag om het doem-scenario te laten plaatsvinden voor de 3090 kaarten (en anderen).
Of het echt een programmeerfout is te bediscussiëren. Sure, een enorme frame rate in een menu is onzinnig maar an sich is het niet fout om alles met een zo hoog mogelijke frame rate te willen draaien.

Afgezien daarvan zou het natuurlijk raar zijn als je die kaart niet maximaal kan belasten, dat zou juist het doel moeten zijn van elke game developer: als die kaart niet 100% van de tijd maximaal bezig is dan laat je performance liggen. In de praktijk zal dit om allerlei reden nooit helemaal lukken, maar in principe is dat wel waar een game developer naar moet streven.
Wat een onzin met je programmeerfout haha. Ga je eens snel in de stof verdiepen...
Nou ja, het was wellicht niet echt de bedoeling maar 'geen framelimiter' vind ik niet echt een (grove) programmeerfout. Je mag er toch van uit gaan dat je de GPU gewoon voor 100% kan gebruiken.
Als slecht programeerwerk hardware zou mogen beschadigen werd de gemiddelde leeftijd van een pc minder dan een jaar. Helaas, had je die website maar niet moeten bezoeken, nu is je cpu doorgebrand.
De programmeerfout was toch alleen 100% van de kaart aanroepen? Een fps lock was de fix.
ik vind het ook goed dat ze daar in meegaan, maar met zo een dure kaart mag dat eigenlijk niet voorkomen.
Waargoed we zijn allemaal mensen en die maken ook fouten.
Nee zeg eentje het is een computer gestuurde fout maar die computer word nog altijd geprogrammeert door een mens.
De dure kaart is niet anders gesoldeerd dan een goedkope hoor. Hooguit wat extra optische inspectiestappen, maar dat zou me eigenlijk al verbazen. De kaart is duurder omdat er een duurdere proc op zit, meer geheugen enz.

Het is een hele uitdaging om kwaliteitscontrole goed op orde te krijgen bij PCB assembly. EVGA besteed dit waarschijnlijk uit aan een derde partij. Die claimen volgens bepaalde normen te werken, maar of ze dat ook echt doen.... Je kunt ze auditen, maar das ook slechts een momentopname.
Bij m'n vorige baan lieten we de PCB assembly in Nederland doen, bij hele dure toko's, en toch kreeg je soms een batch waar componenten tijdens transport er al weer af gevallen waren. Uitbesteden naar andere landen was veel goedkoper, maar met een uitval van richting de +70% aan het eind van de rit alsnog duurder.
We checkten expliciet op elke soldeerfout die ooit eerder was gemaakt, en checkten functioneel of elke verbinding naar buiten toe werkte. Maar bv checken of een beveiligingscomponent goed zit is erg complex, dan moet je specifiek de foutconditie gaan genereren waarvoor dat component in actie moet komen. Zo iets zou bij deze videokaarten ook de moeilijkheid kunnen zijn. Onder normaal gebruik deed die MOSfet niet zo veel, dus de normale eindtest is ie doorgekomen. (puur ter insultatie, geen idee of dat echt het geval is)
Preventief checken of ELK component goed zit zou zo'n kaart een paar honderd euro duurder maken aan testkosten, dat wil natuurlijk geen consument er voor betalen. Dat soort eindcontrole kom je tegen bij bv pacemakers.
Je weet er precies meer van, vandaar : ik vroeg me ook al af hoe "gebrekkig gesoldeerd" tot het doorbranden van een component kan leiden?

Ik zou denken dat een gebrekkige verbinding mechanisch loslaat of doorbrandt wegens te dun, maar zo te zien ging de verbonden component (mosfet) stuk dus dan was de verbinding blijkbaar goed genoeg voor de hoeveelheid stroom die erdoorheen ging?
dat hoeft niet, kan ook dat de mosfet ansich wel verbonden was, maar met bv wat luchtbelletjes of rotzooi er tussen. Geen probleem bij lage belasting, maar wel genoeg weerstand om veels te warm te worden bij volle belasting. Om dat vooraf te detecteren moet je dus een test maken waarbij dit specifieke component langdurig maximaal belast wordt.
Als de zwakke verbinding teveel weerstand heeft en opwarmt, zou je dan niet verwachten dat de verbinding zelf doorbrandt en niet de mosfet?

Of bedoel je dat die warmte zich tot in de mosfet verspreidt waardoor deze het uiteindelijk daardoor begeeft (maar de slechte verbinding deze warmte wel overleeft)?
kan allebei, het werkt dubbel, door de slechte soldeerverbinding is de weerstand hoger, bij gelijke stroom wordt de soldeerovergang dus warmer. Maar de weerstand is ook hoger voor de thermische geleiding, daardoor kan het component ook slechter de warmte kwijt naar de PCB toe.

Of de Mosfet of de PCB als eerste stuk gaat hangt van vanalles af, maar iig is ie sneller stuk dan wanneer er een goede verbinding was ;)
Er valt ook niet zoveel te ontkennen als de kaarten binnen een jaar fysiek verbranden ;)
Bij Gigabyte (Psu) en Nzxt (Gpu-Riser) viel er ook niet zoveel te ontkennen maar die staken ook eerst hun kop in het zand...

EVGA scoort bij mij keer op keer, het is dat hun watergekoelde kaarten (nog) niet te krijgen zijn anders zat die nu in mijn computer. Ben maar voor Asus gegaan, op zich ook geen verkeerde keuze denk ik.
Gigabyte doet dat nog steeds.

begint een steeds dieper gat te worden
Ja klopt ze vinden dat GamersNexus de voedingen teveel onder load hebben gezet (120-150% boven toegestaan). Dit terwijl GamersNexus ook Dead on arrivals binnen kreeg en voedingen welke na paar minuten gebruik al uitvielen.
Het is inderdaad alles hopeloos proberen te sussen,...

Maar ze hebben uiteindelijk wel ermee ingestemd de voedingen te vervangen en verzekerd dat de nieuwe aangepast zijn op dit probleem. Oftewel indirect geven ze toe...
Tja, veel van hun grafische kaarten hadden ook al last van coilwhine of slecht gekoelde vrms, ik zal dat merk voorlopig vermijden.
De laatste versie al gezien?
"speed run"

de new kids tekst "zo een grote vuurbal jonge" was erg toepasselijk, zaten onder de 140% toen die spectaculair boem deed
Ik denk dat ik hem voorbij zag komen, vanavond eens even kijken :)
Is niet de eerste keer bij EVGA. Met de 1080 hadden ze ook al kaarten die gingen fikken.
Dat men ging repareren onder garantie was ook direct al duidelijk, dat hadden zij ook al aangegeven. Dat men uiteindelijk met de onderzoeksresultaten komt is inderdaad een toppertje, maar volgens mij is de garantie afhandeling van EVGA altijd wel goed geweest, naar mijn weten is EVGA ook mede daarom wat duurder dan de rest (maar kan zijn dat prijzen intussen veranderd zijn).
Een '' it wasnt me'' zou ze enkel meer schade opleveren, ze hebben een goede naam qua klantvriendelijkheid hoog te houden, ''bijzonder netjes'' vind ik nogal een groot woord, ik had niets anders verwacht van ze, het is geen MSI of Gigabyte, als dit bij een van laatstgenoemden was gebeurd en ze hadden het zo netjes opgelost, zou ik daadwerkelijk verbaasd wezen, maar van EVGA verwacht ik niets anders. Neemt niet weg dat het netjes is natuurlijk, maar bijzonder, nee.
EVGA is altijd een zeer nette partij geweest met goede kwaliteit producten en een uitstekende service, ik koop er dus ook trouw.

Ze bieden bijv. ook nog steeds de kaarten aan tegen de oorspronkelijke prijs, terwijl de meeste productenen inmiddels 2 of 3x de MRSP vragen..
Het bedrijf zegt dat het om een zeldzaam probleem zou gaan dat 'veel minder dan één procent' van alle geproduceerde kaarten zou omvatten. EVGA zei eerder dat het om dertig kaarten zou gaan.
Statistiek waar men niets mee kan. Is het nu een kans van 1 op 101 of 1 op 100.000?
EVGA gaat ook in op de theorie dat de fancontroller van de gpu een rol zou spelen, afkomstig van het Duitse Igor's Lab. Tools als HWInfo en GPU-Z zouden laten zien dat de fancontroller niet genoeg zou reageren op de wisselende loads van New World, waardoor de kaart niet koel genoeg zou blijven. Dit lag volgens EVGA echter aan ruis op de i2c-bus.
Bij een kapotte fan zou de kaart toch gewoon throttling moeten toepassen gebaseerd op de temperatuur? Toegegeven, een temperatuursensor kan ook altijd kapot, maar daar spreekt men hier niet over (en die kan je natuurlijk ook redundant uitvoeren: 2/3 is correct, geen goed ontvangen meting is geen meting en falen).

[Reactie gewijzigd door The Zep Man op 22 juli 2024 19:01]

Statistiek waar men niets mee kan.
"men" of "ik"? (jij vanuit mijn perspectief) 8-)

Voor de gemiddelde consument/potentiele koper geeft "veel minder dan 1%" wel duidelijk genoeg aan dat je je geen zorgen hoeft te maken bij aanschaf van zo'n kaart. De kans dat je meer ergens meer dan 100 kaarten op voorraad aantreft is op dit moment nog steeds bijna 0. (Zo werkt statistiek natuurlijk niet, maar dat snapt de gemiddelde lezer/koper toch niet)

[Reactie gewijzigd door Alxndr op 22 juli 2024 19:01]

Bij een kapotte fan zou de kaart toch gewoon throttling moeten toepassen gebaseerd op de temperatuur? Toegegeven, een temperatuursensor kan ook altijd kapot, maar daar spreekt men hier niet over (en die kan je natuurlijk ook redundant uitvoeren: 2/3 is correct, geen goed ontvangen meting is geen meting en falen).
Dat was ook niet het primaire probleem, dat was gewoon bijzaak.

Het primaire probleem was een soldeerfout waardoor hij gewoon teveel voltage kreeg, daar gaat geen throttling tegen helpen van een temperatuur sensor.
Goed dat ze het gewoon toegeven dat er iets mis was :) _/-\o_
Dat zouden meer fabrikanten moeten doen, zoals Gigabyte met hun plof voedingen ;) :P
kuch*nzxt*kuch*risers*kuch
Dit betekent dus ook dat ze redelijk makkelijk te fixen zijn? MosFETs zijn grote componenten met dikke soldeerpunten omdat er veel vermogen doorheen gaat. Voor een kaart met een prijs van boven de 1000 euro lijkt me dat zeker wel rendabel.

Soldeer problemen onder chips (BGA) zijn veel duurder te doen maar op zich kan je dit met een simpele soldeerbout of desnoods een hot air rework station prima doen lijkt me.

Edit: Oh, ik zie nu de schade op het plaatje.. Lijkt dat het falen van de MosFET een kortsluiting op het board heeft veroorzaakt en daarmee de PCB beschadigd heeft. Met een kaart waar 400W aan vermogen doorheen gaat, gebeurt dat natuurlijk snel. Jammer, dat is nauwelijks te fixen.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 19:01]

wat zit jij te lezen dan, dat je het plaatje bijna een halve A4 niet ziet ?
Waarom zo specifiek "Amazon-game" en niet "New World" , als er een nieuwe FIfa komt, dan is het toch ook niet EA-Sports-voetbalgame?
Tja amazon bachen is hip. Het is net als Google en Apple de nieuwe grote boze gigant die het op onze vrijheid pricacy enz voorzien heeft.

2021 issues...
Ik denk niet dat je een goede engineer bent als je met minimale kosten de maximale opbrengsten haalt. Zowel New World die maximale rekenkracht vraagt als de GPU waren niet goed. Voor houdbaarheid en hufter-proof design valt ook veel te zeggen. Ja, iets minder winst, wel degelijker en tevreden klanten.

De trend van steeds iets dunner staal (niet rvs), iets sneller procédé en minder koper zitten we middenin.

[Reactie gewijzigd door Harm_H op 22 juli 2024 19:01]

Het doorgebrande component op die foto is een shunt. Moet wel erg bagger soldeerwerk zijn als dit tot effect heeft dat de power regulators zoveel meer stroom trekken dat de shunts doorbranden.
Wat betekend deze zin: "Inmiddels heeft EVGA een microcontrollerupdate uitgebracht die dit probleem zou moeten verhelpen."
Als ze hier mee bedoelen dat er een nieuwe VBIOS of firmware voor de grafische kaart is dat duidelijker dan het een microcontrollerupdate noemen.
Hoe zit dat met garantie als je daarnaast ook aan het minen was met de kaart?
Standaard 2 jaar in de EU.
Ok, kocht laatst namelijk een kaart een daar stond op de seal dat die vervalt bij mining.
Dat is volgens mij gewoon verboden in de EU, valt namelijk gewoon onder normaal gebruik.
Wettelijk maakt het niets uit persoonlijk zeg ik weg garantie ;)
Is dat wettelijk? Op de seal staat anders.
Het is niet te bewijzen dus hebben ze geen poot om op te staan.
True theoretisch kan een game dezelfde load en berekeningen doen als een miner natuurlijk.

En met deze GPU prijzen heeft het grootste deel van de gamers het vast wel eens geprobeerd. Vond overigens een garantie topic uit 2014 waar iemand zei dat ie gemined had in 2012 "toen het nog geld opleverde" met een 8600 GT(!) en nu doet half de wereld het nog :9

[Reactie gewijzigd door JDx op 22 juli 2024 19:01]

Wettelijk heb jij niets te zien met de fabrikant maar wel met de verkoper.

Als je een appel koopt en bij thuiskomst blijkt hij half rot te zijn dan ga je hiermee naar de winkel, niet naar de boer.

De garantie ligt dus altijd bij de verkoper. Echter bij veel duurdere technische producten zou dit onbetaalbaar worden voor de verkoper en is er dus achterliggend een fabrieksgarantie ontstaan zodat de verkoper kan terugvallen op de fabrikant. Zonder die fabrieksgarantie zou de verkoper een veel hogere marge moeten nemen op het product en dus zou het product uit de markt geprijsd worden, het is dus ook intressant als fabrikant om dit aan te bieden.

Strikt genomen heb jij daar als koper niets mee te maken al laten meer en meer fabrikanten toe dat je als consument rechtstreeks met hun contact neemt voor die fabrieksgarantie. 20 jaar terug kon je, uitzondering daar gelaten, altijd naar de winkel lopen ipv de fabrikant aan te spreken;

De fabrikant moet dus wettelijk niets, als die jou rechtstreeks garantie geeft is dat zuiver service maar die mag perfect doen & laten wat die wenst. Wat er tussen verkoper en fabrikant geregeld is, niet jou probleem. Jij hebt bij de verkoper gekocht en wettelijk is die verkoper verplicht jou garantie te geven.

Er is echter een verschil tussen in je recht zijn en je recht krijgen.

Als de verkoper niet kan terugvallen op zijn fabrieksgarantie (en het dus uit zijn winst moet halen), dan gaat die zich proberen te verschuilen achter de fabrieksgarantie en de voorwaarden van de fabrikant.

Juridisch slaagt dat nergens op maar veel mensen slikken dat als zoete koek. En zelfs al slik je het niet, een rechtzaak span je niet aan voor een paar honderd euro, zelfs niet voor duizend euro, kost je immers meer om een rechtzaak te voeren dan wat het, best case, opbrengt.

Op dit item kan niet meer gereageerd worden.