Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 91 reacties
Bron: PC Ekspert, submitter: hiostu

Uit Kroatië komt het opmerkelijke nieuws dat het mogelijk is om de GeForce FX te laten crashen door het draaien van een screensaver. Om dit na te doen heb je een computer nodig met daarin een GeForce FX 5800 Ultra, één van de laatste Detonator-drivers geïnstalleerd en Windows XP. Selecteer een zware 3D-screensaver, bijvoorbeeld die van de Matrix Reloaded. De OpenGL-screensavers in Windows XP zijn niet zwaar genoeg. Zorg ervoor dat deze uit zichzelf gaat draaien, in de preview werkt alles namelijk wel naar behoren. Let wel op dat je niet te ver doorgaat, omdat de GeForce FX hiermee onherstelbaar is te beschadigen.

nVidia GeForce FX logoAls de screensaver start gaat de fan op de GeForce FX draaien. Vijf tot tien seconden later stopt deze met draaien terwijl de screensaver nog gewoon doorgaat. De temperatuur van de videokaart neemt ondertussen toe tot een aangename honderd graden en er verschijnen artifacts in beeld. Als de screensaver gestopt wordt en er een demo uit 3DMark 2001 gestart wordt, gaat de fan weer draaien en wordt de videokaart weer gekoeld. Ook neemt dan het beeld op de monitor weer langzaam zijn oude vormen aan.

De mannen uit Kroatië hebben een klein onderzoek gedaan. Op één of andere manier beslist de driver dat de 3D-screensaver niet in 3D-modus draait waarop de fan uitgeschakeld wordt. De driver denkt dus dat er 2D-graphics weergegeven worden. Het vreemde hieraan is dat er niet gekeken wordt naar de temperatuur van de kaart, terwijl er wel een temperatuursensor op de kaart aanwezig is. De mannen van PC Ekspert denken dat nVidia hiervoor gekozen heeft om geluidsoverlast tegen te gaan:

nVidia LogoAnswer might be that NVIDIA decided to minimize noise, and to do that decided the fan should not spin in 2D (or when the card thinks its in 2D) because it is very likely that the user will be doing something that does not produce much noise (for example writing a document in Word). When the user goes into 3D, to play a game, well then the game will produce lot of sound (explosions, music, you name it) that will diminish the noise that cooler on a GF FX 5800 Ultra card makes. I seriously hope this is not case. We'll never know, as I am sure NVIDIA won't admit such a thing even if it was true.

nVidia heeft contact opgenomen met PC Ekspert en hen verteld dat ze bezig waren om de situatie na te bootsen. Dit is hen gedeeltelijk gelukt. Tijdens het draaien van de screensaver stoppen inderdaad de fans en ook neemt de temperatuur van de kaart toe. Er verschijnen echter geen artifacts op het scherm. Over het feit dat de kaart erg heet wordt meldt het bedrijf dat dat totaal geen kwaad kan en dat de kaarten getest worden in een oven. Het commentaar uit Kroatië is echter vernietigend: Alles wat in een oven getest moet worden kent serieuze gebreken.

Moderatie-faq Wijzig weergave

Reacties (91)

Het is echt niet te geloven wat een prutswerk de fabrikanten leveren om maar als eerste een kaart op de markt te kunnen brengen, naar mijn idee zijn dit de meest in het oog springende fouten van nVidia:
1: GeforceFX is niet snel genoeg om de concurrentie voorbij te streven.
2: GeforceFX produceert teveel hitte en heeft daarom een abnormaal groot koelingsblok met als gevolg het verlies van één extra PCI-slot.
3: GeforceFX maakt door de sneldraaiende fan teveel herrie bij normaal game-gebruik.
4: GeforceFX is te duur bij de introductie.

Het maakt mij niet uit als deze reactie als flame wordt neergezet. Naar mijn idee is het slechts een opeensomming van feiten die illustreert dat deze videokaartfabrikant z'n huiswerk niet goed heeft gedaan en wij als consumenten mogen hopen dat ATI dit voorbeeld niet volgt.
Maar jij bent ook niet de doelgroep van nVidia! Jij speelt geen games met een koptelefoon op!

:+

edit:

Ik las dat in de C't als commentaar van nVidia op het feit dat die ventilator zo'n herrie maakt.

Maar dat is natuurlijk ongeloofelijke bullshit van nVidia. Als jij met een koptelefoon speelt, dan doe je dat omdat de andere mensen in je huis klagen over de herrie die uit je boxen komt. Maar wat denk je dat de andere mensen in je huis zullen zeggen over de herrie van die nVidia kaart!

Dat ding schijnt te klinken als een fohn!
Die laatste zin begrijp ik niet. Waarom zou alles wat in een oven getest wordt serieuze gebreken hebben dan?
Ook in het oorspronkelijke artikel zie ik geen aanwijzingen daarvoor. Alleen de inderdaad vernietigende kritiek.

Het is duidelijk dat het een fout is dat de fan uit gaat, maar waarom die testmethode ook afgekraakt wordt begrijp ik dus niet.
de meeste elektronica kan makkelijk een graadje of 100 hebben, en vaak wel meer ook..
anders zou je je mp3 speler ook niet een dagje mee naar het strand kunnen nemen, of je auto+autoradio in de zon laten staan.

nvidia zegt dus dat ze hun chippies testen in de oven, bij zeg 150 of 200 graden. Bovendien gaan ze er niet stuk van.

En dat laatste hebben de kroaten dus ook niet kunnen aantonen, de videokaart is er niet stuk van gegaan. het toonde wel -tijdelijk- artefacten, maar na afkoelen deed ie het weer prima. pluimpje voor nvidia dus wat betreft de kwaliteit van hun chips... en jammer van het bugje.
150-200 graden

Ja aleen als het een metalen behuizing is !
De kunstsof omhulsels geven het toch echt op dan hoor.

130 Graden is voor de meeste electronica toch echt het matje !
Er zijn zat kunstoffen die heter kunnen worden, heb zelfs thuis een flexibele taartvorm die meer dan 250 graden max worden.

Sommige kunststoffen zijn nog beter bestand tegen hitte dan metaal.

Het probleem ligt bij het silicium dat geloof ik temperaturen van boven de 120 graden niet echt fijn vind...
Die Taartvorm van jou is een .elastomeer !
die is chemish vernet
die smelt ook niet meer , die verkoolt alleen nog maar.
En de meeste behuizingen zijn niet bestand tegen hoge temperaturen .
Zeker niet als het niet nodig is .
De reden is dat materialen voor hoge temparaturen
erg duur zijn .
Het enigste materiaal wat een gebruiks temperatuur heeft van boven de 250 graden is glasvezel gevulde PPS (20 euro de kilo).

En er zijn GEEN kunstoffen die beter bestand zijn tegen temperatuur dan METAAL !

en als je de hitte schilden bedoelt van een raket
Dat is een vezel gevulde Thermoharders
en die kunnen ook maar 2 keer zo'n hoge temperatuur , en dan is het een koolstof laagje geworden

En als je het niet gelooft
Haal je koeler maar van je CPU af en kijk maar wanneer de core begint te smelten hehehe .
ben jij die gast die hier altijd de kookcurssussen geeft? :Y)
Hahaaaa...

Dat denk ik ook inderdaad... :P

[//edit: was post op Roelenzo]
maar metaal geleid warmte vijne vend dus word de hele zooi aleen nog warmer }:O
Electronica testen bij hogere/ lagere temperaturen is heel normaal .

B.v. wil een fabrikant weten of zijn chip zowel in de shara als op de noordpool werkt.
Ook worden "ouderings" testen gedaan in ovens, door het sterk verwarmen van electronica kun je namelijk het ouderings proces versnellen en kun je een voorspelling doen hoe lang je componenten blijven leven en hoeveel de tolleranties toenemen/afnemen.

Nvidia zal ook geintereseerd zijn in de stabiliteit van hun chips bij hoge temperaturen.

Ovens/vriezers ----> heel normaal!
Het is een Kroatische site, ze hebben dit artikel in het Engels gedaan omdat ze het belangrijke informatie vinden. Ze geven aan dat ze niet echt goed in het Engels kunnen uitdrukken wat ze bedoelen. Dat van die oven bedoelden ze als volgt:
Our statement from Update 2 about oven testing and fundamental flaw - not the smartest thing we could say. What we originally meant (during the discussion within the team) was something different. Oven cooking and temperatures of 100C are usually used to kill bugs in food (for example to pasteurize milk - I hope we didn't use the wrong term here). So, if 100C kills bugs, too bad it didn't "kill" the bug we found - in other words, we meant it as a joke. We are aware that heating things to high temperatures is a normal quality assurance procedure. We apologize for this.
Vind jij het normaal dat iets moet getest worden op zulke hoge temperaturen :? Als ze een degelijke kaart zouden hebben zou die niet zo warm worden dat het nodig is dat hij op oventemperaturen moet kunnen werken.

Vergelijk het misschien met een vliegtuig een speciale romp geven zodat hij supergoed kan neerstorten zonder schade, maar hij zou in de eerste plaats niet mogen neerstorten!

Dus ik vind het een schitterend commentaar !
een fijne steek naar nVidia.. ;)
Onzin... waarom plaats je dan op je P4/XP geen koelertje van een 486? Die zou volgens jou redenering geeneens zo warm mogen worden dat het een probleem wordt.

Die ovens zijn trouwens speciale testtoestellen die wel meer gebruikt worden (CD writer testen en zo), om te zien welke invloed de omgevingstemperatuur heeft, en hoe warm die dingen wel mogen worden. Je moet echt niet denken dat het zo abnormaal is dat er dingen in een oven getest worden. ATI zal zijn kaarten ook wel aan temperatuurtesten onderwerpen.
Bij de P4 kun je prima een koelertje van een '486 gebruiken. Dat je processor op een gegeven moment dan ook net zo snel loopt als een '486 is helaas een vervelend bijverschijnsel :).
Helemaal mee eens. Ik vind dat meer fabrikanten hun spullen zouden moeten testen op hoge temperaturen.
Ik heb in het verleden al problemen gehad met floppy-drives en CD-ROM spelers (Plextor, Philips, Toshiba) die prima werken als ze koel zijn en vervolgens je hele PC doen hangen als ze warm worden. Uiteraard investeerde ik voldoende geld en aandacht in koeling en airflow, maar als de ambient temperatuur 30 graden celsius of meer is, dan helpen zelfs de beste fans niet meer. (Dit was in de tijd dat water-koeling nog onbekend was) De rest van de PC kon die temperaturen overigens prima aan.

Ik kan het in een oven testen van PC onderdelen dus enkel maar aanmoedigen. Nu maar hopen dat op de volgende generatie Geforce FX ook daadwerkelijk geen stofzuiger meer hoeft te zitten.
Is het niet verstandiger oplossingen te zoeken waardoor de boel niet zo warm wordt? Met andere woorden, meer halen uit de "rauwe" snelheid.

ATI kan het, AMD kan het... waar in godsnaam ben je mee bezig als je moet beginnen rekening houden dat de plantjes naast je pc wel eens zouden kunnen verwelken of je behang de fik in kan schieten als je hem er wat te dicht bij zet? }>

Nee hoor, die oventests hoeven voor mij niet, betere chipontwerpen moet zeker lukken.
als ie zelfs in een oven kan werken, waarom zetten ze er dan zo'n HELS lawaai op, als ie er toch tegen kan |:( |:(
De mannen van PC Ekspert denken dat nVidia hiervoor gekozen heeft om geluidsoverlast tegen te gaan
dat ie veel lawaai maakte, dat wisten we al, maar dan heb ik toch liever dat ie het normaal blijft doen, en niet kapot gaat.
Tijdens het draaien van de screensaver stoppen inderdaad de fans en ook neemt de temperatuur van de kaart toe. Er verschijnen echter geen artifacts op het scherm. Over het feit dat de kaart erg heet wordt meldt het bedrijf dat dat totaal geen kwaad kan en dat de kaarten getest worden in een oven.
als ie echt zo heet mag worden, waarom zetten ze er dan zo'n enorme koeler op? :?
ooit artifacts gezien op je scherm?

dat een kaart de hitte overleeft hoeft nog niet te betekenen dat ie bij grote hitte ook goed draait.

Toch is het argument van het testen in een oven net als het tegenargument mij allebei te vaag, wat test je in een oven, of de kaart niet smelt, of de chip het doet bij hitte, of de kaart het achteraf doet, of je koeler het doet... en hoe heet test je? 15 graden? 100? 300? 600?

Dat het niet goed voor een chip kan zijn om te heet te worden is duidelijk, of een chip zichzelf tot dat niveau kan opwarmen is een heel ander verhaal.
errug lomp en heeeel erg onprofessioneel :P
het zal je maar gebeuren..
maar blijkbaar sturen ze de fan dus aan via de drivers, als het alleen bij de nieuwere detonators gebeurt..
Zal maar gebeuren? Ik denk dat het vlugger gebeurt dan je denkt. Welke mensen hebben niet een screenie? Lullig als je weg gaat om te eten, je pc op de schreensaver springt en tegen de tijd dat je terug bent je pc naar de mallemoer is.
Ik vraag me af wat nVidia hier tegen wil doen, aangezien de drivers die bij de videokaart verscheept zijn waarschijnlijk al die fout bevatten.
Wat er tegen te doen is? Laat - zoals in het artikel al gezegd wordt - die temperatuursensor met een of andere acurator een functie maken dat als de temperatuur te hoog wordt de fan gaat draaien. Ook al wordt er softwarematig niet aangegeven de fan te laten draaien. Een echte oplossing is dit niet voor de kaarten die de fabriek uit zijn.

Een softwarematige oplossingen van het hierboven getikte is natuurlijk een oplossing, maar dan moet nVidia maar weer eens haar Detonator updaten (niet dat dat enigzins uitmaakt, dat doen ze toch bijna iedere dag ;)).
en hoeveel mensen die dit niet meekrijgen hebben een FX5800? vrij weinig lijkt me hoor :)
Nou, je zult er nog van te kijken staan hoeveel geen screenie gebruiken. Waarom zet je je beeld niet gewoon op standby na bij 5 min ipv een screensaver?
Idd is het wel een beetje lomp, die fan moet gwoon via een direct meetcirquit verbonden zijn.
Software ertussen stoppen geeft zoals nu ook blijkt alleen maar nodeloze kans op fouten.
Wat bv als je ff wegloopt van een spel en je fan "hangt" daar heeft een passief voelertje nooit last van :)
Ennuh het maakt verder ook niet uit wat zo'n chip doet als hij te warm wordt moet er wat gaan draaien simpeler kan niet, daar hebbie alleen maar een ntc en een transistor voor nodig.
Als de drivers dus de fan aansturen, dan betekent dat dus ook dat als je het goede gedeelte van een .ini of .sys bestandje van de driver zou aanpassen, je dan zelf je fan snelheid zou kunnen regelen. Dat is natuurlijk wel fijn, vooral bij zo'n stofzuigerkoeling als de FX heeft. Bijkomend voordeel: nVidia kan het dan moeilijk controleren of je het zelf het gemod en zal je kaart zo vervangen, aangezien jij kan zeggen: Maar ik draaide gewoon een 3d-screensaver ;).........Ik weet het, ik ben evil.. }>
Ik vraag me af of ze eerst Nvidea hebben ingelicht of dat ze meteen de 'bug' gepubliceerd hebben.
Hoe dan ook best een aardig grove fout van Nvidea maar die kroaten lijken mij ook een beetje sensatie zoekers.

linkje naar een .mov waar de fan stop
http://www.pcekspert.com/download/get-115.html
direct linking werkt niet
http://www.pcekspert.com/download/index.html
en dan op de GF 5800 FX link clicken wel
Aangezien de FX-Ultra in dusdanige beperkte oplage verschijnt is het wel een storm in een glas water te noemen.

Echter, die warmteproductie van een nvidia begint eigenlijk op het irritant af te gaan als ik het zo begrijp. Het begon al met een GPU die dusdanig warm werd dat er een indrukwekkende koeler voor nodig was. Die koeler is dan wel zo indrukwekkend dat vrijwel alle reviews waarschuwen voor geluidsoverlast. Het gegeven dat de FX-Ultra dan wel een uitzonderlijke kaart is, zal in de toekomst niet meer zo zijn: Straks wordt een 120 Watt GPUstandaard wat dus nog meer is dan de huidige 75 Watt.
Aangezien ze er nu al niet inslagen de warmte van een GPU af te voeren zal dat in de toekomst ook wel niet kunnen. Wat dat betekent? Een kaart die waarschijnlijk tijdens 3D erg veel lawaai zal produceren. Een kaart die tijdens een leuke screensaver ook erg veel lawaai gaat produceren. Een kaart die erg afhankelijk is van zijn Achilleshiel namelijk de ventilator (die regelmatig sneuvelt zoals op GoT/51 en GoT/8 blijkt).

De ultieme stupiditeit is echter dat een driver bepaalt of er iets gebeurt dat de fan op volle toeren moet draaien ipv een sensor. Indien de driver bijvoorbeeld faalt door een systeemcrash of zoiets als een OpenGL-screensaver ben je mooi de FX kwijt. Een sensor is niet afhankelijk van software, die werkt gewoon onafhankelijk en reageert gewoon als íe te warm wordt.

Het geval doet me wel een beetje denken aan de Ati Rage serie, die chip werd specifiek ontworpen om 110 graden te kunnen worden zodat er goedkopere koelblokken gemonteerd konden worden. Nadeel was dat omliggende componenten echter niet zo ontworpen waren. Dat Nvidia tegenwoordig video-kaarten ook test in de oven vind ik, net als de reviewer, absurd. Dat zuks niet nodig is demonstreert Ati: goede prestaties zonder absurde koelnoodzaak.

Waterkoeling zal nooit voor de grote massa geschikt worden omdat het bijhouden van het waterpeil iets essentieels is en de werkelijk grote massa liefst een PC heeft met slechts 1 aanknop en verder geen onderhoudt.

[edit], vreemd eigenlijk dat de fout dus in een driver ligt, ik meende dat juist de drivers van nvidia geweldig goed waren?
Alles wat in een oven getest moet worden kent serieuze gebreken.
Of is extreem getest. Denk eerder goed getest.. als je er van uit gaat dat het niet nodig is, zul je zien dat het niet gaat werken.

Overigens is dit een bug, die ook met Windows screensavers te maken heeft. Ik ken sony Vaio's die niet gaan koelen als je een screensaver hebt draaien. Oplossing: geen screensaver draaien, anders crasht je pc (waarna direct de fan gaat draaien :? ).
Alleen al het gegeven dat software controle heeft over het wel of niet schakelen van een zo cruciaal apparaat zou voor mij reden zijn NOOIT meer iets van de betreffende fabrikant te kopen. Stel je voor dat de remmen of het stuur van je auto door een computer gestuurd zouden worden. Los van de vraag of het ooit betrouwbaar genoeg zou zijn, zou ik me afvragen welke gek zoiets in godesnaam bedenkt en of ik iets met die gek te maken wil hebben... :(
=edit= op verkeerde gereageerd
Straks is er een halve zool die een virus schrijft
waardoor de Fan stopt op je video kaart .

Dan hang je gewoon !
B-)
Wat ik niet precies begrijp is hoe die kaarten nou kapot gaan. nVidia zegt dat de hitte die kaarten niet zoveel doet (ze zijn immers in de oven getest), PC ekspert heeft het over dat de temperatuur erg toeneemt (want de fan stopt).
Gaat die kaart kapot door de hitte, want nVidia en PC ekspert spreken elkaar tegen. (is de hitte dodelijk voor de kaart of iets anders)
Warmte = slecht voor de componenten.

Vb: Als je overclocked van je cpu, dan zal je cpu minder lang kunnen werken dan een niet oc'ed cpu. Men gebruikt het voorbeeld van 10 jaar (niet oc'ed) vs 5 jaar (oc'ed). De cijfers zullen niet kloppen, maar je levensduur van je apperatuur word grondig verminderd, hoe warmer deze worden.


Als je GPU zit te draaien zonder zijn fan, dan zal die vrij snel kapot gaan. Ik heb al genoeg gezien hoe GPU's kapot gaan omdat de fan gefailed is van dit product, en de passieve heatsink de hitte niet genoeg kon verplaatsen.

Nog een leuk voorbeeld: Iedereen weet dat de AMD cpu's getest zijn om te draaien op 90°. Maar een word aangeraden onder de tweakers om nooit boven de 60° te gaan. Waarom? Simpel, als je in de 70° gaat, dan begint je cpu sneller kapot te gaan, en is je kan op een failure veel groter. Een oven test voor een GPU of CPU is maar een korte test voor het zien of een GPU of CPU op die temperatuur kan werken voor een korte tijd.

Maar als je deze bug hebt, terwijl je een paar uur weg bent van je pc (en je screensaver opspringt), dan staat je GPU een paar uur te oververhitten. Met de nodig gevolgen.

Natuurlijk zal NVIDIA met klem ontkennen dat het schadelijk is, zeker met al de negatieve publiciteit dat ze nu al gehad hebben rond de NV30. Maar iedereen met een beetje hersenen weet dat warmte/oververhitting de nr 1 doodsoorzaak is van pc's ( let er maar op, de meeste pc's in bedrijven, gaan kapot omdat de fans na een tijdje verstopt geraken & failen, gevolg, onderdelen oververhitten, en bingo, onderdeel beschadigt (soms werkt het nog maar niet zoals het hoort ... groffe artifacts op het beeld die niet meer weggaan, lijnen etc).
dat vraag ik me dus ook al af, in mijn bericht hierboven.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True