Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 172 reacties

De GTX 590 wordt erg warm tijdens het gebruik en het lijkt erop dat het powercircuit niet is berekend op het hoge energieverbruik in combinatie met de temperatuur. Volgens Nvidia verhelpt de nieuwste driver het probleem.

Er zijn al verschillende gebruikers die hun GTX 590 het zagen begeven, terwijl de gpu geen hogere spanning of hogere kloksnelheden had dan gebruikelijk. Tot op heden gaat het om GTX 590's van Zotac, Asus en EVGA. De nieuwste Nvidia-drivers zouden een betere overcurrent protection hebben, maar een gebruiker zag zijn GTX 590 sneuvelen tijdens het draaien van Crysis 2, terwijl de nieuwste drivers waren geïnstalleerd. Het gaat om een EVGA GTX 590 Classified, met een verhoogde kloksnelheid vanuit de fabriek. De overcurrent protection werd waarschijnlijk omzeild door het veranderen van de executable.

Een andere gebruiker meldt op het Engelse forum overclockers.co.uk dat zijn GTX 590 van Zotac het begaf tijdens het draaien van 3DMark 11. Ditmaal was de gpu overgeklokt van 607 naar 650MHz, maar de spanning op de gpu's werd niet aangepast. Gebruikt werd driverversie 267.84, die de verbeterde OCP aan boord moet hebben. Een Spaanse GTX 590-eigenaar zegt dat zijn kaart het begaf zonder dat deze was overgeklokt. Weer een andere gebruiker zegt dat zijn kaart stierf tijdens het spelen van Shogun 2, zonder dat deze was overgeklokt.

Het lijkt er op dat Nvidia's softwarematige oplossing om het verbruik te beperken niet altijd even goed werkt. Simpelweg de naam van een executable veranderen zou niet mogen werken om de beveiliging te omzeilen. Verder gaan videokaarten wel eens vaker stuk, maar er zijn nu veel meer meldingen opgedoken dan met bijvoorbeeld AMD's HD 6990 het geval is. De website Lab501 nam het powercircuit van de GTX 590 onder de loep en komt tot de stellige conclusie dat deze niet afdoende is. Nvidia zou inmiddels aan een nieuw bios werken, dat de problemen moet verhelpen.

Het zou kunnen dat Nvidia de GTX 590 ontwikkelde voor een verbruik van rond de 300 in plaats van 364W. Nadat AMD echter met de HD 6990 kwam, met een maximaal verbruik van 375W, paste Nvidia de GTX 590 aan om de strijd aan te kunnen gaan met de HD 6990. Het powercircuit zou niet berekend zijn op het hogere verbruik dat door de hogere kloksnelheden wordt veroorzaakt.

GTX 590 kapotte vrm GTX 590 kapotte vrm GTX 590 kapotte vrm
Moderatie-faq Wijzig weergave

Reacties (172)

1 2 3 ... 6
En dit zag ik dus allang aankomen. PCB van 12 lagen, marginaal betere prestaties, kleinere form factor, en zoveel stiller voor slechts net iets meer geld dan de 6990? If it's too good to be true, it usually isn't blijkt weer op te gaan. Erg jammer voor Nvidia, die kunnen zich niet nog een serie van doorfikkende kaarten permitteren.

Het was een kwestie van 1 en 1 optellen, in eerdere posts voorspelde ik al serieuze problemen met het overclocken van kaarten die zo op het randje van de PCI-standaard zitten qua energieverbruik, nu lijk het erop dat zelfs zonder overclock met dit kaartje teveel hooi op de vork is genomen. Uit het design van AMD is met het gebruik van de volterra-VRMs toch duidelijk wat meer overcapaciteit genomen met het oog op duurzaamheid, en kennelijk is dat goed uitgepakt.

Het komt op mij ook over dat de productie ervan gehaast is om de 6990 tijdig tegengas te bieden, lijkt me namelijk dat een fatale engineering error als budget-VRMs op een top-of-the-line model wel boven water was gekomen als wat langer de tijd was genomen om te testen...

Aanvulling: Volgens hardware.info beschikt de GTX590 over 'in totaal vijf Infineon TDA21211 mosfets, die ieder 35 Ampère kunnen leveren bij 1 volt. Omgerekend is de stroomvoorziening van de GTX 590 dus berekend op 175 watt (5x35) per GPU, zodat deze al bijna maximaal wordt belast tijdens het gamen op de standaard klokfrequenties en voltages.' (bron: http://nl.hardware.info/n...fets-van-gtx-590---update)

Kortom, dit is gewoon niet voldoende. Voeg daaraan toe dat de GTX590 bij belasting over de gehele PCB al temperaturen van om en nabij de 100 graden Celsius te verdragen heeft en je kan alleen maar concluderen dat Nvidia zichzelf hier in de nesten heeft gewerkt. De GTX590 zoals deze nu op markt is, is niet overklokbaar of je moet het leuk vinden om de 2 maanden een week zonder pc te zitten in verband met een kaart die RMA moet. Je kan stellen dat het niet echt nuttig is een kaart als deze over te klokken, maar gezien de meeste gebruikers deze kaart puur zullen kopen 'omdat het kan' ...je begrijpt waar ik heen wil.

Nvidia kan maar beter snel een gereviseerd model op de markt brengen met betere VRMs, want dit word anders net zo'n RMA-festijn als met de 8xxx en 9xxx serie...

[Reactie gewijzigd door Singular1ty op 31 maart 2011 14:02]

Dat is niet helemaal just , het is niet 1 volt maar tussen de 5 en 30 volt het is juist 1 MHz wat deze mosfets heeft.

De PWM Controller heeft 3,3 volt van de mosfets , dus 5 x 35 Amp op 5-30 volt zou voldoende moeten zijn.

bron: http://www.alldatasheet.c...73/INFINEON/TDA21211.html

edite typo's

[Reactie gewijzigd door wow7 op 31 maart 2011 14:42]

En dat is ook weer niet juist. Als je op pagina 5 van jouw eigen bron kijkt (http://html.alldatasheet....1211/1949/5/TDA21211.html) dan zie je dat deze chips gespecificieerd zijn op een average output current (Iout) van 35A. Met een voltage dat net onder de 1V ligt (zie de post van Devpartner) kan 1 zo'n unit dus voor 35W aan vermogen leveren.
Dat maak dus niks uit , de input is net zoveel als de output.

0.93V (±0.04V) * 350A = 311,5 watt wat denk je dat je input voeding moet leveren ?.
Ik weet niet precies wat je hier bedoeld (vermogen of amperage). Als je het vermogen bedoeld: als het elektrische vermorgen wat er in gaat even groot is als het elektrische vermogen wat eruit gaat dan werden de VRM's niet warm ;)

Als het over het amperage hebt dan ben ik het niet met je eens. Ik weet niet wat de ingangsspanning van deze chips is op de grafische kaart (de toelaatbare range is van -0.3 tot 5.5V volgens de datasheet), maar als ik een 5V ingangsspanning aan zou leveren, en daarbij 35A nodig had om aan de uitgang ook 1V op 35A te leveren dan betekend dat het volgende: Je chipje neemt 5V*35A = 175W aan vermogen op, en geeft 1V*35A = 35W aan vermogen af. Je bent dan dus 140W aan warmte aan het genereren...
mjah, deze vlieger gaat niet op. Nu benader je de voeding alsof het een weerstand is, en dat is niet het geval. Er zullen zeker verliezen zijn, maar het rendement ligt ongetwijfeld hoger dan 18% ;)
Ik gebruik die berekening dan ook om aan te geven dat ik het niet eens ben met de stelling van wow7 dat het amperage in gelijk is aan het amperage uit ;)
Amperage natuurlijk 0.93V (±0.04V) * 350A ;)
Zoals ik op het forum ook al heb gezegd.
De 5 en 30V gaat over de input voltage range.

De output voltage = de benodigde voltage. Deze wordt bepaald door de gpu en is dus 0.9xxV
Het stuk over de voltages van HWI zijn letterlijk overgenomen uit het nvidia topic hier op t.net en is meer natte vingerwerk als keiharde feiten. Het artikel wat ze schrijven biedt dus tot op heden geen enkele kern van waarheid maar enkel overgenomen suggesties.

[Reactie gewijzigd door sjekneck op 31 maart 2011 15:33]

Als de VRMs doorfikken op stock voltages en snelheden tijdens het spelen van games zoals de kaart bedoeld is, mag je in elk geval best stellen dat Nvidia hier een engineering error van jewelste heeft gemaakt bij het uitkiezen van deze componenten, zonder dat je er exact de capaciteiten van kent...

Voeg in elk geval iets toe aan de discussie in plaats ervan alleen het artikel op de korrel te nemen.

De response van Nvidia is trouwens diep triest, slappe drivers releasen in plaats van een total recall om gewoon een betere kaart te releasen wat me op de lange termijn een veel betere oplossing lijkt.

Hoe zit het trouwens met die Point of View kaarten met bijna 700MHz core clock? Lijkt me dat die bij bosjes weer terug worden gestuurd maar daar hoor ik niks over...

[Reactie gewijzigd door Singular1ty op 31 maart 2011 14:48]

Sorry hoor, maar het artikel van HWI wat is bijna tot op de leestekens overgenomen van GOT. Ik vind dat terecht in twijfel trekken en dat voegt wel degelijk wat toe aan de bron die jij aanhaalt. Ik val jou er niet persoonlijk op aan, maar HWI wel degelijk.

Heel leuk en waar wat je allemaal al concludeert, maar voorlopig lijkt het volgens andere bronnen dus te gaan om aangepaste biossen met hogere clockspeeds en hogere voltages (EVGA en ASUS hebben beide geen reference bios, maar een eigen versie erop gezet).

Je vind het nu al diep triest en een engineering error van vanjewelste, maar tot er duidelijk is wat de echte mankement is kunnen we alleen maar gokken. En wat jij nu doet is keihard trappen op een issue waar nog geen duidelijkheid over is.

Nvidia probeert volgens mij nu nog erger te voorkomen, wat moeten ze anders doen? Alles kapot laten gaan zonder in te grijpen? Recallen kan, maar wees realistisch dat gaat niet van donderdag op vrijdag lukken.

[Reactie gewijzigd door sjekneck op 31 maart 2011 17:15]

Ja, in dat licht is het inderdaad verstandig geweest als 'noodoplossing' een driver te releasen om de schade binnen de perken te houden, zodat niet nog meer gebruikers ineens zonder kaart komen te zitten. Gelukkig ben je het ook met me eens dat dit nog geen oplossing is. En als je bijvoorbeeld kijkt hoe Intel met dat SATA controller probleem is omgesprongen, zie je dat er best snel een recall op poten kan worden gezet, met name vóór gebruikers in grote getale gedonder krijgen.

Je kan me in elk geval niet wijsmaken dat Nvidia dit probleem niet zag aankomen, als fabrikant ken je je product van binnen en buiten en kan je ook verwachten dat ermee over gaat worden geklokt, door de gebruikers of fabrikanten zelf.

Nogmaals de vraag, what about die Point of View GTX590s met bijna 700MHz core clock? Dat je wel van Asus kaarten met een 10MHz overclock hoort maar niet van Point of View dat zéker een custom bios moet hebben ingezet, vind ik apart.
If it's too good to be true, it usually is :)
If it sounds too good to be true, it usually is.
http://www.youtube.com/watch?v=sRo-1VFMcbc

Filmpje waarin dit artikel gedemonstreerd wordt :) (weliswaar overgeklokt)
Het gaat nooit om een driverprobleem. Oververhitting betekent altijd dat de hardware niet goed ontwikkeld is.

Ze noemen het een driverprobleem omdat NVidia dan geen hardware hoeft terug te nemen, en in de software wel kan zorgen dat de temperatuur onder controle blijft door de hardware af te gaan knijpen. Wat dus betekent dat je minder waar voor je geld krijgt.

Intel en AMD doen dit ook bij oververhitte processoren, en hier is ook niks mis mee als het echt om uitzonderingsgevallen gaat, maar dit klinkt zo serieus dat de oplossing wel eens zou kunnen zijn om de klok permanent terug te schroeven. En dan flink, want er zit nog een flink gat tussen de temperatuur waarop een chip veilig voor langere tijd kan draaien en de temperatuur waarop je brandplekken op je kaart ziet.

[Reactie gewijzigd door Foske76 op 31 maart 2011 15:58]

Dat is een reactie uit de vorige eeuw. Moderne hardware kan elektrisch sneller lopen dan thermisch verantwoord. Dat betekent dat de hardware noodzakelijkerwijs "afgeknepen" moet worden om te oververhitting te voorkomen.

Dat afkijpen kun je in hardware uitvoeren. Het nadeel daarvan is de inflexibiliteit; je wil niet meer afknijpen dan nodig om binnen de thermische grenzen te blijven. Software is flexibeler, maar de keerzijde van flexibiliteit is complexiteit. Het blijkt nu dus dat de software in bepaalde situaties het energieverbruik te hoog instelt. Dat is dan met name het geval als de hardware eerst buiten specs is ingesteld (overgeclockt).
Als processor designer moet ik dit toch als een onzinverhaal betitelen. Als je electronica meer hitte genereert dan thermisch verantwoord heb je je dimensionering van de componenten en/of koeling niet op orde en is het dus gewoon een hardware probleem. Dat je als ingebouwde veiligheid je klok verlaagt is prima, maar dat moet niet het normale werkpunt zijn. Mijn punt is dat in dit geval de temperatuur zo ver oploopt dat NVidia de klok significant zal moeten terugschroeven.

Aangezien de kaarten ook op nominale spanning de soep in draaien geldt dat het vermogen (evenredig met V^2 * f , V constant in dit geval) lineair schaalt met de frequentie. Om zo'n serieuze oververhitting te voorkomen zal je flink naar beneden moeten in freqentie, minstens zo'n 10% schat ik. Dan verliest deze kaart opeens een hoop waarde omdat deze nauwelijks meer sneller is dan zijn tragere broertje.
Je kunt het vermogen alleen naar beneden krijgen als je kaart minder hard werkt. Dus zolang het probleem niet op hardware niveau is opgelost, zul je de kaart niet op 100% kunnen laten draaien voor langere tijd.

Zoals het artikel zelf al suggereert is de kaart waarschijnlijk ontworpen voor een verbruik wat rond de 300W ligt. Als de kaart zoals deze nu wordt verkocht ineens gemakkelijk 364W weet te halen dan is het duidelijk dat de hardware componenten hierop niet zijn berekend.

Ik vermoed dat Nvidia binnenkort een vernieuwd ontwerp naar de fabrikanten zal sturen aangezien de meeste fabrikanten gewoon het referentie ontwerp overnemen inclusief de geadviseerde componenten.
Nvidia geeft aan dat het de drivers zijn. Zelf geloof ik dat niet. De VRM, het circuit dat de juiste spanning levert aan de GPU, is niet gemaakt op zoveel vermogen. Met de 365W blijft deze wss net binnen de spec, maar niet heel veel.

Zelfs videokaarten op stock vliegen er uit, MET de laatste driver:
http://www.xtremesystems....p?p=4798627&postcount=562

Meer in depth info zoals door mij geanalyseerd op GoT, samen met enkele anderen die er ook naar hebben gekeken en meningen hebben gedeeld:
http://geekswarm.nl/nieuw...gtx-590-geanalyseerd.html
Dit artikel is inmiddels alweer aardig achterhaald.
Veel van de hieronderstaande info stond al gisteren op het forum, dus gemiste kans.

Om te beginnen: Officiele reactie van nVidia: klik
Zij brengen helemaal geen nieuw bios uit. Volgens nV ligt het aan de custom bios die een niet (door hun) letterlijk bij naam genoemde AIB gebruikt (Asus in dit geval), en werkt de reference bios prima:
NVIDIA's reference GTX 590 VBIOS on the production boards has not changed, and we have not provided a new VBIOS to AICs or end users for GTX 590. The original GTX 590 VBIOS that NVIDIA shipped is good for customers to use and we stand fully behind the reliability of the hardware with that VBIOS.
Uiteraard doet nV geen Quality Control voor custom biossen van AIB's, wat de reden zou kunnen zijn dat deze issues bij hun in het testlab niet optraden/optreden.

In ieder geval de Asus kaarten, maar ook EVGA kaarten, gebruiken custom biossen. Waarvan het i.c.m. nVidia's statement de schijn heeft dat die niet leuk samenspelen met nVidia's overspanningsbeveiliging (OCP). Zie voor verdere uitleg hieronder.

Ten tweede zijn de hoge temperaturen die Hardware.fr mat het gevolg van het gebruik van een versie van Furmark die OCP omzeilt op de geteste kaart (vertaling door Dooievriend), waardoor het verbruik van de kaart van 365W max (TDP) oploopt naar ~458W card only, en daarmee uiteraard ook de temperatuur (~111C). Dit is uiteraard ver buiten spec, en helemaal geen standaardsituatie (zoals dat wel door mensen die geen Frans kunnen lezen gebracht is/wordt).
Verder stamt de meting van Hardware.fr van voor de huidige 'goede' driver, en naar ik meen te hebben gelezen gebruikten ze een Asus kaart (met dat custom bios dus, waarbij nV de kanttekening heeft geplaatst dat die bios niet goed was).

Ik ben er absoluut nog niet van overtuigd dat de powercircuits (VRM's) van de GTX590 te krap bemeten zijn. Dat dat niet zo is toont Hardware.fr juist aan (en ook de TechReport test, waarbij ze zelfs flink overklokten met een beperkte overvolt).
Het probleem lijkt te zijn dat de kaart onder bepaalde omstandigheden (i.c.m. 'fout' bios / verkeerde driver, of in het ongunstigste geval: beide tegelijk) blijkbaar VEEL verder kan doorschieten in verbruik dan ever ooit de bedoeling was. Die ~458W die hardware.fr mat zit al op de 25% boven het TDP. Er zijn indicaties dat met een combinatie van foute software, fout bios en foute driver zelfs nog veel hogere belasingen kunnen worden bereikt (ik las ergens dat er theoretisch sprake kon zijn van 550W zelfs -> 50% boven specified max verbruik!).
En dat houden de powercircuits uiteraard niet: game over.

Wat betreft dat EVGA Crysis2 rename Crysis.exe geval: de gebruiker rapporteerde ook dat de kaart na de rename een enorme 'sprong' maakte in prestaties. Zegt mij veel, educated guess: custom bios (dat onder load te hoge voltages gebruikt/toestaat) in combinatie met 'misleiden' OCP stuwt prestaties (dus het vebruik!) flink de hoogte in, en... kilde de kaart.

[Reactie gewijzigd door Cheetah op 1 april 2011 01:02]

Wat me opvalt is dat de Point of View kaarten met bijna 700MHz core snelheid nog niet gerapporteerd zijn als doorgebrand, kennelijk gebruiken zij dus wel een goede bios. Of?

Anyway, bovenstaande is een goede aanvulling omtrent de omstandigheden waarin deze lieve kaartjes gesloopt zijn MAAR bewijst eigenlijk iets belangrijkers dat eigenlijk iedereen al wist: FERMI is een enorme zuiplap qua stroomverbruik en een heethoofd van jewelste. We zagen het met de GTX480 al compleet uit de hand lopen, logisch dat nV het niet voor elkaar kreeg daar 2 GPUs op 1 plankje te lijmen, maar hoe zijn we er nu eigenlijk op vooruit gegaan met GF110? Betere overcurrent protection, want revolutionair beter presteert een GTX580 niet ten opzichte van de GTX480, zeker niet op gelijke clocks.

Het is eigenlijk van de gekke dat een kaart op de markt word gebracht die voortdurend moet worden gedownclocked om zichzelf niet op te blazen, de GTX580 kan als je de OCP omzeilt al 330W+ uit de muur trekken en het was dan ook in mijn lijn van verwachtingen dat de GTX590 letterlijk met vuurwerk zou worden begeleid.

Nvidia speelt een riskant spelletje met deze chips, ze hadden ofwel een hardwarematige limiet op hun kaarten moeten wat verbruik betreft, of dusdanige overcapaciteit op de VRMs moeten zetten dat het beest unlocked en unleashed zichzelf niet zou slopen. Daar hadden ze hoge ogen mee gegooid. Mijn verwijt dat ze geen van beide hebben gedaan terwijl ze op de hoogte zijn van het verbruik van GF110 en het bestaan van overklokkende fabrikanten en gebruikers, blijft staan. Deze chip is nu een liability, en kan rekenen op een hoop RMAtjes door voltage-happy gebruikers. [/achterafishetmakkelijklullen-mode]

Ik vind dat deze kaart gewoon te gehaast op de markt is gebracht om de HD6990 bij te houden, en Nvidia betaalt daar nu flink voor. Of de schuld van de kapotte kaarten nu bij de fabrikanten met custom biosjes, kostenbesparend ontwerp door nV of enthousiaste gebruikers ligt, deze kaart was niet klaar voor de markt bij release.

[Reactie gewijzigd door Singular1ty op 31 maart 2011 17:45]

Nvidia speelt een riskant spelletje met deze chips, ze hadden ofwel een hardwarematige limiet op hun kaarten moeten wat verbruik betreft, of dusdanige overcapaciteit op de VRMs moeten zetten dat het beest unlocked en unleashed zichzelf niet zou slopen
De 1e fail safe is de driver. De 2e fail-safe, voor als de driver faalt, zit blijkbaar in de BIOS... en die is dus blijkbaar in sommige custom biossen gebroken...
2 lagen protectie dus. Hoeveel fail-safes moet je inbouwen als fabrikant?

Ik ben het overigens wel met je eens dat een hardwarematige check hier beter was geweest. Maar tenzij je met fysieke zekeringen wil gaan werken (lijkt me niet) moet ook zo'n check en de acties daarop worden aangestuurd door software, dus ook daar is de BIOS een goede kandidaat. Tja, zou je een soort schaduwbios moeten implementeren waar de AIB's niet bijkunnen. Maargoed...
Mijn verwijt dat ze geen van beide hebben gedaan terwijl ze op de hoogte zijn van het verbruik van GF110 en het bestaan van overklokkende fabrikanten en gebruikers, blijft staan.
Dat de 2e fail safe - die dus blijkbaar voorkomt dat een user OCP overruled - lijkt te zijn stukgemaakt in de custom bios van enkele AIB's is een ontwerpfout van nVidia?

Kun je het de ontwerper van een airbag aanrekenen dat door gerotzooi van de autoverkoper in het dashboard de airbag lekgeprikt is en zodoende bij een botsing geen bescherming meer bied?

Inschattingsfout wil ik in meegaan. Ontwerpfout vooralsnog niet. Zolang het ontwerp wordt aangehouden doet het 't namelijk uitstekend (even gezien de bekende gevallen tot nu toe en er van uitgaande dat de statement van nV klopt uiteraard).


Dat 'te krap bemeten' komt er momenteel bij mij eerlijk gezegd ook nog steeds niet echt in.
Als je te krap bemeten hebt meldt je niet aan je reviewers dat overklokken prima en overvolten ok is tot ongeveer ~1.025V -> en daarop hebben ze voorzeker een marge genomen. Op een reviewtafel stervende hardware is zo ongeveer de nachtmerrie van elke fabrikant (hear,hear), dat ga je niet welbewust met glimlach opzoeken - ook nV niet ;)
TechReport, die eerder zelf een kaart met 'fout' bios verbrandde op ~30% (!) overvolt, heeft de vele geruchten afgelopen woensdag (!!) al tegen hun huidig reviewexemplaar met geupdate drivers aangehouden en bij hun niets ervan waar kunnen vinden. Met een overlock met overvolt ook niet; niet eens bewijs dat de kaart zich dan terugklokte en/of performance terugliep t.o.v. eerdere drivers. Dit was al diezelfde dag bekend op het forum, maar staat niet vermeld in dit artikel.

*****
Deze discussie is trouwens precies waarom geruchten en conspiracy theories zo schadelijk zijn, en waarom reputabele techsites moeten oppassen met wat ze neerpennen: the damage has been done, en je kunt als fabrikant vrijwel nooit bewijzen dat het niet waar is; als het eenmaal los is ben je aan de goden overgeleverd en is de schade niet te overzien, want bijna niemand durft je product nog aan. Standaardgedachte immers: "waar rook is..." dit keer letterlijk.

Vergeet niet, we hebben het a.t.m. v.z.m.b. nog steeds over maar 4 bevestigde dode kaarten in het retailkanaal. Wereldwijd. En nVidia heeft eergisteren al bevestigd dat er een AIB custom bios probleem is/was.

Zelfs Semiaccurate (redacteur Charlie Demerjian -> altijd fel anti-nVidia) en TheInquirer hebben er nog geen artikel aan gewijd, en Fuad van FUDZilla een heel kleine voorzichtige waarin ze aangaven dat er wat geruchten waren, zij die op hun overklokte reviewhardware niet hebben kunnen staven, en ze hebben nV's statement daarbij gezet. Blijkbaar wachten ook zij allemaal op concretere info.

Waarom Tweakers er dan met 2 benen tegelijk in moet springen:
- naar ik vermoed zonder uberhaupt nV te contacten hierover,
- zonder de geruchten tegen hun reviewexemplaar aan te houden (de voorstellen voor diverse concrete tests mogelijk liggen op t forum voor het oprapen),
- zonder het commentaar van TechReport - een respectabele techsite - mee te nemen,
- en zeker zonder de eerdergenoemde statement van nV die al woensdag bekend was (!!) mee te nemen... tja.

Laten we het er op houden dat ik dit artikel zeer voorbarig en behoorlijk uit balans vind. En dan druk ik me m.i. voorzichtig uit. Head over heals vooruitlopen op de roddelsites - en dan zeker zo - is zelden een goed plan.

[Reactie gewijzigd door Cheetah op 1 april 2011 02:15]

Makkelijk gezegd over de failsafes. Maar is het in de eerste plaats niet de vraag waarom er uberhaupt failsafes nodig zijn? Is de rest van de kaart dan niet gewoon inferieur ten opzichte van de GPU die erop zit? Dat zou dus betekenen dat het ontwerp gewoon onder de maat is, en dat word nu dus bevestigd door een aantal kaarten die het niet trekken en doorbranden. En in dat geval lijkt het me heel terecht dat (o.a.) tweakers.net hier meteen bovenop zit. Ook al zijn er momenteel nog maar 4 bevestigde gevallen in de wereld.

[Reactie gewijzigd door ravenamp op 1 april 2011 13:38]

Kleine correctie: TheInquirer heeft er vanaf 25 maart aandacht aan gespendeerd.

(Nvidia's GTX590 fried by an old software driver)

Toen ik hen op de suggestieve/incorrecte titel wou wijzen, bleek hun reply-form niet correct te werken...
Dan blijft het raar dat NVidia zijn partners toestaat om de GTX590 met zo'n hoge kloksnelheden en zo'n hoog verbruik te leveren. Het is niet ongebruikelijk dat NVidia of AMD daar geen toestemming voor geeft, voor kaarten die qua verbruik heel wat minder gortig zijn dan deze kaart. Zeker aangezien de hardware geanalyseerd is door enkele reviewsites en het PCB toch echt gewoon niet voor hoog gebruik gemaakt lijkt te zijn. De hardware is gewoon niet goed gemaakt voor wat de kaart moet kunnen. Dit weet NVidia zelf natuurlijk het beste dus daar mogen ze dan ook wel op letten.

Andere kaarten van NVidia komen op stockinstellingen ook gemakkelijk ver boven het TDP en dat maakt weinig uit omdat elke hardwarefabrikant weet dat je wat marge moet inbouwen. Zo niet, dan kan je deze kaarten dus in een warme zomer niet gebruiken en dat lijkt me niet de bedoeling. Als je hardwarematig de boel niet op orde hebt voor hoog TDP of iets hoger voltage, dan mag je wel zorgen dat je heel strak controleert welke BIOS'sen er op draaien en welke instellingen de partners gebruiken. Je weet dat reviewers furmark gaan draaien, en dan gaan videokaarten al jaar en dag keihard over het TDP heen. Met fermi zelfs meer dan ooit dus dat verwachten ze echt wel.

Er is wel vaker een kaart mislukt door custom gepruts van een partner, maar dat is meer uitzondering dan regel. Nu lijken er een aantal partners tegelijk kaarten te leveren die het begeven - dan mag NVidia zich toch wel achter zijn oor krabben...

[Reactie gewijzigd door bwerg op 31 maart 2011 18:26]

Wat ik zeg. Je kan altijd over de grens van een kaart heen maar bij Fermi is dit tot nu toe wel erg makkelijk gebleken. Daar moet je als ontwerper rekening mee houden door een hufterproof product op de markt te brengen.

Je kan stellen dat de daadwerkelijke TDP bij de overleden kaarten ver over de gestelde limiet heen ging, prima, maar je weet dat twee GF110s op 1 PCB dat kúnnen verbruiken, en daar moet je vervolgens op anticiperen.
Overclocken hoort ook niet hufterproof te zijn. Overclocken houdt een risico in, en je kiest zelf of je dat risico wil nemen. Alleen is het een beetje duaal dat fabrikanten overclocktools in hun drivers steken.
Het gaat niet om de drivers maar om het powercircuit van de kaart, oftewel de hardware. Met het downclocken kan je dat softwarematig verhelpen, maar feit blijft dat die kaart dus niet berekend is op 100% vermogen.
Right. Als je de Tweakers revieuw van de GTX 590 vs HD 6990 er bij pakt zie je dat terugclocken ook weer een ramp veroorzaakt, een commerciële. De GTX 590 blijkt daar al zo duur te zijn qua bang/buck.
Het gaat niet om een driver probleem, Nvidia heeft de kaart gewoon uitgerust met VRMs die het vereiste vermogen maar nét trekken, op stock snelheden. De drivers omhelsen een overcurrent protection door softwarematig terug te clocken, maar dat is natuurlijk een doekje voor het bloeden en niet hoe de kaart bedoeld is. Ze doen dit al sinds de 580, die nauwelijks meer voorstelt dan een GTX480 met betere OCP om de temperaturen binnen de perken te houden, maar het probleem is hier gewoon een goed ontwerp dat slecht word gebouwd om kosten te drukken.

Dat hele terugklokken word ook nog eens irritant over een jaar of 2-3, als games dusdanig zwaarder zijn dat wél beroep word gedaan op het volledige vermogen van de kaart en je framedrops krijgt omdat de drivers vinden dat de kaart lui moet zijn...

Edit: Eensch met GENETX dus.

[Reactie gewijzigd door Singular1ty op 31 maart 2011 14:19]

Het leek mij al raar, je kunt het softwarematig terugklokken van een kaart toch geen oplossing noemen.. Zelfs als dat gewerkt zou hebben betekend dat dat je een kaart aanschaft die niet voldoet aan wat je ervan mag verwachten, aangezien hij niet altijd volgens specificaties op vol vermogen kan draaien :?
Uit het artikel: Het zou kunnen dat Nvidia de GTX 590 ontwikkelde met een verbruik van rond de 300 in plaats van 364W. Nadat AMD echter met de HD 6990 kwam, met een maximaal verbruik van 375W, pastte Nvidia de GTX 590 aan om de strijd aan te kunnen gaan met de HD 6990. Het powercircuit zou niet berekend zijn op het hogere verbruik dat door de hogere kloksnelheden wordt veroorzaakt.

Dus waarschijnlijk getest op 300W en vervolgens met 346W de fabriek laten uitrollen.
Wat nergens bewezen is en puur speculatief is.... Ik zal niet ontkennen dat er een (brand)luchtje aan de GTX590 zit, maar er wordt in veel artikelen, inclusief dit bericht hier op Tweakers veel te veel gespeculeerd over zaken die totaal niet bewezen zijn.

Nu mag je best een artikel wijden over zaken die niet goed lijken te zijn, maar het wattage verhaal wat Marc hier opsteekt is wel heel ver gezocht... Helemaal als je bedenkt dat er sites zijn die >450watt van de kaart trekken.
valt gewoon onder de garantie en word dus gratis gefixed.

[Reactie gewijzigd door stewie op 31 maart 2011 15:15]

Met een driver ja 8)7

<hoed=alu>
nVidia heeft gewoon een lekker snelle driver met hoge prestaties op de markt gezet, zodat de grafiekjes van alle reviewers aangeven dat de 6990 geëvenaard wordt.
Nu zijn de reviews geschreven, en kunnen ze gas terug nemen in de driver. Ik ben dan ook erg benieuwd om te zien of deze driver gelijk presteerd.
</hoed>
Scherp, je maakt hiermee een heel goed punt! De grafieken zullen immers niet worden aangepast.

Om overigens even op kevinwalter in te haken: ATi heeft historisch gezien een naam omdat sommige personen die nogal "merkvast" zijn (in de volksmond ook wel fanboys genoemd) dit tot aan het einde der dagen zal blijven herhalen. ATi is inmiddels flink opgekrabbeld, en daarentegen is nVidia verre van heilig. Zo zagen we een jaar geleden een aantal typen kaarten doorbranden doordat de drivers de koeling niet goed aanstuurden, om maar een redelijk recent voorbeeld aan te halen.

Voor de gemiddelde gamer is het hele driververhaal wat als anti-ATi argument wordt gebruikt echter compleet achterhaald. De enige personen van wie ik ooit een goed gestructureerde uiteenzetting heb gelezen over waarom ze nVidia preferen vanwege de drivers is omdat ze in OpenGL devven en dat nVidia hier net wat betere support op biedt.
whaha :P da's een soort xml op die manier
moderner dan die ouwe html blokhaakjes
dat wel, maar het is toch erg iritant dat je je kaart een X aantal dagen/weken kwijt bent

het lijkt me wel dat dit mss Nvidia de das omdoet in de GTX590 - HD6990 strijd
veel mensen die dit lezen zullen toch liever de HD6990 kopen
maar dan kun je de pc niet blijven gebruiken.

ik heb liever iets wat goed werkt voor 20euro meer
als iets wat ik 10 keer "gratis" moet laten repareren.
Ik heb liever iets dat één keer gerepareerd hoeft te worden, dan een heel forum vol met mensen die dan overdrijven dat het 10 keer "gratis" gerepareerd moet worden...

Ik begrijp je punt, maar het gaat hier natuurlijk niet om 10 keer laten repareren, want 1. zo'n bord is never nooit meer te gebruiken, en 2. het probleem is softwarematig al opgelost...
Jou tweede argument is onjuist.

Rechtstreeks vanuit het artikel: "Het lijkt er op dat Nvidia's softwarematige oplossing om het verbruik te beperken niet altijd even goed werkt."

Het probleem is dus niet "opgelost". Het is in zekere zin alleen maar erger geworden, want er zijn nu gebruikers die denken dat hun 590 het niet gaat begeven met die nieuwe drivers omdat jij zegt dat het probleem al is opgelost.
Die mensen zullen jou hartelijk dankbaar zijn :).

Het ergste is, vind ik (imo), dat nVidia weer eens met software oplossingen komt terwijl het gewoon een te zwakke printplaat heeft gekregen. Dus onderklokken/volten/chargen of w/e en ze zeggen dat het probleem is opgelost. Dat is goud geld besparen, Intel had gewoon een terugroepactie gedaan, net als elk ander zelf-respecterend bedrijf.

Het is misschien imago verlies, maar het is erger wanneer ze het probleem aankondigen als zijnde opgelost terwijl er nog steeds kaarten sneuvelen.
Dat heeft een bepaald doofpot-gehalte.
Een softwarematige oplossing is leuk maar mag nooit een permanente oplossing zijn. Als je je pc opnieuw installeert en dit vergeet dan is je kaart na 3 jaar ofzo kapot terwijl je er zelf niks aan kon doen.

edit:

niet dat mensen die dergelijke kaarten kopen er 3 jaar mee doen, maar misschien zit broer/zus/vriend/familie dan met het probleem.

[Reactie gewijzigd door Kevinp op 31 maart 2011 15:03]

Inderdaad, goede toevoeging aan mijn post, thnx.
Intel heeft dat ook op een buitengewoon pijnlijke manier geleerd. Ik weet niet of je weet van de dividerbug in de Pentiums? Al een flinke tijd terug, maar ik herinner het me nog goed. Toen hielden ze ook voet bij stuk: Niets aan de hand. Toen ze het probleem toegaven moest je bewijs leveren dat je er echt last had in je toepassingen wilde je je cpu omgeruild krijgen. Paar maanden later was de hele naam voor jaren besmeurd en ruilden ze alle foute Pentiums om, echter zocht ik al naar een geschikte AMD.

Laten we hopen dat nVidia het niet op zo'n manier hoeft te leren en gewoon kaarten terugroept mocht het nodig zijn voordat de slechte pr ze ècht gaat kosten. Als de kaarten toch niet zo brak blijken te zijn en de software werkt nu wel goed, zitten ze nog met een heethoofd van een chip en is prestaties het enige wat deze kaart nog heeft(en zelfs die zijn niet je van het), mocht nu later blijken dat de kaarten echt moeten omgeruild zitten ze met veel meer problemen, en zal de financiële aderlating veel groter blijken dan alleen de kosten van de omruilactie(bij welke ik me af zou vragen waarmee ze om gaan ruilen, twee GTX570 kaarten of mag je maanden wachten op een GTX590 met aangepast pcb?)en dat juist nu ze de adem van AMD heet in de nek voelen als nooit tevoren*). Daarbij komt dat des te langer ze wachten met omruilen des te meer er is om om te ruilen. Over imagoverlies weet ik het nog niet, maar over het marktaandeel wel.
*:http://tweakers.net/nieuws/72363/intel-versterkt-aandeel-op-gpu-markt-ten-opzichte-van-vorig-jaar.html && nieuws: Marktonderzoek: AMD heeft Nvidia ingehaald met gpu-verkopen
maar dan kun je de pc niet blijven gebruiken.
De meeste mensen die zo'n dure kaart kopen zullen nog een paar van de vorige kaarten in de kast hebben liggen...
"Gratis" laten repareren of vervangen is vaak niet echt gratis. Je moet de kaart immers uit je PC halen en opsturen of naar de winkel rijden. Dat kost allemaal tijd, moeite en geld. + Ik vraag me af wat voor schade een doorfikkende videokaart nog meer aan je PC kan aanbrengen.
waarom hebben mensen nog steeds het idee dat ATI/AMD slechte drivers hebben??

Hebben die mensen de laatste 5 jaar onder een steen geleefd ofzo??
Twee dingen waar mensen net ezels zijn; a) waar rook is, is vuur en b) wat de boer niet kent, lust die niet.

Radeon drivers zijn al goed langer dan 5jr, is mijn persoonlijke ervaring. Maar ja, ik gebruik dan ook geen laptop en/of linux, daar waar ik weet dat Ati weles steekjes laat/liet vallen. Voor de Windows desktop vind ik ze al jaren goed. Minstens zo goed als Nvidia, waar ik, net als bij Ati, minstens zovaak tegen driver issue's aanliep icm met sommige spellen.
a) waar rook is, is vuur
Je bedoelt zeker:
waar rook is, is een Nvidia kaart ;)
haha +1 humor

OT: Het moest ervan komen NVidia, heeft bezuinigd op het stroomcircuit omdat ze in eerste instantie geen dure nodig dachten te hebben. Toen AMD de HD6990 uitbracht was het even slikken voor NVidia omdat ze doorhadden dat hun nieuwe 590 niet kon tippen aan de nieuwe kaart van AMD. Vervolgens hebben ze de kloksnelheid en voltage opgevoerd in de hoop AMD te kunnen bijbenen met alle gevolgen van dien.

Conclusie deze kaart was nooit bedoeld om op deze hoge stock snelheden te draaien.
Die Physx zorgt zeker voor realistische vuur effecten.
Ik heb soms het idee dat "die mensen" niet zo zeer problemen met de drivers hadden maar meer met de lay out van de driver console. Die was van ATI wellicht wat onhandiger als die van Nvidia. Ik heb weinig last gehad van slechte drivers omdat ik niet gelijk de nieuwste installeers als die net uit zijn. En van alle videokaarten die ik gebruikt heb (van Voodoo1, Nvidia TNT, Geforces 1, 2 3 en 4 en ATI800XT, 4870, Nivdia 8800 GTS, GTX260 (SLI)) die werkten stuk voor stuk goed, ook de drivers. Nu met WIN7 en voorheen met WIN 98SE de minste problemen gehad.
Mja bij AMD kom je net nog iets meer tegen dat je een driver zoekt die werkt voor jouw games en daarna update je nooit meer.
Bij NVIDIA update je dan weer wanneer er een update komt maar regelmatig zitten er dan ook bugs in. En soms zijn ze ernstig genoeg om je hardware te vernietigen.

Ik heb maanden 10.4 gedraaid voor de 5970 en pas naar 10.12 gegaan toen ik VLC 1.1 begon te gebruiken (gpu acceleratie) omdat anders enkele UE3 games niet meer deftig werktten met versies ertussen.
Zo'n dingen ben je gewoon als AMDgebruiker en gebeurd al 10jaar. Liever heb ik dat dan NVIDIA die mij zit te bestelen en uiteindelijk ook geen perfecte support geeft.
AMD Drivers doen het anders goed op me laptop en onder linux heb ik ook nog geen problemen gevonden
Nee, geleefd onder een GeForce 4 MX 440 =D
Waarom is dit niet het geval bij ATI dan die bekend staat om de slechte drivers?
Waar slaat dit nou weer op ? Vroeger was het misschien zo ja maar tegenwoordig niet meer, daarbij hebben allebei de kampen wel eens last van driverproblemen.

Trying to start a flame war ?
[...]


Waar slaat dit nou weer op ? Vroeger was het misschien zo ja maar tegenwoordig niet meer, daarbij hebben allebei de kampen wel eens last van driverproblemen.

Trying to start a flame war ?
Er moest eigenlijk al een lichtje gaan branden omdat hij de naam ATi gebruikt, ipv AMD. ;)
Deze zetten er een enorme koeler op! niet om aan te horen maar wel safe.
ze lopen de kantjes er niet af :P
Wat is dat nou voor kulopmerking, het heeft niets met drivers te maken, een wijziging in de drivers zou het probleem 'kunnen' verhelpen. Het probleem zit hem echter in de BIOS van bepaalde fabrikanten en gebruikte hardware onderdelen, maar dit zou dan via software omzijlt kunnen worden, logisch dat ze dat op die manier proberen want niet iedereen zal zomaar even zijn kaart gaan flashen met een nieuwe BIOS. Echter is dit natuurlijk geen nette oplossing, de kaart is simpelweg ondergedimensioneerd, slechte zaak!

En als je dan gaat mekkeren over ATi (AMD) Drivers, spreek dan aub uit ervaring en praat niet elke n00b na. AMD heeft al tijden super drivers voor hun kaaren. Ik werk in een computerzaak en heb telkens met de nieuwste kaarten en drivers te maken, ATi krijgt van mij op dit moment zelfs de voorkeur als ik advies aan klanten geef. Op dit moment zou ik geen nVidia kaart kopen, ook mijn 6970 doet het supergoed in elke game.

[Reactie gewijzigd door BruT@LysT op 1 april 2011 12:23]

De nieuwste driver verhelpt het op deze manier --> de kaart wordt gedownclockt met 10%, van 550MHz naar 500MHz (dual GPU)

Gaat toch wel ten koste van de performance, niet dat het zoveel uitmaakt aangezien je nog steeds met gemak alles kan draaien..
Maar doordat ze 10% downklokken betekend dat de prestaties ook ~10% omlaag gaan. Oftewel, ze claimen de snelste kaart te hebben, maar doordat ze nu 10% langzamer zijn, is eigenlijk de HD6990 sneller.
De HD6990 is overall eigenlijk al net ietsjes sneller dan de GTX590. nVidia claimde met 550 MHz al de snelste te zijn maar dat is eigenlijk niet zo. Verschil is klein maar op hogere resoluties is de HD6990 toch echt sneller. (wel erg afhankelijk van de games)

Nu verliezen ze het 100% zeker als die 500 MHz een definitieve fix wordt. Echter denk ik dat alleen de clockspeeds verlagen niet voldoende is. Voltage is juist het gene wat voor een hoog verbruik zorgt. Als het voltage gelijk blijft zal de belasting maar iets verminderen.
is dat niet een geheugenkwestie op hogere resoluties? Bij HWI kwam de 590 beter uit de test, maar die gebruikte nog resoluties van de vorige eeuw.
als je de kaart gebruikt voor resoluties waar het echt uitmaakt dan is de HD6990 dus sneller. Als je zo'n kaart koopt dan ga je niet op een lage resolutie gamen, dus dat boeit niet. afaik is de HD6990 dus sneller.
De GTX590 heeft een standaard kloksnelheid van 607 Mhz. Weet niet waar jij de 550Mhz vandaan haalt..?

Als je verhaal over de 10% klopt zou de GPU op zo'n 546Mhz gaan draaien. Echter lijkt mij dit zeer onwaarschijnlijk. Je koopt een videokaart met de specificatie van 607Mhz core clock. Dan kan een fabrikant niet zomaar achteraf het product aan gaan passen. Dan kan je de core clock ook bij t uitbrengen op 800 Mhz zetten, en er wel even bij vertellen dat als je m op die snelheid niet kan gebruiken, wat uiteraard nergens op slaat.

[Reactie gewijzigd door Ch3cker op 31 maart 2011 14:18]

Correctie: had een standaard kloksnelheid van 607 MHz... Die is inmiddels al verlaagd naar 550, en gaat in de nieuwe update (267.91) naar 500 als het ding een beetje belast wordt.
Voor zover ik kan zien is er nog geen hard bewijs dat de videokaart daadwerkelijk onder load wordt teruggeklokt. Misschien heb jij dat wel, en kijk ik er overheen. Zou je dit even met ons allen kunnen delen, in dat geval?
Precies! Dat was ook mijn eerste gedachte; her probleem is namelijk niet verholpen met alleen een softwarematige downgrade. Je koopt immers een High-end kaart voor zijn prestaties. Bovendien weten ze bij NVIDIA ook wel dat gebruikers van dit soort kaarten met overclocken aan de slag gaan.
NVIDIA of een van de genoemde 3-rd party fabrikanten zouden er goed aan doen alle verkochte modellen met het slechte circuit terug te halen en om te ruilen voor een hardwarematig aangepast- of nieuw exemplaar.
Dit is een slechte oplossing en slechte service!
Tja, maar waar koop je dan een high-end dual GPU kaart voor :)
Dat is nogal tegenstrijdig als ik eerlijk ben. Je koopt een High End kaart, die zijn belofte niet waar kan maken, en vervolgens is de optie hem maar onderklokken met zo'n 10%?

Dat betekent dat je voor een euro of 200-300 minder, twee kaarten had kunnen kopen met een snelheid van 500MHz die wel gewoon op 100% kan functioneren. Ik vind dit dan ook niet echt een nette oplossing. Ik begrijp dat je wilt voorkomen dat hij alsnog de geest geeft (garantie of niet), maar 600 euro neertellen voor een kaart die niet naar behoren functioneerd dan maar naar beneden klokken, vind ik een magere oplossing.
Jep, voor bijna 300 euro minder heb je twee 6950s (unlockbaar tot 6970) in crossfire, die samen dikkere prestaties neer kunnen zetten, en hou je dus geld in je zak voor een deftig scherm dat daarbij past of een SSD, kortom, dingen die zinvoller zijn.

De nieuwste generatie dual-GPU kaarten is imho een aanfluiting, de prestaties zijn het geld niet waard en issues zoals een driver die je kaart permanent downclocked om de boel heel te houden... Ik zou me bestolen voelen als mijn insteek was de snelste GPU ter wereld in m'n PC te zetten en deze kaart had gekocht. Als Nvidia nou met een fatsoenlijke oplossing kwam, zoals het vervangen van de meuk die in deze vorm nooit had mogen worden geproduceerd, maar nee.

Het voelt alsof je bij de dealer voor de hoofdprijs een Lamborghini koopt en de medeling krijgt dat je er vooral niet buiten de bebouwde kom mee moet rijden, omdat 'ie anders stuk kan, sterker nog, Nvidia begrenst zijn 'Lamborghini' vanuit de fabriek op 120KM/u. Tuurlijk, de gemiddelde Nederlander hoeft er niet harder mee te rijden, maar je betaalt natuurlijk wel gewoon dik zodat het kan. :-(
Jaaaa, maar dan heb je niet meer de snelste kaart... Waarom zou je een Ferrari rijden als je hier toch niet sneller dan 130 mag (if ever), en een beetje sportkar je eruit trekt?
Hoezo, dan heb je niet meer de snelste kaart? Nee.. dan heb je juist twee kaarten die samen minder kosten en beter presteren. Wat boeit het nou dat je niet de snelste kaart hebt, het gaat om prijs/prestatie. Voor 400 EUro heb je gewoon betere prestaties dan de 6990 of GTX590.
Twee kaarten gaan soiezo beter met verbruik/koeling overweg. Heb het ook nooit echt gehad op de DUAL GPU kaarten, voor ATI geldt precies hetzelfde, tis echt niet verstandig om kaarten als 6990's en 5970 etc. aan te schaffen, veel te duur in verhouding, veelal underclocked en problemen met vermogen/hitte. Dat soort kaarten gaan vaak al niet langer dan een jaar mee en zijn puur bedoelt voor marketing. Die kaarten zijn eigenlijk niet voor end-users, maar toch zijn er mensen zo gek.

Daarnaast is er ook eigenlijk maar 1 doelgroep die deze kaarten zullen kopen, en die nemen er dan ook gelijk twee. Want als je zoveel geld hebt heb je natuurlijk wel een SLI/crossfire moederbord, kan niet missen. Dan is 2x singleGPU top-end kaart een goedkopere en betere oplossing, dus als je dan gaat voor een 600 Euro kostende Dual-GPU kaart is daar maar 1 reden voor, nog meer prestaties willen halen dan met twee losse single-GPU kaarten mogelijk is!, En dat doe je door 2x een Dual-GPU kaart in je systeem te hangen. Behoorlijk niche markt dus!
Iedereen die dus maar een enkele Dual-GPU kaart in zijn PC heeft zitten is verschikkelijk dom en heeft daar niet intelligent over nagedacht. Maar zeker 99% van de wereld kan niet logisch nadenken, dus die kans is nog vrij groot ook!
En dan vind ik het persoonlijk wel erg leuk dat ze nu in de aap gelogeert zijn door nVidia, ik voelde dit probleem al aankomen, tjah dat krijg je nou als je altijd nr 1 wilt zijn met dit soort videokaartjes, ik heb die les 10 jaar geleden al geleerd en doe dat dus ook niet meer.

[Reactie gewijzigd door BruT@LysT op 1 april 2011 13:01]

Dat er iets niet goed is lijkt me duidelijk. Maar een kaart die gemaakt is voor 300 zou in het geval van een High end kaart als deze ook prima 375 aan moeten kunnen. Er zijn mensen die GTX480 kaarten ook gingen overclocken en dan ging je over de 400 heen. Als dit zo krap is hadden ze op 300 denk ik ook problemen gehad (wellicht alleen niet zo snel als nu het geval is).
Vergeet niet dat ze de kloksnelheden van de kaart al drastisch verlaagd hebben om binnen de richtlijnen te kunnen blijven; zoals hier blijkt, zitten er gewoon te weinig van de juiste onderdelen op de kaart.

Met andere woorden: design is niet gericht op deze stroomconsumptie. Fuckup dus.

En, jij zegt dat iets wat 300W aankan, ook 375 aan zou moeten kunnen? Van 300W naar 375W is factor 1,25, dat is niet niks.. Er zit wel wat marge in, maar zoveel? (blijkbaar niet in ieder geval) maar 25% marge is sowiezo vrij veel.

[Reactie gewijzigd door Pixeltje op 31 maart 2011 14:22]

Er zat volgens wat rekenkundige grappenmakers 10x35A aan MOSFETs in, dus 350A, ruwweg 340 W... Da's net aan 10% marge over de bedachte TDP, en om dat daarna op te voeren naar 375W betekent gewoon Failing By Design.
Dat is vrij slecht nieuws voor de gebruikers maar duid er vooral op dat Nvidia haastwerk aflevert. Als ze nu gewoon eens grondig getest hadden zoals het hoort dan hadden ze dit toch al kunnen zien aankomen en hardwarematig oplossen? Nu proberen ze hopeloos te knoeien met exe's. Komaan hé, da's je eigen ruiten ingooien. Haast en spoed is zelden goed.
Ik vind dit geen overbodig comment.. En ben het volkomen eens met Lorefice.
In de race tegen AMD heeft Nvidia mijns inziens al verloren, als ze hun dual gpu kaarten moeten software tweaken om ze functionerend te maken terwijl ze al niet sneller zijn dan de 6970 dan is dat een slechte zaak.

Denk ook eens aan het overklokpotentieel van deze kaarten.. Die is er niet :)

Dit komt overigens niet van een AMD fanboy.. ik heb zelf 2 Nvidia kaarten en ben dik tevreden, echter vind ik wel dat ze beter werk moeten leveren om in de race te blijven.
Neem daar bij dat AMD dusdanig vertrouwen in de kaarten had dat ze nog met een AUSUM-switch werden uitgerust voor uber-mode, en dat sommige fabrikanten daar gewoon garantie op leveren.

Uit de berichtgeving blijkt dat je duidelijk niet moet proberen een GTX590 op GTX580 snelheden te zetten, kortom, dit is een zware klap voor Nvidia na de aanvankelijk zeer positieve berichtgeving over hun nieuwe dual-GPU kaart nu blijkt dat Fermi nog steeds niet rijp is om AMD van de prestatietroon te stoten.
Je hebt ALTIJD garantie. Wettelijk gaat het feest van een knop op een kaart zetten om de performance te verhogen die je vervolgens niet mag gebruiken niet door. Die knop zit erop om binnen de officiële pci-e specificaties te blijven.
Je hebt garantie op je kaart, ook met gebruik van de knop..

Maar dus niet als je je voeding of moederbord sloopt omdat de kaart buiten de pci-e specs is gegaan en je overige hardware dat niet aankon. Daarom zit die knop er op.
Zo'n zelfde soort nieuws hoor ik ook over de GTX570, die ook "maar" over een 4+2 powerphase design schijnen te beschikken. Het gaat hier ook om het reference model.
Ik vind het persoonlijk wel licht schandalig te noemen dat bij dit soort highend kaarten bezuinigd wordt op de stabiliteit van de kaart.
In feite kun je zeggen dat de GTX590 zo gemaakt is dat hij nog net in leven kan blijven. Kwalijke zaak voor een kaart van 600 euro+ en dan maar een 4+2 design erop te zetten. Laten we hopen dat er snel custom-designs van alle fabrikanten gaan uitkomen met een 8+2 design ofzo zodat de problemen in ieder geval niet meer voorkomen.
Ik vraag me af wat hier mis is gegaan. De HD5970 bv heeft een beveiliging als de PWM meer dan 120c werd gaat de kaart automatisch terug clocken. Dit gebeurde pas als je 5870 voltages + clocks (of hoger) wou draaien met Furmark. Maar hij ging in ieder geval niet dood.
Dit is geen temp issue maar een voltage issue voor zover bekend. De gpu's overhitten namelijk niet, maar de vrm's lijken het niet te trekken door een nog onbekend probleem.

Het is ondertussen tot zover bekend dat het of de ocp software van nvidia niet goed functioneert of het ligt mogelijk aan het bios die een aantal merken zelf meeleveren.
Bijna alle kaarten die tot op heden aan dit euvel zijn gesneuveld hebben niet een reference bios, maar een aangepaste hoger geklokte/ander voltage variant die ze zelf erop gezet hebben.
Een exploderende VRM komt over het algemeen niet voor als dat ding op kamertemperatuur is. Als je hier het 2de thermische plaatje bekijkt dan zie je dat die VRM's op 112 graden zitten: http://www.hardware.fr/ar...avec-geforce-gtx-590.html

Ik noem dit een temperatuurissue. Verder vind ik Nvidia's reactie (een nieuwe bios ontwikkelen) wel raar als het volgens jou alleen bij de non-reference biossen voorkomt?
Ik had hier al iets over gelezen enkele dagen geleden. Iets van de fans die niet gingen draaien door drivers of iets dergelijks?

Is dit hetzelfde probleem of iets totaal anders?
Dit is totaal anders, hier is het gewoon dat het ding te heet wordt ondanks z'n draaiende fans ;) Sterker nog, het ding blaast z'n MOSFETs (spanningsregulatoren, kort door de bocht) op, die de load niet aankunnen.
Nvidia heeft geloof ik wel een geschiedenis met kaarten ,gpu`s,die oververhitten?

Dit maakt sommige consumenten juist huiverig een nvidia aan te schaffen,en al helemaal een 2de hands.

Is wel jammer want hoewel er niet echt een hemelsbreed verschil is tussen Ati en Nvidia`s kaarten,de physx is een leuk extra.

Ook het kunnen instellen van de shaders is interesant.
Jammer dat je dan nu weer hoort; Nvidia`s gpu`s oververhit.
Je kan op de foto`s zien dat het echt is doorgebrand.

[Reactie gewijzigd door Patecatl op 31 maart 2011 13:58]

Laatste grote probleem van nVidia was een probleem met de package van G80 en G92 kaarten (en volgens mij ook nog lagere modellen) de connecties werden dan slecht waardoor de kaart niet meer werkte. De kaart in een oven verwarmen kon het probleem dan tijdelijk weer oplossen.
Klopt, maar laten we wel wezen, als je voor zo'n product betaalt, wil je dat het werkt. Ik wel, tenminste. Mijn 7900GT was ook binnen 4 of 5 maanden doorgefikt, dat was ook al een productiefout (wilde XFX trouwens nooit toegeven, sindsdien geen XFX meer voor moi). Dan vervolgens de problemen met de 8800 serie, die zelfs nog niet geheel opgelost was met 9800. Dan komen ze vervolgens met de GTX480 waarvoor je een halve fukishima nodig hebt als aandrijving..... Persoonlijk, voor mij voorlopig geen Nvidia meer. In mijn nieuwe pc komt sowieso een AMD-kaart. Ik vertrouw er gewoon niet meer op dat ze bij Nvidia hun hardware grondig testen.
Daarom koop ik nooit gelijk kaarten/cpu/mobo's die net uit zijn :)
Het komt vaak uit...:

Intel met z'n chipset, Nu nvidia weer.
Der zitten tegenwoordig vaak "kinder ziektes" in.
Druk erop zetten om de producten de deur uit te krijgen en daarna hard tegen de muur lopen.

ps heeft nvidia niet eerder problemen gehad met drivers
Staat me iets van bij dat een driver, de fanspeed te laag hield. Daar is toen ook menig kaartje mee gesneuvelt.
Ja inderdaad maar dit kan je geen kinderziekte noemen e. Nvidia test met grote batches hun kaarten, dit gaan zij dus ook gezien hebben maar het % dat dit zal hebben zal in de ogen van Nvidia toelaatbaar zijn. En dit allemaal om mee te kunnen met AMD...
Soms zouden ze beter eens wat opsteken van AMD, rustig verder werken aan je project zorgt er meestal voor dat je met een beter goed uitkomt dan de concurentie.
Ik weet dat met de 250 van ASUS de fan een enorme hoeveelheid lawaai maakte. (Dat is stock met de nieuwste drivers). Moest je ook eerst de firmware updaten dmv asus update en dan deed de fan het weer normaal.

Ook zon typisch voorbeeld van onder de maat testen.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True