Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 138 reacties
Bron: The Inquirer

The Inquirer, nooit afkerig van een gerucht hier en een knuppel in een hoenderhok daar, heeft ATi uitgedaagd vanwege een recent verschenen interne presentatie van het bedrijf. In de presentatie claimt ATi dat nVidia’s 7800 GTX met 512MB geheugen alleen sneller is dan de ATi X1800XT vanwege buitenproportionele opvoering van het voltage waarop de gpu van nVidia zijn werk doet. Op basis daarvan claimt ATi daarom dat een 7800 GTX slechts 1170 levensuren heeft voor het spelen van games. Omgerekend zou dit bij een gebruiksduur van drie jaar neerkomen op 7,5 uur gamen per week. Als een gamer de kaart vier jaar wil gebruiken, dan zou hij zelfs maar 5,7 uur per week met de kaart spellen mogen spelen. De X1800XT kan volgens ATi, niet geheel verrassend, 56 uur per week intensief belast worden als de kaart drie jaar mee moet; bij een levensduur van vier jaar mag een gamer de kaart 42 uur per week gebruiken. The Inquirer gelooft dit niet en heeft daarom zowel nVidia als ATi gevraagd om respectievelijk een 7800 GTX 512MB en een X1800XT te leveren. De fabrikanten mogen zelf weten of ze alleen de kaart of een volledig systeem aanleveren. De kaarten zullen vervolgens 1170 uur, 11 minuten en 7 seconden met 100% gpu-belasting aan het werk worden gezet. De maker van een overlevende kaart krijgt van The Inquirer een T-shirt met daarop de melding ‘I Survived the 1170 Hour 11 Min 7 Sec Marathon’.

ATi's interne presentatieslide over levensduur nVidia 7800 GTX 512MB

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (138)

1 2 3 ... 6
Ik denk niet dat het het zelfde resultaat geeft als je 1170 uur aan een stuk speelt of telkens een uurtje ( met een reboot ertussen )

ik denk daarom niet dat de kaart zal falen na 1170 uur
Precies de thermische belasting is dan veel gunstiger. Het steeds afkoelen en dan weer opwarmen geeft een extra belasting die je niet hebt als je het systeem continu vol belast.
De thermische belasting kan juist ook veel ongunstiger zijn omdat er nooit een moment is waarop de volledige kaart (en evt het hele systeem) kan afkoelen.

In de praktijk zie je vaak dat beide factoren een rol spelen. Soms is daarbij de ene belangrijker dan de andere.

In dit geval zou ik zeker niet zomaar willen concluderen dat er een extra belasting is voor de gpu als ie uit of aan gaat. (Voor een harddisk is het wel een bekende factor)
Als iemand die aan hoge temperatuur elektronica gewerkt heeft, kan ik bevestigen dat de temperatuurschokken erger zijn dan constante hoge temperatuur.

* 786562 RobT
Heb je het dan zuiver en alleen over de chips, of ook over de andere onderdelen die daar bij horen?
Ik heb het dan over de hele PCBs, dus zoals hier de hele videokaart.
Voor chips zelf spelen veel andere details mee, zoals dat de lijm waarmee de die op het leadframe geplakt wordt, bij langdurige blootstelling aan 150 graden C of meer, heel veel ellende in de chip gaat veroorzaken.
Ik denk dat het voor of na 1170 uur is. :P Statistich gezien is die kans wel erg klein ook al is de tolerantie nog zo nauw en de berekening nog zo exact. Maar nu even serieus.

Ik denk dat het continu belasten een even snelle of snellere degradatie geeft. De transistoren in een chip hebben niet zozeer te lijden van temperatuurspanning door uitzetten en krimpen ten gevolge van het aan en inschakelen van de 3D engine maar eerder door het gaan wandelen van elektronen. De minuscule transistorbridges zijn in het begin mooi glad maar hoe langer je ze onder spanning zet hoe ruwer de vorm wordt, waardoor je uiteindelijk steeds meer en grotere lekstromen krijgt waardoor hij uiteindelijk kapotgaat. Het verhogen van de voltage heeft een kwadratisch effect hierop. De temperatuur minder. Bovendien gaat het om zeer kleine oppervlakken en is thermische verwering daarop van ondergeschikt belang. Het gaat dus vooral om het voltage, niet om de temperatuur.

Ik denk dat het dus geen bal uitmaakt en je gewoon in 1x kunt testen. Anders zou het simulatieprogramma ook wel cycles aangeven en geen uren.
Er zijn meerdere soorten thermische belasting. In de praktijk is de stress die ontstaat door continue belasting even erg of erger dan de stress die ontstaat bij wisselende belasting. Bij electrolytische condensatoren telt vrijwel alleen maar de tijd dat zo'n ding warm is. Bij chips treden verschillende verschijnselen op, maar ik vermoed dat de eerste faillure mode die optreedt toch door migratie van materialen is, en die is ook vrijwel alleen maar afhankelijk van de tijd dat het ding vol belast wordt. Stress door warm worden en weer afkoelen treft vooral soldeerverbindingen en andere mechanische delen. Vaak wordt stress door constante belasting ten onrechte toegeschreven aan wisselende condities. Een apparaat dat niet meer opstart na uitgezet te zijn is vaak door continue belasting gewoon "op". Het uitzetten is dan niet de hoofdoorzaak van het falen.
De kaarten zullen vervolgens 1170 uur, 11 minuten en 7 seconden met 100% gpu-belasting aan het werk worden gezet.
Ben ik de enigste die zich afvraagt waarom dit getal gekozen is? Kan het niet gewoon 1200 uur zijn, ipv heel precies die 11 minuten en 7 seconden er nog bij :?
ATi claimt dan nvidia kaarten zo lang mee zouden kunnen gaan met 100% belasting, dus diegene die het overleeft krijgt een t-shirt..

Imho zouden ze die test 2,3 of zelfs 4x moeten doen, dus met 4 kaarten tegelijkertijd.

Je zou ook veel beter een uithoudingstest kunnen doen, welke kaart houdt het het langste vol? Dus niet tot de 1200 uur, want dan weet je niets, alleen dat die kaarten 1200 uur aan kunnen, maar gewoon doorstoken tot de het opgeven en de gemiddelde tijden noteren...
Ben ik de enigste die zich afvraagt waarom dit getal gekozen is?
De enige, misschien. ;)

Met deze test moeten deze kaarten volgens mij langer meegaan dan ze om de zoveel tijd aan/uit te zetten. Alles war warm wordt zet uit, alles wat koud wordt krimpt in. En alles wat beweegd gaat ooit is kapot. Dus meer beweging = sneller kapot gaan.
Ik vraag me alleen af waarom The Inquirer aan ATi en nVidia vraagt om een kaart te leveren. Ik wil niet meteen zeggen dat ATi en nVidia gaan vals spelen, maar het zou m.i. een betere test zijn, om de kaarten gewoon in de winkel om de hoek te kopen, zodat men zeker weet dat er niet geprutst is met de kaarten.
wat ik pas echt leuk zou vinden is als ze er een zouden vragen van ATI en Nvidia, en vervolgens er 2 of 3 kopen in de winkel om dat is te vergelijken :)
Tja, hetgene dat jammer is hier, is voor de zoveelste keer de betrouwbaarheid. Stel dat beide fabrikanten een kaart opsturen en de nVidia gaat 200 uur eerder kapot, dan zullen ze ongetwijfeld roepen dat de bewering waar is. Maar het gaat hier natuurlijk over statistieken en een test met maar n videokaart is volledig nutteloos en onbetrouwbaar. Laat ze maar voor elke kaart 10 identieke systemen opzetten en dan eens kijken wat er gebeurt.
Plus, het moet natuurlijk wel doorgaan na de geplande 1170h11m7s ;-)
hoe was het ook alweer? 53% van alle statistieken klopt niet? :+
statistieken kloppen meestal wel, alleen de conclusies niet ;)
"There are three kinds of lies: lies, damned lies, and
statistics." Mark Twain
en wat nou als ze beide stuk gaan voor die 1170 uur ?

Toch ben ik wel erg benieuwd hoe lang de transistors het op die chips het uihouden bij maximale belasting...

nu nog 1170uur/ 48.75 => 50 dage wachten... :P
ik denk dat de gamer het eerder begeeft dan de videokaart, aan non-stop full load.
en wat nou als ze beide stuk gaan voor die 1170 uur ?
Daar gaat het juist om: welke van de twee kaarten zal als eerste kapot gaan? Of kunnen ze (zoals geclaimd) wl die 1170 uur halen?
Ik ben geen gamer, maar vind deze actie van The Inquirer echt goed: laat de fabrikanten hun claims maar eens bewijzen in plaats van met allerlei getalletjes te goochelen... :*)
Ik ben er ook wel voor, maar waarom dient de fabrikant deze te leveren? Nu kan men gewoon een zeer goede kaart uit een van de betere yields nemen en zo al een voorsprong hebben. Beter zou zijn dat de Inquierer 2 random systemen van elk een koopt. Zo heb je tenminste weer een effektieve test die niet beinvloed wordt door betere yields en instellingen...

Weer een halverkorven kans om ze het deksel op de neus te vrijven...
Dit is misschien juist eerlijker. Op deze manier zal er inderdaad van zowel Ati als nVidia een heel goed exemplaar worden gebruikt.
Als je willekeurig 2 exemplaren in de winkel koopt is het best mogelijk dat je 1 goed en 1 slecht exemplaar hebt.

Het eerlijkst zou natuurlijk zijn een statistisch bruikbaar aantal (100 van elk ofzo?) kaarten van beide te kopen, ze allemaal te testen, en dan het gemiddelde + spreiding te bepalen.

[edit] typo's
T zou me niks verbaze als blijkt dat allebei de kaarten het overleven en het blijkt dat er iets anders in de testpc is doorgebrand(denk vooral aan de voeding)
Als de berekeningen in de slides kloppen, is het vrijwel zeker dat beide kaarten het overleven. Er staat immers in kleine letters bij dat na de genoemde tijd 1 op de 1000 kaarten het begeven heeft. Oftewel de kans dat die NV kaart kapot is, is 0.1%.

En aan de reacties te zien hier leest 95% van het tweakend publiek daar ook gewoon overheen. Marketing is tegenwoordig wel erg makkelijk met zoveel consumenten die zich graag laten inpakken :(
Ik denk dat ze het beiden niet halen. Meer dan 1000 uur een pc laten draaien kan gewoon nooit goed gaan.

Zowiezo een lompe test: laat dan de pc 100 uur draaien en dan 10 uur rust en dan weer 100 uur draaien en dan met meer dan 1 videokaart, 5 ofzo.
Mogen we zelf ook meedoen? Ik heb nog een geforce 6600 GT, die mag van mij ook wel stuk kan ik eindelijk een snellere kaart kopen (of garantie claimen).

Wat voor software kan je hiervoor gebruiken? Ik wil mijn kaart ook 100% stressen, ik wil de temperatuur hierbij wel eens meten=weten.

EDIT: Ik heb wel een vet programma gevonden!
Het duurt alleen niet echt 1140 uur maar slechts drie minuten...http://freestone-group.com/video-card-stability-test.htm
Ja ik snap het probleem bij Ati's claim ook niet, okee... het is ze goed opgevallen, maar als die nVidia kaart kapot gaat binnen de garantietermijn, krijgt de gebruiker toch gewoon een nieuwe... Geen probleem lijkt me. Alleen kost dat nVidia wat centjes....
ATI voelt zich gewoon flink genomen door Nvidia, want zij hadden deze zet natuurlijk nooit verwacht.

En nu gaan we maar mieren neuken, om ons als nog te late product wat slecht presteerd, om hoog te krijgen in de markt.

Hier trap ik dus niet in.
En hoe lang is die garantietermijn?
Wat als ze nou allemaal net na de garantie termijn kapot gaan?

Wellicht dat jij daar nooit mee te maken krijgt omdat je elke 6 maand de snelste kaart koopt, maar een heleboel andere mensen hebben er wel mee te maken.
de garantietermijn is 36maanden van de MSI 512mb kaart.
De kern van dit verhaal is als volgt:

De nVidia 7800 GTX had al een core voltage dat hoger lag dan het door TSMC aangeraden voltage voor hun 110 nm productieproces. Zie slide #4 van de presentatie.

Voor de 7800 512 MB "Ultra" GTX is de Vcore nog verder opgevoerd. Dat de levensduur van de 7800 Ultra minder zal zijn dan voor normale videokaarten ligt voor de hand, dat is een logisch gevolg van het standaard overvolten. Het grote punt is echter de "berekening" van ATi. Hoeveel korter die levensduur is valt niet eenvoudig in te schatten en daar gaat ATi met deze PR/FUD de fout in.
en als je even verder kijkt op bijvoorbeeld slide 13 stellen ze dat het uitschakelen van optimalisaties performanceverlies als gevolg heeft. daar is wel een groot onderzoek voor nodig om tot zo'n conclusie te komen hoor :D
Ja en?

Moeten we omdat er ook PR bullshit in de presentatie staat, de interessant delen die er ook in staan maar gewoon negeren?

Dit punt is namelijk gebaseerd op feiten van TSMC, en het is zeker de moeite waard om te analyseren in hoeverre de levensduur daadwerkelijk er door beinvloed word. (de temp bij de TSMC waardes is namelijk wat hoger dan je bij een gpu normaal gesproken hebt)
powerpoint slide show @ tech power up waar de theinquirer hun duel op baseerd
After all the good reviews NVIDIA got for their brand-new
de
7800 GTX 512 MB, ATI had to come up with ideas how to respond to this. Instead of building better products which are available at launch date, their marketing guys sat down and put together the following presentation.

While some points in here do give food for thought, I think none of them are really serious and many could be thrown back at ATI.
Leuk is dat, leg je een hele zak met geld neer voor zo'n kaart en dan blijkt dat ie voor een intensieve gamer, waar ie inmiddels voor is bedoeld, niet lang meekan... :+

En vergeet de tig LAN-party's niet mee te tellen
Voor iemand die voldoende geld heeft om nu zo een kaart te kopen moet die maar meegaan tot er een nieuwe topkaart is.
Zo'n proef bewijst natuurlijk helemaal niks. Het kan ook domweg pech zijn als een kaart stuk gaat, een ander exemplaar had het misschien veel langer volgehouden.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True