Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 155 reacties

Nvidia is vermoedelijk bezig aan een dual-gpu-videokaart om te concurreren met ATI's 5970, bestaande uit twee GTX470-chips. De chips zouden flink zijn teruggeklokt om de hitte en het stroomverbruik binnen de perken te houden.

De informatie komt uit een document dat de site KitGuru onder ogen kreeg. Het tdp van de GTX490 zou 375W bedragen; daarmee verbruikt de kaart flink wat meer stroom dan de 5970 van ATI, die aan 300W genoeg heeft. Om binnen dat tdp te blijven, zou Nvidia hebben gekozen voor twee GTX470-gpu's, die ook nog eens flink zijn teruggeklokt. Aangezien een enkele GTX470 al 215W trekt, gaat het hier waarschijnlijk om een stevige klokverlaging.

Als de geruchten kloppen, dan heeft de kaart hoogstwaarschijnlijk twee 8-pinsconnectoren nodig om genoeg stroom aan te leveren. Het pci-e-slot zelf levert maximaal 75W en de 8-pinsstroomconnectors kunnen maximaal 150W per stuk doorvoeren. Officieel ondersteunt de pci-e-standaard overigens slechts kaarten tot 300W. Volgens KitGuru zal Nvidia de kaart op Computex achter gesloten deuren demonstreren.

Nvidia introduceerde in maart van dit jaar zijn nieuwe GTX4xx-lijn videokaarten, gebaseerd op de Fermi-architectuur. Meteen werd duidelijk dat de kaarten veel stroom verbruikten, waardoor de vraag opkwam of het wel mogelijk zou zijn om twee van de chips op één pcb te zetten. Mochten de geruchten kloppen, dan heeft Nvidia met de GTX490 een duidelijk antwoord klaar.

Moderatie-faq Wijzig weergave

Reacties (155)

Als we bijvoorbeeld deze review bekijken, dan zien we dat de HD5970 over het algemeen de GTX470 SLI inpakt.

Als een GTX470 SLI setup 2x215 = 430W verbruikt en moet worden teruggeclocked om een cap van 375W te bereiken, wat gelijk staat aan 12,79% minder verbruik dus ongeveer vergelijkbaar lagere clocks, kunnen we vaststellen dat er een wonder moet gebeuren wil de GTX490 zonder overclockpotentie (door warmteproductie en maximale officiŽle Watt specificatie) een HD5970 kunnen verslaan.

But, correct me if I'm wrong.
Zeer goede analyse, al hebben de kloksnelheid en de warmteproductie geen perfect lineair verband: die 12,79% minder verbruik zal eerder een 7 ŗ 8% 'underclock' vereisen. Er zal inderdaad dan nog een wonder (drastisch beter power management) moeten gebeuren eer deze kaart mee kan met de 5970..
Het verband is kwadratisch, dus de underclock is SQRT(375/450) = 93.3% (-6.7%)
Huh, gezien de geruchten in het NVidia-topic is het zeer onwaarschijnlijk dat dit klopt, en veel techsites hebben al aangegeven dat de GTX490 een dual-GF104-kaart wordt.

Sowieso zou de GF104 een iets efficiŽntere chip moeten worden, en dat heb je wel nodig als je topprestaties wilt krijgen en de TDP een beetje binnen de perken wilt houden.

[Reactie gewijzigd door bwerg op 25 mei 2010 14:35]

De chips zouden flink zijn teruggeklokt om de hitte en het stroomverbruik binnen de perken te houden.
Iets is beter dan niets zullen ze wel denken bij Nvidia, denk toch echt dat ze het onderspit gaan delven in deze strijd. AMD is gewoon superieur op het moment, ik zie ze dit niet zomaar recht trekken, zeker niet als je van die halfbakken kaartjes gaat fabriceren omdat je niet kunt pareren imho f.a.i.l.
Nvidia heeft nog wat ruimte om de prijzen te verlagen indien blijkt dat ze minder verkopen dan AMD. Echter de laatste jaren is het marktaandeel van nvidia nog altijd vele malen groter geweest dan dat van AMD, dus blijkbaar is dit nog niet nodig.

[Reactie gewijzigd door sdk1985 op 25 mei 2010 14:27]

Nvidia heeft nog wat ruimte om de prijzen te verlagen indien blijkt dat ze minder verkopen dan AMD.
hoeveel ruimte Nvidia ook heeft, AMD heeft meer omdat hun chips veel kleiner( en dus goedkoper) zijn met vergelijkbare prestaties.
het aller, aller, laatste wat nvidia dus wil doen is een prijzen oorlog met ATI uitlokken want die kunnen ze onmogelijk winnen op dit moment.
ATI vind dat wel best overigens want die willen graag aan hun investeerders laten zien dat ze vergelijkbare winst marges kunnen maken als nvidia deed in het verleden.

en het verschil in marktaandeel is duidelijk richting AMD aan het verschuiven, afgelopen kwartaal is nvidia 8% marktaandeel kwijt geraakt in de videokaart markt, en is het verschil met AMD gekrompen tot minder als 8%. in de laptop videokaart markt heeft ATI zelfs bijna 50% in handen. (alle cijfers zijn zonder IGP mee te rekenen, maar ook daar heeft ATI marktaandeel gewonnen.. vooral om dat nvidia practische geheel uit die markt ligt)
http://www.crn.com/hardwa...ROZMB1QE1GHPCKHWATMY32JVN

het is overigens nooit "vele' malen groter geweest. ooit had nvidia ongeveer 2/3 van de videokaart markt in handen en ATI 1/3. dat is 2 maal zo groot, en dat is het grootste verschil ooit geweest.

[Reactie gewijzigd door Countess op 25 mei 2010 18:10]

Volledig oneens, amd heeft juist helemaal geen ruimte.

Toch jammer dat ik keer op keer weer opmerk dat mensen veronderstellen dat amd financieel gezien beter af is dan nvidia. Dat is dus NIET waar, en dit is (helaas voor amd) ook nooit zo geweest. Bovendien is de omzet van nvidia is groter dan die van amd in zijn geheel (dus inclusief cpu's).

Sterker nog weet je dat amd uberhaupt sporadisch winst maakt? Als je alleen naar de gpu's kijkt dan mag je blij zijn met 50 miljoen... Kijk anders even op de amd site bij investors... AMD verkoopt zijn producten al jaren net boven of zelfs onder de kostprijs... Nvidia , maar ook intel, moeten topprestaties neerzetten om niet af te zakken in winst...

2009: http://ir.amd.com/phoenix...&p=irol-reportsannual (jaar van de superieure 4xx serie)

Operating income
computing 127
graphics 50
foundry (433) (negatief dus)
all other 968

Revenue (omzet)
computing 4131
graphics 1206
other 47

AMD maakt op zijn gpu divisie dus nauwelijks winst, ze hebben een operationele marge van nog geen 4% over 2009 gedraaid. Hier moeten dus nog een berg indirecte kosten vanaf (bijv marketing en sales, management, bonussen, afhankelijk van hoe AMD dit definieerd)... Op de omzet is dit dus slechts +/- 4%. Bij amd zijn ze blij met 50 miljoen winst, terwijl nvidia regelmatig een paar honder miljoen NETTO winst draait.

[Reactie gewijzigd door sdk1985 op 25 mei 2010 16:28]

AMD is in het midden van gigantische veranderingen en investeringen die gigantische veel geld kosten. en toch wist AMD winst te maken afgelopen 2 kwartalen zelfs zonder intels 'bijdragen'.
AMD verkoopt zijn producten al jaren net boven of zelfs onder de kostprijs...
AMD had vorige jaar een winstmarge van ~45% op hun CPU's gemiddeld en een winst marge van ~40% op hun GPU's.
dat is VOOR aftrek van R&D kosten, marketing en lopend investeringen en eenmalige kosten. wat jij noemt is de totale winst. het totaal van wat er over is na ALLE uitgaven, inclusief investeringen te hebben afgetrokken

de marge op producten is dus puur was het kost om een chip te maken en naar de kaart-fabrikanten te verschepen (of voor CPU's wat het kost om ze te maken en bij oems te krijgen dan wel in het retail kanaal).
DAT is wat word bedoeld met de winst marge van producten, en dat is ook waar ik op doelde.

dat AMD vervolgens een groter percentage van dat geld weer opnieuw in zichzelf (*moet) investeren als nvidia of Intel, doet niks af aan de winst marge die AMD haalt op zijn producten.
en die (extra) investeringen werpen ook duidelijk hun vruchten af, ze maken gehakt van Nvidia op dit moment en zelfs de CPU afdeling maakt weer winst.

(*dit zal altijd het geval zijn met een kleiner marktaandeel of wanneer je technologisch wilt inhalen dan wel voor gaan lopen. en bij AMD gelden beide situaties voor beide markten)

de foundry afdeling is een verhaal apart maar die is nog volop in ontwikkeling en is nog heel hard bezig hun klanten bestand uit te groeien, fabrieken bij te bouwen, te kopen en te integreren(charterd) en bezig met het opzetten van de R&D benodigde voor en het ontwikkelen van bulk-productie-processen waardoor ze een geduchte concurrent van TSMC gaan worden.

de winst marge van nvidia was met de vorige generatie overigens zo slecht dat ze die niet eens hebben genoemd in hun earnings report. en er is nog niks gebeurt om daar verandering in te brengen... in tegendeel zelfs.

edit: ik geloof trouwens niet dat je helemaal door hebt hoe slecht de verhoudingen liggen voor nvidia als het gaat om de fermi vs cypress
de fermi chip is net geen 50% groter als cypress. maar er kunnen maar iets meer als half zo veel fermi chips in een waffer worden gepast als cypress chips. dat betekend meteen als dat de fermi gewoon 2 keer zo veel kost per chip als de cypress.
dat komt er nog de yield bij. 40nm is een moeilijk process voor TSMC geweest en zowel ATI en nvidia hebben daar last van.
maar hoe groter je chip hoe meer last je er van zult hebben, op een exponentiŽle schaal. 50% groter betekend een flink lagere yield. en dat verlies komt dus nog een bovenop het verschil in chips per waffer.
een fermi chip is dus een stuk meer als 2 keer zo duur om te maken als een cypress chip. maar het prestatie verschil ligt hooguit rond de 20%.
dat is geen sterke basis voor een prijzen oorlog.

en misschien wel het belangrijkste punt: ATI heeft al een aantal maanden hun cypress chips kunnen verkopen voor hoge prijzen en ze hebben prijsverlagingen lang kunnen uitstellen.
de R&D investeringen voor cypress heeft AMD dus al lang terug verdiend, waar nvidia met fermi pas net kan beginnen met het terug verdienen van die investering.
ATI kan het zich inmiddeld dus veroorloven om de prijzen te verlagen. maar als Nvidia hun investering terug wil verdienen kunnen ze dat niet.

[Reactie gewijzigd door Countess op 25 mei 2010 18:19]

"dat AMD vervolgens een groter percentage van dat geld weer opnieuw in zichzelf (*moet) investeren als nvidia of Intel, doet niks af aan de winst marge die AMD haalt op zijn producten.
"

Dit is natuurlijk onzinnig, amd is een beursgenoteerd bedrijf wat voor zijn aandeelhouders waarde moet creeren. Winst , dividend en een stijgende beurskoers. Dat het bedrijf moet herinvesteren is prima (dit moet elk bedrijf overigens), maar er moet onder de streep een positief getal overblijven. En dat is nu juist waar het de afgelopen jaren, tot 2009, mis ging.

Het is even "spannend" wat er nu gaat gebeuren, aangezien amd een nieuw business model heeft. Het is met name even afwachten hoe het met de winst en eigendom van deze foundry zit, is het een 50-50 joint venture? Ik kon het zo 1 2 3 niet vinden. Anders bestaat namelijk de kans op verplaatsing van de verliezen.

Over 1 of 2 jaar weten we het :+ . Het is in ieder geval wat mij betreft veel te vroeg om eureka van de daken te schreeuwen zodra amd eindelijk weer eens zwarte cijfers schrijft...

"AMD is in het midden van gigantische veranderingen en investeringen die gigantische veel geld kosten."
De (miljarden) verliezen van amd onstonden voor de veranderingen, de veranderingen zijn juist ingezet om te proberen een eind te maken aan de slechte performance. Voor de miljarden verliezen draaide amd vaak verliezen van enkele honderden miljoenen (dus voor ze ati kochten). Onder andere de aankoop van ATI heeft amd bijna de das om gedaan, en mede hierdoor liepen de schulden te hoog op. (Zoek maar op tweakers, ze hebben destijds veel te veel goodwill betaald, en hierdoor 1.6 miljard moeten afschrijven).

http://www.datanews.be/nl...ername-doet-amd-pijn.html

mbt de 40% marge.
Ik zie overigens geen bronnen voor jou definitie van marge (ook niet zo interessant, daar hebben we juist form 10-k voor) en de cijfers zelf ;) . Het idee van de standaardisering van jaarverslagen is nu juist dat je hierdoor bedrijven kunt vergelijken. Aangezien bedrijven er verschillende technieken op nahouden mbt cost allocation is het vergelijken van andere cijfers niet goed mogelijk (wel binnen het bedrijf, niet tussen verschillende bedrijven).

[Reactie gewijzigd door sdk1985 op 26 mei 2010 15:01]

Dit is natuurlijk onzinnig
nee, dat is het niet. winst maken en vervolgens meer investeren in jezelf om in te lopen dan wel uit lopen is HEEL iets anders als verlies maken op de producten die je verkoopt.

en dat verschil weten investeerders trouwens ook.
Onder andere de aankoop van ATI heeft amd bijna de das om gedaan,
ze hebben ATI zeker op het verkeerde moment gekocht. een paar maanden later, na het uitkomen van de r600, zou het een stuk goedkoper zijn geweest.
maar dat is iets anders als onverwacht miljarden verliezen.
de keuze om dat geld uit te geven hebben ze wel bewust genomen, en de risico's ingecalculeerd.

de hervormingen van AMD een fabless of shared-fab bedrijf zijn trouwens al ver voor de overnamen van ATI in gang gezet.
de onderhandelingen met ATIC waren al jaren aan de gang voor de overnemen, en de plannen zijn nog veel ouder.

het is eerder andersom, ze hebben bijvoorbeeld ATI ook over genomen om ervaring in te kopen over hoe een chip ontwerp bedrijf kan samenwerken met zijn foundry.
Het is even "spannend" wat er nu gaat gebeuren, aangezien amd een nieuw business model heeft. Het is met name even afwachten hoe het met de winst en eigendom van deze foundry zit, is het een 50-50 joint venture? Ik kon het zo 1 2 3 niet vinden. Anders bestaat namelijk de kans op verplaatsing van de verliezen.
de joint venture is ongeveer 40-60% waar 40% van AMD is. AMD is van plan om hun aandeel in de joint venture steeds verder af te bouwen in te toekomst. dat kunnen ze nu doen omdat ze Intel daartoe gedwongen hebben met de rechtszaak.

het foundry deel van het bedrijf is gigantische aan het uitbreiden maar gezien hun technische voorsprong en kennis in efficiŽnt produceren (AMD had de meeste wafers per maand per vierkante meter cleanroom) is er eigenlijk weinig twijfel aan dat ze een grote concurrent gaan worden van TSMC en waarschijnlijk aan ze voorbij gaan.
TSMC weet dat ook en is niet voor niks als een gek extra ingenieurs aan het inhuren.

edit:
waar ik mijn marge info vandaan haal: de AMD quarterly earnings conference call.

http://seekingalpha.com/a...ript?page=2&source=nasdaq

"Non-GAAP gross margin for the quarter was 43%, up 2% from last quarter mainly due to improved product mix that drove higher ASP’s."

"We are inclined to stay in the range of 40% to 45% for the whole year."

deze keer noemen ze CPU's en GPU's niet appart overigens, dat hebben ze vorige keren wel gedaan.

[Reactie gewijzigd door Countess op 26 mei 2010 23:56]

Je hebt veel bij het rechten eind maar Countess heeft het over de verkoopprijs en het financiŽle plaatje omtrent de productie kosten van Cypress en Fermi chips. AMD kan goedkoper een Cypress chip maken dan nVidia een Fermi chip kan maken en om het dan even maar kort te zeggen; AMD kan verder met zijn prijs zakken en dus beter concurreren met de prijs dan nVidia.

Plots begin jij met cijfertjes te gooien ?
Netto inkomsten voor AMD in 2009 is 300 miljoen dollar en voor nVidia 30 miljoen dollar, AMD maakt dus 10x zoveel winst ;)
Omzet voor AMD in 2009 is 5,4 miljard dollar en voor nVidia 3,3 miljard dollar.
Bijna het dubbelen.
AMD is in 2009 tussen de 2 en 6 miljard dollar waard geweest en volgens mij nog altijd met de huidige koers ondergewaardeerd.
(aandelen kopen dus, ondanks de negatieve euro dollar koers)
nVidia is in 2009 tussen de 4,5 en 10,5 miljard dollar waard geweest over de huidige koers en over/onder-waardering doe ik geen uitspraak.

AMD draait als ze de koers doorzetten winst in 2010 en nVidia draait als ze de koers doorzetten verlies in 2010.

Bronnen:
http://en.wikipedia.org/wiki/Advanced_Micro_Devices
http://en.wikipedia.org/wiki/Nvidia
http://www.google.com/finance

[Reactie gewijzigd door madmaxnl op 25 mei 2010 18:30]

Ben het niet volledig met je eens. Ik moet toegeven dat als ik naar de resultaten vna nvidia uit 2010 en 2009 kijk ze nogal tegenvallen (en amd groter is dan nvidia in omzet :+ ). Dit betekend echter niet dat amd hierdoor ineens ruimte heeft...

AMD doet namelijk meer dan alleen GPU, je kunt niet stellen dat amd zijn hele winst kan opsnoepen om zijn gpu's te verkopen.

Daarom plaatste ik dus cijfers, uit het jaarraport van amd zelf, mbt de operationele marge van de GPU divisie (die dus op 50 miljoen uitkwam). Dat is dan ook de ruimte die ze hebbeen mbt de prijs/productie van hun chips, en niet een eventuele andere winst die onder invloed staat van andere kosten en producten.Dat heeft verder ook niks met herinvestering te maken (wat verder ook niet relevant is want dat moet nvidia ook doen). Het zou voor amd gekken werk zijn om 300 miljoen winst op te maken aan de gpu divisie, wat jij suggereerd, zodat ze daar operationeel ineens 250 miljoen verlies draaien;).

Met betrekking tot de prestatie van nvidia, welke los staat van de speelruimte die amd heeft;

2009 (en 2010!) blijkt een buitengewoon triest jaar voor nvidia te zijn, en een abnormaal goed jaar voor AMD. Ik herriner me overigens wel een verklaring, in 2009Q1 was er een 48% daling in de omzet, waardoor de kosten per unit sterk stegen.

Ter vergelijking; Andere, meer "normale" jaren in miljoenen; 2008; +800 (op 4097), 2007: +448 (op 3069), 2006: +301 (op 2375) , 2005: +88 (op 2010)

Even vergelijken met amd in miljoenen: 2009: +300(op 5403), 2008: -3129M (op 5808M !) 2007: -3394 (op 5858!), 2006: -126 (op 5627), 2005: 165 (op 4972).

Nvidia winst afgelopen 5 jaar: +1607 miljoen
AMD winst afgelopen 5 jaar: -6184 miljoen


Verder is het even afwachten wat er nu gebeurd met betrekking tot nvidia, ik ga er vanuit dat nu de crisis min of meer voorbij is, nvidia weer normale winsten kan draaien (zit nu 30%, of 300 miljoen, meer in R&D dan in 2008).


amd 2009 http://phx.corporate-ir.n...pbGRJRD0tMXxUeXBlPTM=&t=1

amd 2007 http://media.corporate-ir...07_Annual_Report_10-K.pdf

nvidia http://phx.corporate-ir.n...6466&p=irol-reportsannual

[Reactie gewijzigd door sdk1985 op 26 mei 2010 14:01]

Omzet voor AMD in 2009 is 5,4 miljard dollar en voor nVidia 3,3 miljard dollar.

amd/ati bedoel je , plus constructie foundries en wat geld schieters (vele jaren GEEN winst)

ff afschrijven aub
@sdk1985 je bent wel erg negatief wat betreft ATI, En fatsoenlijke bronnen hierbij is ook wenselijk.

Dit is ook wel een leuk artikel van de buren(grafische sector).

Zo zag AMD in een jaar tijd haar marktaandeel bijna verdubbelen met 96,3%, terwijl nVidia en Intel een stijging van respectievelijk 41,9% en 22,3% konden wegschrijven.

http://www.hardware.info/...afische_chips_ziet_groei/
De bron staat erbij hoor, het jaar raport van amd uit 2009.

Overigens link je zelf een bron waarin staat dat amd 24% in Q1 2010 had en Nvidia 31.5%, de cijfers die jij noemde gaan over de groei ten opzichte van eigen cijfers. Voorbeeldje; Stel je hebt een marktaandeel van 1% in 2009, en in 2010 stijgt dit tot 10%, dan zou dat cijfer 1000% zijn. Dit maakt je echter niet de grootste speler.

Verder zie ik de relatie tot mijn post niet, ik heb het over de financiele ruimte van nvidia mbt de operationele winst marge.

Let even op (!) ik ben niet negatief over ati, ati deed het altijd prima met premium producten (destijds regelmatig duurder dan geforce). Ati bestaat echter niet meer en is overgenomen door AMD. Dit moet je wel goed uit elkaar houden, de grafische kaarten zijn nu gewoon een divisie van amd. Mbt negatief, over amd dus, check zelf even de cijfers van de afgelopen 10 jaar. In de reactie hierboven heb ik even voorberekent dat amd de laatste 5 jaar meer dan 6 miljard verloren heeft. De grootste concurent van amd, intel, verdient juist miljarden.

[Reactie gewijzigd door sdk1985 op 26 mei 2010 14:50]

In de reactie hierboven heb ik even voorberekent dat amd de laatste 5 jaar meer dan 6 miljard verloren heeft. De grootste concurent van amd, intel, verdient juist miljarden.
AMD heeft ook een 2de fabriek bij gebouwd(wat hun productie capaciteit meer als zou verdubbelen), de HELE dure overgang naar 300mm wafers gemaakt, ATI overgenomen voor ~5 miljard, en toen de 2de fabriek af was meteen de eerste ook gaan verbouwen naar 300mm wafers, en ze zijn nog wat ingelopen op intel met productie processen ook(kleine 6 maanden).

reken maar dat het prijskaartje van dat alles VEEL meer is als 6 miljard.

[Reactie gewijzigd door Countess op 30 mei 2010 12:39]

Ik denk dat je je hier vergist. Men vraagt zich publiekelijk af of nVidia uberhaupt marge draait op de nieuwe GTX400 serie. Een prijsverlaging, als al mogelijk, zal niet veel eieren breken. AMD daarintegen, heeft wel nog de mogelijkheid om flink met de prijzen te stunten. AMD heeft betere yields, sowieso al een kleinere chip, een kleinere bus, minder geheugen en een minder exorbitante koeler. Geloof me, AMD kan zijn kaarten veel en veel goedkoper produceren dan nVidia's tegenhangers. We hebben bij de 4000-serie al gezien dat AMD zijn kaarten bijna kan halveren in prijs en nog steeds winst maken. Een 4850 werd geintroduceerd rond de 175 euro, maar bleek later ook voor 80 euro nog rendabel. De 5000 serie kaarten hebben wel wat grotere chips en wat mindere yields, maar ik denk zeker dat de HD5850 ook voor 130 euro wel te produceren valt.
Ik wil je best geloven maar de feiten zijn helaas anders 8)7.

Doe me aub een plezier en ga even mee naar deze link om vast te stellen uit welk jaar de 4xxx serie komt:

http://en.wikipedia.org/w...rison_table:_desktop_GPUs

(2008-2009)
Vervolgens naar deze link om de winst/omzet op te zoeken: http://phx.corporate-ir.n...pbGRJRD0tMXxUeXBlPTM=&t=1

In deze pdf ga je naar blz 141 en dan zie je de gpu omzet en winst/verlizen van de 2009, 2008 en 2007, Die winst valt nogal tegen met 50 en 12 miljoen. Gecombineerd 62 miljoen winst op een omet van 1165+992=2157 miljoen. 62 van 2157 is een marge van 2,87%. Over een gezonde operationele marge valt te discussieren maar 2.87% is dus echt peanuts ( operationele marge is geen netto wins).

Wil je het plaatje compleet maken kijk dan even in het rapport van 2008 (blz 141) om ; http://media.corporate-ir...08_Annual_Report_10-K.pdf

2007 -39 (op 992) , 2006 -6 (op 189)

Er zit dus wel verbetering in, maar de ruimte die ze hebben gebruiken ze al om winst te pakken.

[Reactie gewijzigd door sdk1985 op 26 mei 2010 14:26]

sorry, maar wat hebben de cijfers uit 2009
- een jaar waarin ze voor het grootste deel van de tijd een GPU had die wel iets beter was als nvidia, maar te laat was uitgebracht en te weinig extra bood om enthousiast over te worden
- waar nvidia nog steeds stevig het grootste deel van de OEM contracten en handen
- waar nvidia nog volop kon rekenen op de after-glow van hun succes met de 88xx serie.
- waar pas helemaal op het einde de hd5xxx serie kwam, maar door problemen bij TSMC maar in relatief kleine hoeveelheid verkocht kon worden.
- waarin we op het hoogtepunt van de recessie zaten.

wat heeft dat jaar te maken met de eerste helft van dit jaar?
-het jaar waar de rollen zijn omgedraaid, waar ATI veel eerder is als Nvidia, en ze dus maanden lang ongestoorde de introductie prijs hebben kunnen vragen.
-waarin Nvidia, na vele vele maanden vertraging, komt met een product dat in bijna elk opzicht inferieur is aan dat van ATI op een klein beetje snelheid na.
-waar de leveringsproblemen van TSMC (grotendeels) zijn opgelost
- waarin ATI hele grote OEM contracten van Nvidia heeft kunnen wegkapen en vele malen meer design wins heeft behaalt.
- waar ze al 2 kwartalen lang grote happen marktaandeel bij Nvidia weg kapen, en zowel in de desktop markt als in de laptop markt hun aandeel met ~1/5 hebben vergroot. en er is weinig reden om aan te nemen dat deze trend zal afnemen in de rest van het jaar.

je kan je wel bezeren op cijfers uit 2009, maar die gaan over een hele andere markt, en een hele andere situatie, zowel technologische als competitief.

[Reactie gewijzigd door Countess op 26 mei 2010 21:28]

Echter de laatste jaren is het marktaandeel van nvidia nog altijd vele malen groter geweest dan dat van AMD, dus blijkbaar is dit nog niet nodig.
Ik dacht in het ATi draadje gelezen te hebben dat ATi nu zo'n 50% marktaandeel zou hebben in discrete graphics. :?
Gezien het feit dat ze dus sinds juni 2008 al met de HD4000 serie NV aan het schoppen zijn, heeft dat nog aardig lang geduurd. Het is dat NV zolang op die GF8 kaarten aan het teren is geweest (en die de nodige keren een nieuw verfje of een nieuw plakkertje heeft gegeven), en dat de GT200 kaarten bepaald niet overdonderend waren, dat ze aardig zijn teruggezakt.
een groot deel van de markt bestaat ook nog uit kaarten uit de vorige generatie. daarbij is het merk nvidia veel sterker als ATI.
ook gaat een flink deel van de verkoop naar OEM's en die gaan niet zomaar over naar een ander bedrijf omdat die toevallig die generatie een net iets snellere chip heeft.
nu heeft ATI echter laten zien dat dat geen gelukstreffer betrof en hebben ze hun banden met OEM's flink verbeterd(wat je ook duidelijk ziet in de hoeveelheid ATI kaarten in laptops, waar de markt voor 100% uit OEM bestaat)

dus opzich is het helemaal niet zo gek dat het wat langer duurt als je misschien zou verwachten voor ATI om marktaandeel terug te winnen van Nvidia.
maar ik denk dat ATI met deze laatste generatie hun plaats bij OEM's heeft verzegeld, en dat hun kansen op de markt nu min of meer gelijk liggen met die van Nvidia.

nu dat dus is recht gezet zullen ze door hun duidelijke technische voorsprong flink wat marktaandeel van nvidia af gaan snoepen dit jaar verwacht ik.

[Reactie gewijzigd door Countess op 25 mei 2010 18:13]

Het kan aan het veranderen zijn (dat weet je altijd pas een jaar later), maar het kan ook gaan over een sub segment. Cijfers van Q1 2010 zijn er wel:

http://www.hardware.info/...afische_chips_ziet_groei/

Een redelijke indicatie is ook de omzet van de gpu divisie van amd te vergelijken met die van nvidia - atom gerelateerde omzet.

[Reactie gewijzigd door sdk1985 op 26 mei 2010 14:36]

Op het moment is naast de prijs ook het stroomverbruik een grote issue. Deze is aanzienlijk hoger dan een vergelijkbare ati kaart.
Zoveel is 375 watt ook niet, kostentechnisch betaal je voor stroom niet zoveel.
Tevens waar praten we over als het gemiddeld huishouden vaatwassers, vriezers drogers en bijvoorbeeld electrische haarden heeft. Die veel meer oplsurpen volgens mij dan een high end PC afgezien van quad sli/crossfire contructies. Als die Nvidia kaart sneller en prijstechnisch lager is koop ik hem zo die 75 watt neem ik voor lief
1. Dat valt niet te vergelijken. Een Bugatti Veyron van 1000pk heeft niet weinig pk omdat een space shuttle 37 miljoen pk heeft. "The maximum equivalent horsepower developed by the three SSMEs is just over 37 million horsepower." http://www.coopsjokes.com/amz/amzshutl.htm
2. Meer wattage brengt meer warmte met zich mee, wat ook weer zijn eigen problemen veroorzaakt.
Tegenwoordig gaat de warme lucht meteen de kast uit, dus watt is niet echt een issue, en is het ook eigenlijk nooit geweest. Gewoon een voeding van 100 euro kopen bij het aanschaffen van je pc en je zit eigenlijk altijd safe (mijn pc uit 2007 heeft bijvoorbeeld 750w). Bezuinigen op een voeding is nooit een goed idee aangezien ze in vermogen teruglopen en ze vanaf 50% load ineens aanmerkelijk meer lawaai produceren.

[Reactie gewijzigd door sdk1985 op 25 mei 2010 16:17]

Persoonlijk heb ik er wel een probleem mee als mijn computer probeert op te stijgen (of toch zoveel lawaai maakt) en er een temperatuur van 80įC in mijn kast hangt. In de eerste plaats heb ik het liever niet dat mijn pc massas lawaai maakt en ten tweede is het zeker niet goed voor de levensduur van je pc onderdelen als je pc zo warm wordt.

En betreffende voedingen, het verschil tussen 50% en 80% load qua efficiency is verwaarloosbaar. En het lawaai hangt af van voeding tot voeding. Maar als je zo een kaart in je pc hebt zitten, ga er dan maar vanuit dat het niet uitmaakt hoeveel lawaai je voeding maakt.

[Reactie gewijzigd door Phate_13 op 25 mei 2010 17:10]

Ik vraag me af hoeveel ervaring jij met high end kaarten hebt.

Nogmaals, je kast wordt geen 80 graden aangezien je kaart lucht vanuit de kast aanzuigt en vervolgens de hete lucht de kast uit blaast.

Plaatje: http://www.ixbt.com/video3/images/gt200-2/gtx260-front.jpg

Als mijn 3dkaart met 15% overclock 85 graden (+80 mhz gpu) wordt is mijn kast nog altijd onder de 30 graden.

Mbt lawaai, tijdens het gamen lijkt me lawaai eigenlijk nooit zo'n issue aangezien je dit meestal met geluid doet. Tijdens andere taken zoals uitpakken, rarran/parren, video recoden enz is het een ander verhaal. Het verschil is decibel tussen 0-50 en 50+ is eigenlijk in alle gevallen enorm. Deze waardes kunnen wel iets verschillen maar boven de 60% load begint de fan harder te draaien.
Nog nooit van overdrijven gehoord? =) En jij hebt wel heel veel vertrouwen in die kleine opening vanachter op je grafische kaart...

Anyway, bekijk deze resultaten eens:
http://www.anandtech.com/...was-it-worth-the-wait-/19
Dat zal op alle vlakken nog erger worden. De temperatuur, power consumption en geluidsproductie zijn allen al zeer hoog.

Welja, ik kijk uit naar de resultaten alleszins, om er dan eens goed te lachen wie die kaart koopt.
Die kaart gaat er zeker niet komen. Wishfull thinking is het, tegen beter weten in.
Dat durf ik te hier te stellen }:O
Gelukkig laat ik de vaatwasser, droger en electische haard altijd aan staan.
OT: Ow nee, electrische haard heb ik niet nodig daar koop ik een GTX490 voor
Alleen een vriezer staat altijd aan, maar die slaat eigenlijk alleen aan als de deur open gaat. Mijn PC daar in tegen staat ongeveer 18/7 aan.
En nu moet je weten dat Idle die GTX400 serie niet heel overtuigend is.
Ter vergelijk een HD5870 en HD5970 schelen idle 20watt,
De HD5870 en GTX470 idle 10 watt,
Dus in het meest positieve geval scheel de GTX490 30 wat met een GTX470 in idle.
(met een HD5970 scheeld het dan 20watt)(er vanuit gaand dat nog geen een fabrikant tot nu toe de 2e chip op een dual-gpu kaart totaal heeft uitgeschakeld in idle

Dus idle is hij niet overtuigend,
onder load is hij niet overtuigend
en de prestaties zijn waarschijnlijk ook niet echt overtuigend. (gezien dat hij zwaar terug geclocked moet worden)
En ik weet niet aan wat voor een prijs jij zat te denken bij NV's topmodel - waarvan de yields nog steeds rond de 20% bungelen -, maar ik denk dat de Prijs/Prestatie verhouding ook niet erg overtuigend word.

Laat staan dat ze zich houden aan de PCI-e2.0 standaard, weet je wat maak er maar meteen een 3slots koeler van met gratis oordopjes.
Zelfs zijn formaat tegenover de prestaties word niet overtuigend.
Ow en het geluid wat hij produceert waarschijnlijk: naja laat maar het word in middels duidelijk....

Wat word wel overtuigend? misschien de GPGPU prestaties voor de wetenschap? of nee die willen meteen quadsli iets wat met deze kaart nooit van je leven zal kunnen.
Wederom Niet overtuigend

Vragende Conclusie: Wie of wat moet deze kaart overtuigen tot aankoop?
Ik gok iemand die gewoon van patsen met grote onderdelen houd of iemand die alleen NV gewend is en word opgelicht door de marketing afdeling van NV. Want voor welke extra FPS wou je het doen?
De GeForce GTX 470 kost op dit moment dus circa evenveel als de Radeon HD 5870. In onderstaande tabel hebben we de scores van beide kaarten nog eens naast elkaar gezet en telkens het procentuele verschil berekend. Onderaan in de tabel vind je het gemiddelde over alle benchmarks: gemiddeld is de GeForce GTX 470 zo'n 7,2% langzamer dan de ATI Radeon HD 5870. Daar komt nog eens bij dat de kaart meer stroom verbruikt en meer lawaai produceert. De keuze is wat ons betreft dan snel gemaakt...
Laat staan een HD5890 tegen een GTX490 xD
Op papier is deze kaart gedoemd te falen.

[Reactie gewijzigd door Toettoetdaan op 26 mei 2010 00:11]

Dit is echt wel wat.
je moet bedenken dat als je 24/7 1 watt gebruikt, je dit aan het eind van het jaar 2 euro kost.
375 watt zou dus met 24/7 gebruik 750 euro kosten.
dat noem ik toch een redelijke prijs
Ik zie hier het nut niet echt van in.. 2 laag geklokte 470's op 1 pcb? Dan moet de prijs wel aanzienlijke lager zijn dan 2 losse 470's, om het interessant te houden.
Dat gaat dan ook leuk worden, zijn ze alleen teruggeclocked, kun je ze zo weer omhoog schroeven.

Ontopic: Denk eerlijk gezegd ook niet dat de kaart iets heel speciaals zal zijn. Aangezien die clocks ook zo omlaag worden gebracht.
de vraag is tot hoe ver kan je gaan want je moet niet vergeten 1 gtx470 gebruikt 215w. en je kan met 2x 8pin aansluiting 300w krijgen + 75wat van pcie slot dan kom je op 375wat dus je komt toch niet in de buurt van 2x gtx470.


als ze willen dan de gtx490 interesan houden moeten ze aanzienlijk goedkoper zijn dan 2x gtx470 en prestatie moet niet veel minder zijn dan 2x gtx470.
Officieel volgens de specs op papier kan je 150W per 8pins aansluiting krijgen. Dat is de beperking waar de fabrikant rekening mee moet houden om een produkt op de makt te zetten dat zich aan de pci-sig specs houd. Thuis overclockers moeten zich daar niets van aantrekken, het is natuurlijk niet zo dat indien je meer dan 150W gaat trekken uit de voeding dat iemand met dat papiertje gaat langskomen om je op de beperking te wijzen.

irl is die beperking wat je psu kan leveren en voor je kabels smelten. Die aansluitingen en kabels zullen wel wat meer aankunnen als 150W.


Ik dacht trouwens dat de meeste kaarten OF hun voeding uit de poort halen OF extern. Dus het kan goed zijn dat die kaart zelfs niet die extra 75W uit de pci-ex poort KAN gebruiken.

[Reactie gewijzigd door kluyze op 25 mei 2010 15:16]

Nope, het is EN kabels EN het slot.

Ik denk dat deze kaart absoluut geen succes kan worden - extra GPU cores zijn, met uitzondering van gpgpu, stukken minder intressant dan bij CPU's.
Ook de stroom die dit kreng slurpt en de hitte die hij produceert, plus het lawaai van de fan, komen hem niet ten goede.

ATI is in mijn ogen een stuk succesvoller met hun X2 / 59xx kaarten.
Allereerst even mierenneuken, het gaat hier om 2 chips, niet om 2 cores. In een GPU zou je de stream processors de cores kunnen noemen, en simpel gezegd, hoe meer van dat soort cores hoe beter.

Maar ook meerdere chips op 1 PCB helpt, alleen moet je dan wel beginnen met een gezonde chip. Ik heb het idee dat Fermi alles is geworden wat nVidia niet wilde. Zoals redelijk algemeen bekend is nVidia nog steeds van mening dat single GPU de toekomst zijn, en hebben daarom tijdens ontwikkeling waarschijnlijk als limiet aangenomen dat de top end GPU (in dit geval de GTX480) in zijn 1tje maximaal 300 watt mag gebruiken.

Op zich goed te doen, ware het niet dat je dan toch wel ff een flink pak sneller moet zijn dan de snelste single GPU kaart van de concurrent die minder slurpende GPUs maakt, en dat valt nogal tegen. Qua verbruik zit de GTX480 het dichst bij de HD5970, qua performance zit ie echter dichter bij de HD5870. De performance per watt van een enkele GTX480 (of GTX470) is dan ook redelijk slecht te noemen. In zo'n geval is het dan ook bijna waanzinnig om er twee op 1 PCB te zetten.

Ben je echter AMD, dan is een HD5970 eigenlijk best een zinnige kaart om op de markt te brengen. Even afgezien van of het nut heeft om uberhaupt zo'n monster te hebben, dat is weer een heel andere discussie. Het ding is ruwweg 2x zo snel als een HD5870, en dat is precies het doel geweest. Bij de GTX490 zal dit echt gaan tegenvallen, net zoals in mindere mate bij de GTX295 was, dit waren ook geen GTX280's maar GTX275's.

Maar als nog verder in de tijd gaan weten we dat de 9800GX2 ook niet 2 volwaardige 8800GTS512 waren, want ook dat werd te heet. Ik vrees dat elke volgende generatie meer concessies moet doen wat betreft verbruik dan de vorige. Eigenlijk zouden beide bedrijven meer aandacht moeten gaan geven aan performance per watt, want terwijl moderne CPUs eigenlijk nauwelijks meer gaan verbruiken, verbruikt elke nieuwe grafische kaart meer dan de vorige.
Even ter aanvulling, de 5970 van ati is ook geen volwaardige 2x5870. Het zijn wel 5870 chips maar op 5850 snelheden.
Nope, het is EN kabels EN het slot.

Ik denk dat deze kaart absoluut geen succes kan worden - extra GPU cores zijn, met uitzondering van gpgpu, stukken minder intressant dan bij CPU's.
En vervolgens zeg je dit:
ATI is in mijn ogen een stuk succesvoller met hun X2 / 59xx kaarten.
:/ Beetje scheve redenering

En als je bedenkt dat bijvoorbeeld de GTX295 een monsterkaart was, en dat Crossfire en SLI ook prima schalen in games, snap ik niet waarom meerdere GPU's minder interessant zouden zijn dan CPU cores... Multicore komt steeds meer in, maar er zijn zat, zeg bijna alle, games die nog prima draaien op een C2D E8400 oid.
De vraag is op voor markt NVidia hiermee rekent.

Er is natuurlijk altijd wel mensen te vinden die deze dual-chip kaart willen hebben om de clock omhoog te gooien met een dubbele PSU en een dikke aftermarket (water) koel setup.

Ik vermoed dat NVidia's plan is om voor deze kleine markt gaat om vervolgens de ervaring die ze opdoen te gebruiken voor een latere, zuinigere, mainstream dubbele chip kaart.

Ze hebben nu namelijk geen dual-chip kaarten en ATI wel. Het gebrek aan ervaring ermee kan voor NVidia later een groot probleem zijn. Hier willen ze vermoedelijk iets aan doen.
Ik zie wel een reden in waarom ze dit zouden doen. De yields van goed werkende GTX480's is op dit moment nog erg laag. Willen ze de mogenlijkheid hebben om de prijs te verlagen dan moeten ze de rest nog weten te verkopen voor een leuk prijsje.

2x GTX470 zou weer de snelste kaar van het moment kunnen maken (net als is gedaan met de GTX295). Dit zou voor een flinke verkoop verhoging kunnen zorgen van de niet correct werkende chips, het zijn er toch weer twee per kaart en er zullen genoeg mensen zijn die er toch intrappen en hem kopen, al is het alleen omdat ze geen plek hebben voor 2 videokaarten in zijn/haar PC.

Toch weer slimme zet.
2x GTX470 zou weer de snelste kaar van het moment kunnen maken
Onwaarschijnlijk.
De HD 5970 bestaat uit 2 HD 5870's en die zijn al beide sneller dan de GTX 470 en zijn vermoedelijk dus ook nog minder teruggeklokt dan de dubbele 470's
Dat lijkt me sterk. NV gaat met deze kaart voor halo - de snelste kaart op de markt. Dat hebben ze altijd al gedaan, ze zullen het al moeilijk genoeg gevonden hebben dat ze niet over de 5970 heen kwamen. Je maakt mij dan niet wijs dat ze nu met een dual-GPU kaart komen, waarmee ze willens en wetens over de PCI-e specs heen gaan, die gruwelijk veel stroom gaat verstoken en dus vreselijk warm zal worden, en dan nůg de 5970 niet voorbij steekt.
Ik wil je niet je dromen ontnemen, maar hoe zou Nvidia dat ooit klaar moeten spelen dan?

Denk je nou werkelijk dat het realistisch is om te denken dat ze hoger geklokter 470s in dat ding zettn terwijl de geruchten zijn dat die dingen flink lager geklokt worden?
Wat jullie allemaal vergeten is dat de 5970 erg slecht gebruikt maakt van beide de extra GPU aan boord. Ter referentie Tweakers.net hun eigen review van de GTX480, ik heb even Metro 2033 DX11 erbij gepakt aangezien hier alles op en aanzit en toch op het moment het zwaarste spel is om te spelen op max.

reviews: GTX480: Nvidia's nieuwe monster-gpu

Hier zie je dat zowel op lage als op hoge resoluties er maar een 14FPS verschil is met de enkel koppige versie. Dit is bijna bij alle titels het geval, behalve bij HAWX daar kan ik een aardig verschil zien. In de meeste gevallen is dat dus zo'n 20-30% extra. Dat noem ik bar slecht, en dit zal groot en deels dan ook komen door slechte optimalisatie van Crossfire.

Daar zou Nvidia misschien gebruik van kunnen maken.
En hier weer een heel ander beeld dan wat jij schetst http://www.hardware.info/..._3way_SLI_GTX_480_test/13 Van 1 naar 2 GPU's schaalt Nvidia gemiddeld met zo'n 80% en ATI met zo'n 70%.

Die 30% extra tov een reguliere HD5870 is dan zo gek nog niet. Een enkele 5970 chip is ongeveer 85% zo snel als een HD5870 chip op stocksnelheid. De HD5970 heeft er 2 van dus de theoretische maximum snelheid is 2x85% is 170% de snelheid van een enkele HD5870. Gezien de gemiddelde 70% efficiŽntie van Crossfire volgens Hardware.info blijft er dan over: 70% x 170% - 100% = 119% - 100% = 19%

Met al deze getallen blijft er over dat de HD5970 gemiddeld slechts 20% sneller is dan een HD5870. Dat ligt dus volkomen in de lijn der verwachting als je ziet wat de stocksnelheden van de chips zijn. Bij veel spellen is de efficiŽntie van Crossfire echter hoger dan 70% waardoor de resultaten ook een stuk beter zijn.
Er valt ten opzichte van de HD5870 dus ook flinke winst te boeken door de HD5970 een stuk te overklokken.

Bij Nvidia zal dit niet anders gaan. Als we nou hier ook even aanhouden dat een chip op de GTX470 100% is en een enkele chip op de GTX490 85% is (Dan zouden ze het denk ik erg netjes doen). Dan kom je weer op een 170% theoretische maximale winst ten opzichte van een enkele kaart. Nemen we de gemiddelde SLI efficiŽntie van 80%, dan kom je op een prestatie winst uit van 80% x 170% - 100% = 136% - 100% = 36%.

Gemiddeld zou de GTX490 dan 36% sneller zijn dan een GTX470. Ik denk dus niet dat de GTX490 en de HD5970 elkaar heel erg veel gaan ontlopen, maar het zal allemaal afhankelijk zijn van de mate van onderclocks die Nvidia zal toe moeten passen. Gewoon netjes braaf de benchmarks afwachten.
Nood breekt wet en nvidia weet donders goed dat ze zichzelf in de vingers snijden de laatste tijd met hun close source patent onzin.

Ati/Amd brengt mega snelle kaarten uit en gebruikt de volgende opensource platformen
-Havox
-OpenGL
-Eyefinity
-(zeer binnenkort aanwezig) 3D ondersteuning.
-Crossfire

Wat heeft nvidia nou nog te zeggen? Ze hebben het volgende allemaal in patent vorm
-PhysicX
-3d Vision
-Sli

Wat dus inhoudt dat als Nvidia niet zeer snel met een degelijke winnaar over de brug komt ze in de volgende 5 jaar kunnen rekeken op ZEER terughoudende ontwikkelingen voor hun eigen software en daarmee einde oefening betekent om echte winst binnen te halen
Je vergeet bij Nvidia
- Cuda

Je kan er mee lachen maar op termijn zit daar heel veel potentieel in.
OpenCL doet precies hetzelfde en is wel een open standaard. De closed-source dingen van Nvidia zijn echt niet toekomst waardig, omdat het de markt in tweeŽn probeert te delen en daar zijn ontwikkelaars niet blij mee.
Ik bedoelde met Cuda eigenlijk GPU computing in het algemeen. Nvidia staat volgens mij een pak verder op dat gebied.
Dan zal ik het even voor NV opnemen:

- Havox is volgens google een kruidenbotermix, HAVOK is beter bekend ;)
Kijkend naar de resultaten moet ik zeggen dat PhysX krachtiger lijkt.
Of het genoeg teovoegd om zijn bestaansrecht te rechvaardigen is aan eenieder om voor zichzelf te oordelen.

- OpenGL is zoals de naam al doet vermoeden een open standaard.
NV ondersteunt dit dus ook volledig. http://developer.nvidia.com/object/opengl_driver.html

- Eyefinity is een prima argument, NV's softwarematig inferieure tegenhanger is beduidend minder.

- 3D vision bestaat al een hele tijd, volgens mij is ATI in deze juist degene die iets achter loopt.

- Crossfire en SLI zijn tegen elkaar weg te strepen.

Om een winnaar te maken is het voor 80% afhankelijk van single GPU performance voor de juiste prijs met de juiste hardware aka voedings/koelingseisen.
Multi GPU, Eyefinity en 3D zijn nog steeds niche functies die de verkoop posiitief beinvloeden maar geen core business zijn voor een GPU.
Crossfire en SLI kan je niet zomaar wegstrepen; de performance wel, zakelijk gezien niet.
Nvidia verkoopt SLI chips, ATi niet. SLI = duurder.
HAVOK wordt niet eens gepushed door amd/ati ,ergo denk dat het nooit komt
Engine clock speed: 725 MHz

The Radeon HD 5970 looks to be well suited for the job. The GPUs used in this card use exactly the same configuration found on the Radeon HD 5870, while core and memory frequencies match those of the Radeon HD 5850

teruggeklokt dan de 5870 lijkt mij
Toch jammer dat nVidia het niet een stuk beter gedaan heeft.
Een beetje concurrentie kan natuurlijk nooit kwaad.

Daarbij zijn de drivers voor ATI in vergelijking met die van nVidia echt slechter.
Geen profielen die je zelf kan instellen, opgeloste bugs die net zo hard weer terugkomen in nieuwere drivers, traag met oplossen van specifieke software (CS4 en FX10), CCC instellingen -zoals overrulen van Vsync- die niet werken etc etc.

Als je ATI koopt moet je ook rekening houden met het feit dat je extra tools zoals ATI Traytools, 3d3overrider en Rivatuner nodig hebt om alles uit je kaart te halen.

Wellicht dat ATI wat driver-programmeurs van nVidia moet overkopen en de boel laten redesignen :-)
Nvidia sloopt zelfs hele kaarten met drivers.

Ati en nvidia hebben beide problemen met drivers, en staan qua windows op een zelfde niveau.
Die ene keer dat er bij Nvidia problemen waren die een hardware matig gevolg had ? , kijk eens in het forum naar al die ATI problemen dan piep je iets anders , kijk in andere forums "google maar" dan zie je toch een duidelijk verschil.

Dat Nvidia deze kaart op de markt brengt is op zich wel goed of het een succes word zien we wel , misschien water cooling er op 2de voeding ernaast :) , zie trouwens toch steeds meer mensen die de switch weer terug van ATI naar Nvidia maken , ra ra waarom toch.
Quote: Dat Nvidia deze kaart op de markt brengt is op zich wel goed of het een succes word zien we wel , misschien water cooling er op 2de voeding ernaast , zie trouwens toch steeds meer mensen die de switch weer terug van ATI naar Nvidia maken , ra ra waarom toch

Misschien wil niet iedereen waterkoeling of een 2de voeding in hun pc, of hebben er simpelweg het geld niet voor. Ik vindt het leuk voor Nvidia dat ze nu plannen hebben voor een dual-GPU.
En de switch van ATI naar Nvidia zullen vast wel wat mensen maken omdat de Fermi-kaarten beter presteren in tesselation. En de kaarten zijn nieuwer, dus dat zal bij sommige mensen waarschijnlijk ook wel een link leggen. Maar vergeet niet dat dat waarschijnlijk de mensen zijn die er het geld voor hebben, en het er ook voor over hebben.
Prijs/Prestatie zal waarschijnlijk nog wel even in AMD's handen liggen. Maar wens Nvidia toch het beste toe!
offtopic:
De mensen die vergeten driversweeper oid over hun systeem heen te gooien en gewoon maar een ATI kaart erin gooien en vervolgens gaan zeiken dat het niet lekker werkt met ATI? :/ Kan ook nog, en dan gaan ze natuurlijk snel weer terug naar nVidia...


Prijs / prestatie zal nVidia deze serie toch nooit gaan winnen, maar het is het bekende merk waar mensen voor blijven betalen he ;) En ATI heeft laten weten dat er een aantal tesselation cores uitgeschakeld zijn, omdat de vraag naar de techniek nog niet zo groot is... Deze zouden middels een firmwareupdate geactiveerd kunnen worden... Rara hoe :/ En of dat al gebeurd is weet ik niet. Voor rauwe performance zullen de die-hard gamers ook wel het geld over hebben en die zie je dan heus wel voor een SLI GTX480 setup gaan.
Ik heb een 5870 en heeft toch echt geen extra software nodig om het maximale uit mijn kaart te halen.

tot zover zijn ze ook erg snel geweest met hotfixes voor bijv mass effect 2 en bad company 2.
tdp heeft toch niks te maken met stroom verbruik, maar zoveel te meer met warmte ontwikkeling (en dus het benodigde vermogen van de koeling?!)
verbruik = warmte ontwikkeling en anders om.

op enkele signaal stroompjes na word alle energie die een videokaart in gaat omgezet in warmte.
Stroomverbruik is direct gerelateerd aan warmte (assuming dat het voltage vastligt), aangezien de weerstand van die kaart niet gek veel verandert. P = I*V of I^2*R, net wat je wilt (Ik weet dat GPUs niet helemaal Ohmse weerstanden zijn, maar bij benadering klopt het best aardig).
Ongeveer alles wat je er aan prik instopt, komt er vervolgens weer als warmte uit, dat kleine beetje dat hij naar je monitor stuurt is verwaarloosbaar. Al die warmte zul je moeten afvoeren, one way or another.
De vraag is dan maar of de prestaties ook zo geweldig zijn als dat het lijkt, al dat terugklokken maakt het er niet sneller op...
Er gaan geruchten dat de 470 er uit gaat en plaats moet maken voor de GTX460. Zie http://techreport.com/discussions.x/18968
De reserende GTX470 cores worden dus kennelijk gebruikt voor de GTX490.

Probleem is dat de performance van de GTX460 mogelijk te laag is om de GTX470 te vervangen. Als dat minder is dan de GTX465 ziet het er niet goed uit. Een preview van de GTX465 vind je hier: http://www.xbitlabs.com/a...orce-gtx-465_3.html#sect1

Maar goed, de GTX465 is een kreupele GF100. De GTX460 is gebaseerd op de GF104. Wie weet, is de 460 toch sneller dan de 465 :)

[Reactie gewijzigd door dirkjesdirk op 25 mei 2010 14:59]

Raak nog maar eens wijs uit die naamgevingen, als oude en nieuwe architecturen door elkaar worden gebruikt... :|

Gelukkig bestaan er nog sites met benchmarks, zodat we nog iet of wat weten welk vlees we in de kuip hebben!
Nu eindelijk Intel en AMD redelijk hun namen op orde hebben, lijkt Nvidia wel een grotere chaos te willen maken; rebranden, series overslaan, inconsistent labellen en wat niet meer.

Gezien hoe hun nieuwe producten zijn ontvangen, lijkt het wel alsof ze het doen om de voor ons tweakers opgedane kennis uit het zicht en begrip van het grote publiek te verstoppen.
tja ze hadden met de GTS/X8800 echt bijzondere kaarten en met de 8800GT de lat voor zichzelf nog hoger gelegd en blijkbaar zijn ze niet in staat om nog zoon slag te slaan, sterker nog ze falen er zo hard in dat de marketing afdeling naar werk lijkt te zoeken.
en dan krijg je dit.

Voor AMD/ATI is het wat makkelijker als je toch al niet de snelste bent moet je het slim aanpakken, lager segment en steets wat naar boven kruipen. Maar ook zij zijn in dat gat wat Nvidia nu beleeft gevallen, kijk maar naar de 2900XT de "8800GTX killer" en zelfs de 3870 kon het daarna nog niet.

Iedere fabrikant heeft weleens zoiets, en de een is net wat "creatiever" dan de ander om het hoofd boven water te houden.
Zo lastig is het toch niet, binnen een serie is een hoger model beter.
tot dat ze met een die shrink komen waar bij de nummers weer tussen bepaalde soorten invallen omdat de 475 weer iets sneller is dan de 470 en langzamer dan de 480... Dan krijg je de 460, die dan later komt dan de 465 en dus sneller zou zijn (in theorie) maar een lager cijfer heeft.

OT: deze kaart zal weer net iets sneller zijn dan de 5970 net zoals de vorige kaarten ietsje sneller waren dan die kaart die ze moesten verslaan.
De gtx285 is bijvoorbeeld sneller dan de gtx280, ik zie het probleem niet? Wanneer is er een model geweest met een hoger nummer dat langzamer was dan het lage nummer, dat moet ik gemist hebben dan...

Voor de eindgebruiker is het wat mij betreft niet zo interessant of iets een rebadge, nieuwe kaart, 45nm of 65nm kaart is, het gaat erom dat aan het model nummer is af te leiden wat nu de snelste kaart is. Dit lukt best aardig de laatste tijd. Dit is het voordeel van oude kaarten die in productie blijven hernoemen, wat mij betreft bedoelen ze het goed :+ .

[Reactie gewijzigd door sdk1985 op 25 mei 2010 16:34]

Productnummers zeggen echt helemaal niks, je kan het net zo goed vergelijken met Mhz in de CPU werlend. Probeer het maar eens uit te leggen dat een Pentium 4 op 3.80ghz langzamer is dan een core2 op 2.4ghz. Vooral Nvdia maakt er echt een zooitje van, zeker met al die gerebrande rommel. Is een GTS330 nu sneller als een GTX285? Dacht het niet. En de 465 dan, die moet toch haast wel 2x zo snel zijn als een GTX295? :z

Kan je de Geforce 5 FX 5200, 5500 en 5600 nog herinneren? Allemaal langzamer dan de Geforce 4 Ti serie. Zelfde geldt voor de Geforce 4Mx die langzamer was dan de Geforce 3 serie, zelfs directx 7 ipv 8. Zo had je ook de 9600GT die langzamer was dan de 8800 GT/S/GTX. De nieuwe GTX465 is soms zelfs langzamer als een GTX285, met meer hitte en hoger verbruik. Zelfs DDR5 ipv. DDR3. Zelfde geldt voor een GTX295 die sneller is dan een GTX470 en soms nog de GTX480!
"Zo had je ook de 9600GT die langzamer was dan de 8800 GT/S/GTX."

...en daarom waren er natuurlijk ook nog de 8600's en 9800's... de 9600 volgde de 8600 op en de 9800 kwam ter vervanging van de 8800 en in beide gevallen nam de snelheid toe.

Oftewel: toen was het eerste cijfer een indicatie voor de generatie en het tweede cijfer de positie binnen de productlijn...
Opzich is het vrij logies dat een X800 net zo snel is als een X600 een serie later, als fabrikant schuif je telkens performance door, anders kom je niet uit met je nummertjes voor de top-kaarten.

Goed voorbeeld: de HD5770 presteert ongeveer hetzelfde als een HD4870, allen heeft de HD5770 wel weer de nieuwe technieken van de 5xxx serie erbij.

Wat NV deet was ordinair de chip van een 8800GT in een 9600GT stoppen. en verkopen als een totaal nieuw product... tja dat klopt niet hea oke hij was een paar nM kleiner....

Destijd werd het ook een bende omdat normaal de GT slomer was dan een GTS en GTX, maar toen NV ineens een nieuwe GT in de 8000 serie klatse die sneller was dan een GTS. En toen waren de rapen gaar.
Eigenlijk hadden ze hem meteen 9600GT moeten noemen dat had ze een hoop ellende bespaard en dan die malafide 8800GS en 9800GS/T kaartjes gewoon laten zitten.
en dan heb ik het nog nieteens over het 8800GTS 320, 512 en 640 MB debakel gehad, zucht ze hebben er zoon bende van gemaakt dat ik het niet eens kan bijhouden....

[Reactie gewijzigd door Toettoetdaan op 25 mei 2010 23:32]

@infinity

Je hebt mijn uitleg niet goed gelezen, je vergelijkt een 5 serie met een 4 serie. Het is heel simpel binnen een serie kun je aan de product nummers afleiden welke sneller is.... Ook is de 4 en 5 serie niet zo relevant want het rebadgen is eigenlijk pas echt los gegaan na de 88xx serie. Ook bij amd is het mogelijk kaarten te vinden waarvan de hogere nummers van de oudere generatie sneller zijn dan de lagere nummers van de eerste serie. Dit is niet zo vreemd aangezien het nummer weergeeft hoe high end een kaart is. Dit garandeerd niet dat een volgende generatie medium/low end beter is dan de oude high end kaarten...

Dit is ook niet echt op te lossen, tenzij alle producten nummers krijgen met voldoende ruimte tussen de kaarten in en deze nummers een soort prestatie index vormen. Hierdoor kun je echter weer niet zien wat nu de nieuwste generatie is (bijv 45nm) en dan moet je weer ongegrijpeleijke letters gaan toevoegen. Wat mij betreft is het allemaal best te behappen zolang alle kaarten die geproduceerd worden een plek krijgen in de nieuwste benaming reeks.

Overigens is cpu mhz een slecht voorbeeld want dat ging jaren prima (amd kwam zelfs met de 1000+ zodat mensen dit konden blijven doen).

[Reactie gewijzigd door sdk1985 op 26 mei 2010 13:05]

Zeker met al die gerebrande rommel. dus dan alleen de g92 oftewel 9800gts - 250gt

GTS330 nu sneller als een GTX285 , denk dat produkt kenning ook een vak is

300 lijn nieuwer geloof dat Nvidia alleen hun 48-470 als topmodel aanprijzen

net als de 5200, 5500 en 5600 , maar waar zijn dan de 57 58 59 jawel 5950 ?

Anders deze P4 versus core2 de 4 is toch hoger ???
kijk maar eens naar mobile videokaarten van nvidia
gt325m is bijv slechter dan gt230m en ik kan nog wel even doorgaan.
het is echt een chaos vind ik :/
Ik kan me nog herinneren dat ik vroeger een ti4800 kocht.
Al dacht ik dat deze kaart sneller was dan de ti4600 bleek dit een ti4400 met agp8x te zijn.

Het komt nu voor maar het gebeurde ook jaren geleden als ik me niet vergis.
De GTX470 is ook een kreupele GF100, sterker nog, de GTX465 is niet veel kreupeler dan de GTX470. Het zou raar zijn als de GTX460 de 'vervanger' wordt van de GTX470 terwijl ze ook nog de GTX465 hebben.

Dat de GTX460 sneller gaat worden dan de GTX465 lijkt me dan ook heel, heel sterk. Afgezien van het feit dat de GF104 waarschijnlijk ook nog dienst zal gaan doen als GTS450 ofzo en dus waarschijnlijk een stuk minder stream processors zal krijgen als een GF100, maken ze het wel heel erg bont qua naamgeving in dat geval.

Dat ze de GTX470 gaan inzetten om dienst te doen in een GTX490 zou best wel eens kunnen. Gezien de snelle introductie van de GTX465, heb ik het idee dat nVidia de productie van GF100's nog niet helemaal onder de knie heeft (wat gezien de grootte van de chip ook niet heel gek is). Aangezien een mogelijke GTX490 in de welbekende niche markt valt, zou de vraag naar GTX470 chips voor deze dual GPU kaart relatief laag blijven, zodat men geen gelukte GTX480s hiervoor op hoeft te offeren.
Het tdp van de GTX490 zou 375W bedragen[...]
En
Als de geruchten kloppen, dan heeft de kaart hoogstwaarschijnlijk twee 8-pinsconnectoren nodig om genoeg stroom aan te leveren. Het pci-e-slot zelf levert maximaal 75W en de 8-pinsstroomconnectors kunnen maximaal 150W per stuk doorvoeren.
Das nog krap-an dan. Precies 375 watt geleverd via PCI-e slot en twee extra stroomlijnen betekend dat er weinig ruimte voor overclocken is.

Ik vraag me trouwens af in hoeverre twee teruggeklokte GTX470's een prestatiewinst leveren tegenover het single-GPU topmodel.
Officieel niet, maar eigenlijk staat er : je pci-slot kan minimaal 75W leveren, dat kan er namelijk van gevraagd worden. Net zo kun je ook minimaal 150W uit je 8pins trekken, en met een beetje voeding nog een stuk meer. Iets zegt me dat je met een leuke voeding best 450W kunt trekken, wat een overklok mogelijk maakt.
Ik vraag het me af. 150 Watt is het maximale wat je door hoeft te voeren volgens de specificaties, dus ik zie niet in waarom een fabrikant extra geld gaat uitgeven aan meer vermogen door dat kabeltje. Ik kan me voorstellen dat er een marge in zit, maar het lijkt me niet dat je een marge van ((450-375)/2)= 37,5 W per PCI-e lijn hebt. Das vrij veel.
Ik denk dat het NVIDIA weinig kan schelen of ze nu beste prijs/prestatie hebben of prestatie/energie verbruik met deze kaart, ze willen gewoon in absolute cijfers de snelste zijn, want dat stimuleert de verkoop in het lagere segment.
ze willen gewoon in absolute cijfers de snelste zijn, want dat stimuleert de verkoop in het lagere segment
Ja, uiteindelijk wel, maar dat gebeurt indirect. Als je de allersnelste kaart hebt dan worden T.net, Anand, Tom en alle andere sites voor enthousiastelingen volgespamd met "mijn nieuwe nVidia is Łber cool en snel en helemaal geweldig!!!111". Daardoor is de kans dat iemand zonder verstand van zaken een site tegenkomt waar nVidia de hemel in wordt geprezen opeens erg groot en zal die persoon dus waarschijnlijk ook een nVidia kiezen, zelfs als dat model minder snel is dan een gelijkgeprijsde ATI.
Maar als het topmodel een zeer opvallend nadeel heeft (als een gek stroom zuipen, veel te heet worden) dan zal dat ook breed uitgemeten worden op "het Internet", zodat ook die informatie bij semi-geÔnformeerde kopers terecht komt (hetzij via Google, hetzij via medewerkers van winkels die ook maar gewoon napraten wat ze gelezen hebben). Of dat bezwaar ook voor low end kaarten geldt maakt geen bal uit, dat is een veel te ingewikkeld detail (ja, dat meen ik, voor "het grote publiek", letterlijk).
Dus nVidia negeert de PCI-e standaard met de GTX 490? Dat lijkt me ook niet echt handig...
Volgens mij weten ze het nog niet. In de tekst wordt een heel simpel rekensommetje gemaakt van PCI-e+ 2x 8 pin, dan kom je idd op 375 watt uit.
Waarschijnlijk als je gaat overclocken dat je het passeert (als dat kan?)
Klopt; stock vermogen zal 375 zijn en OC'ed kan ver boven de 400 W uitkomen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True