Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 99 reacties

Nvidia heeft bij de presentatie van zijn jaarcijfers bekendgemaakt dat er inmiddels 'een paar honderdduizend' Fermi-gpu's van de lopende band zijn gerold. Er waren de laatste maanden veel geruchten dat de productie problematisch zou verlopen.

Nvidia Fermi fpaNvidia heeft naar eigen zeggen de kinderziektes uit het productieproces van zijn Fermi-gpu weten te halen en de chip zou nu volop in productie zijn. Het bedrijf laat weten dat er inmiddels een paar honderddduizend exemplaren van de chip zijn geproduceerd. Nvidia wist in het afgelopen kwartaal een winst te noteren van 137,6 miljoen, iets meer dan het kwartaal ervoor.

Nvidia was genoodzaakt om de introductie van zijn Fermi-gpu meer dan eens uit te stellen, omdat het moeilijk bleek om de 529mm²-grote chip te produceren. De chips zouden te heet worden en de yields van het 40nm-proces van TSMC zouden veel te laag liggen. Toen de GTX470 en GTX480 in maart uitkwamen werd meteen duidelijk dat Nvidia de productie nog niet op orde had; ze waren moeilijk te krijgen. Dit was niet geheel onverwacht, aangezien Nvidia-ceo Jen-Hsun Huang al eerder had aangegeven dat de kaarten in mei pas volop beschikbaar zouden zijn. Deze zomer worden de eerste op de Fermi-architectuur gebaseerde mainstreamkaarten verwacht.

Moderatie-faq Wijzig weergave

Reacties (99)

Maar paar honderduizend? I am not impressed.
AMD has so far sold six million DirectX 11-class GPUs, no doubt helped its six-month lead over Nvidia's Fermi.
http://www.tomshardware.c...5970-eyefinity,10201.html

Nu kan je wel zeggen: Ja maar nvidia heeft alleen maar high end. So what, AMD verkoopt gewoon veel meer, daar gaat het uiteindelijk. Maarja, wat wil je, Nvidia is laat, verbruikt veel, duur, slechte prijs prestatie verhouding. Daarbij halen zij veel minder GPU's uit een wafer, wat alleen maar slecht is voor de winst. Nvidia moet nog hard aan de bak willen ze het bij de volgende generatie recht zetten. Maar daar is een kans voor gezien 32nm geschrapt is en zowel zij als AMD/ATI naar 28nm moeten.

Edit: Daarbij, omdat Nvidia zo laat, is krijgen ze snel het probleem van de volgende generatie. De tape out van die generatie is al geweest. Dus aan het eind van het jaar heeft AMD/ATI een nieuwe serie staan. De aankondiging zou op computex komen! Nu is het voordeel voor NVidia dat ATI ook vast zit op 40nm, aangezien 28nm nog niet af is, 32nm is weg gegooid, ook hier. ATI heeft nu dus Southern Islands in de pipeline zitten. HIeerrrr kan je de laatste geruchten lezen. 28nm gaat zeer interessant worden, gezien de deal die AMD/ATI heeft met Global Foundries(dus oud AMD). Die deal houd in dat ze dus een % van hun GPU's daar af gaan nemen. Dan krijg je straks 28nm SOI-High-K Metal Gates vs 28nm Bulk.

[Reactie gewijzigd door Reinman op 14 mei 2010 15:54]

Nvidia heeft alleen een paar honderduizend Fermi chips van de band laten rollen, los van het aantal andere chips voor laptop/oem/gts210-250 enz enz. Denk je nu echt dat er maar een 100.000 zijn verkocht? Guess again. Ati had een heleboel inhaalwerk te doen, en dat is ze gelukt, maar ze hebben de markt niet 'in handen'. AMD mag blij zijn een beetje winst te maken, en die winst haalden ze afgelopen kwartaal maar net. AMD/ATI maakte samen een winst van 192mljoen dollar

De architectuur van de fermi is een wondertje op zich hoor! Niet alleen voor gamen, de zakelijke markt heeft er een zuinige server bij, gebaseed op de fermi. De gemiddelde gamer, en blijkbaar ook de gemiddelde tweaker boeid dat niet. Ik vind het toch een knap staaltje programmeerwerk.

En voor de '700w opmerking': Ga alsjeblieft je 'kennis' ergens anders tentoonstellen, bij voorkeur op marktplaats ofzo. Alleen met een flinke oc kwam de 250w in de buurd!

Bij ATI kan ik ook niet echt zeggen dat de levering flawless is verlopen, dat begint in de highend sector nu pas te komen. Hoelang moest je ook al weer wachten voor je voor een normale prijs een 5870 op de kop kon tikken? Na een 5870 met groene strepen versleten te hebben, komt mijn gtx480 er aan, lekker!
AMD mag blij zijn een beetje winst te maken
Je maakt een zeer grote fout door omzet, verkoopaantallen en winst door elkaar te halen.

Zelfs al zou Nvidia grote aantallen videokaarten met Fermi verkopen en grote omzet halen, dan zou hun winst slecht zijn tov ATI.

ATI kan die gpu's namelijk VEEEL goedkoper produceren dan Nvidia.
Het is juist Nvidia die bij deze generatie gpu's blij mag zijn een beetje winst te maken, terwijl het zeker is dat ATI flinke winst maakt.

(of dat ook betekent dat AMD als geheel bedrijf winst maakt is weer heel wat anders)
Sorry maar ik heb je op +0 gezet vanwege onjuiste informatie... AMD maakt geen flinke winsten, ook niet met hun gpu divisi.

Sterker nog weet je dat amd uberhaupt sporadisch winst maakt? Als je alleen naar de gpu's kijkt dan mag je blij zijn met 50 miljoen... Kijk anders even op de amd site bij investors... AMD verkoopt zijn producten al jaren net boven of zelfs onder de kostprijs... Nvidia , maar ook intel, moeten topprestaties neerzetten om niet af te zakken in winst...

edit linkje:
http://ir.amd.com/phoenix...4093&p=irol-reportsannual

2009:

Operating income
computing 127
graphics 50
foundry (433) (negatief dus)
all other 968

Revenue (omzet)
computing 4131
graphics 1206
other 47

Dit is dus een winst van 50 miljoen VOOR zaken als belasting een indirecte kosten (bijv marketing en sales, afhankelijk van hoe AMD dit definieerd) voor HEEL 2009. Op de omzet is dit dus slechts +/- 4%.

[Reactie gewijzigd door sdk1985 op 14 mei 2010 16:15]

Je vergeet dat in die cijfers de 5000 reeks nog vrijwel geen invloed heeft gehad. Je zult dat pas in de cijfers van 2010 terug zien.

En bij Nvidia zullen de gevolgen van hun falende ontwerp ook pas in de komende maanden zichtbaar worden.
In de 4000 reeks had ATI net zo'n groot die space voordeel als nu met de 5000 reeks dus dat wachten op cijfers van 2010 lijkt me irrelevant.

Enige dat je gaat zien is dat ATI 6 maanden meer tijd heeft gehad door eerst op de markt te komen hetgeen de 2010 cijfers in relatie tot die space voordeel zal vertekenen imho.

[Reactie gewijzigd door -AzErTy- op 14 mei 2010 22:34]

De 4000 reeks was in de volksmond ook al beter dan de (gerebrande) geforce. Het is niet zo dat de 5000 reeks de verhoudingen tussen nvidia en ati op zijn kop heeft gezet.

(Ik ben het dus eens met mjtdevries)
Bedankt voor de bijval maat, wat je zegt, AMD mag blij zijn dat ze een beetje winst maken, 6miljoen kaarten verkocht of niet. Voorlopig gaat het nog prima met Nvidia, zonder kaarten onder de kostprijs te verkopen!
Geen probleem. Bedrijfsmatig doet nvidia het inderdaad een stuk knapper dan ati :+ .

[Reactie gewijzigd door sdk1985 op 16 mei 2010 20:15]

Euhhh welke cijfers zit jij precies naar te kijken? Uit het volgende document maak ik namelijk op dat ze 800m omzet draaiden op graphics en 97m winst. Zeker geen slechte cijfers, maar ook niet iets om van de daken te schreeuwen.

http://phx.corporate-ir.n...pbGRJRD0tMXxUeXBlPTM=&t=1
Jij linked een proxy, ik gebruik het jaar rapport. Het verschil zit hem erin dat het jaar rapport officiele gegevens bevat die vallen onder de (strengere) internationale accounting standaarden (IAS etc), jaarraporten kun je dus gebruiken om verschillende bedrijven te vergelijken (anders is het appels met peren).
Nee idd, er zijn niet eens 100.000 DX11 parts verkocht. Moet je na gaan. Terwijl AMD er dus 6 miljoen heeft verkocht!

@hier onder:
Ten eerste heeft NVIDIA volgens eigen zeggen dus een paar honder duizend chips verkocht
Ik lees geproduceerd.
Ten tweede, AMD heeft wat, 9-10 maanden voorsprong? NVIDIA heeft nu net de eerste productie op gang voor 1-1.5 maand?
Ja en? Wie zijn probleem is dat nu? Die van AMD die er al 6 miljoen heeft verkocht van hun eerste DX11 kaarten of Nvidia die er nu net meer dan 100.000 heeft gemaakt?
Ten derde, AMD heeft een complete DX11 lineup terwijl NVIDIA alleen ultra-high-end kaarten heeft.
Again, wie zijn fout is dat? Die van AMD of die van Nvidia?

[Reactie gewijzigd door Reinman op 14 mei 2010 15:39]

Ten eerste heeft NVIDIA volgens eigen zeggen dus een paar honder duizend chips verkocht

Ten tweede, AMD heeft wat, 9-10 maanden voorsprong? NVIDIA heeft nu net de eerste productie op gang voor 1-1.5 maand?

Ten derde, AMD heeft een complete DX11 lineup terwijl NVIDIA alleen ultra-high-end kaarten heeft.
Again, wie zijn fout is dat? Die van AMD of die van Nvidia?
Dat is geen fout, maar dat zorgt er wel voor dat je die verkoop cijfers (op deze manier) niet met elkaar kunt vergelijken.

[Reactie gewijzigd door Alucard op 14 mei 2010 22:04]

Toch grappig he, AMD levert in 3 maanden 800.000 HD5000 kaarten en alle tweakers schreeuwen van de daken hoe geweldig AMD wel niet is en hoeveel kaarten dat wel niet zijn en hoe NVIDIA kan inpakken.

Vervolgens verkoopt NVIDIA in anderhalve maand een paar honderd duizend kaarten en eh... opeens is dat slecht? :S
Nvidia zag de omzet naar 137,6 miljoen dollar groeien, maar maakte ongeveer 200 miljoen dollar minder winst dan vorig jaar.
Kan iemand mij dat uitleggen? Hoe maak je met een omzet van minder dan 137 miljoen een winst van 200 miljoen?

/edit: is ondertussen aangepast in de nieuwspost.... mod maar weg :(

[Reactie gewijzigd door IJsbeer op 14 mei 2010 13:06]

die 137M gaat over een kwartaal. Die 200M over een jaar.
hier wordt omzet met winst vergeleken, er staat 200 miljoen dollar minder winst dan vorig jaar, maar dat klopt wat jij zei als je omzet 137,6 is gaat het alleen maar omlaag en niet omhog ;)
Er staat dat de winst is gegroeid met 137.6 miljoen niet de omzet.
Kijk anders even op nvidia.com , nvidia heeft een miljarden omzet. AMD heeft wel een miljoenen omzet (met de gpu's).
Dat was een foutje, heb het inmiddels aangepast.
Ja, het was een verschrijving, de $200m was het verlies vorig jaar in dezelfde periode, de $137m de winst dit laatste kwartaal :)
Weliswaar een foutje, maar het kan wel. Porsche heeft zo'n truc uitgehaald. Dit gebeurt als je niet-omzetgelateerde inkomsten hebt. Dat kan bijvoorbeeld een schadevergoeding zijn zoals AMD die kreeg, of winst op aandelen die je hebt (Porsche had veel VW aandelen)
sweet dat die gpu's volop te leveren zijn.
natuurlijk klote voor nvidia maar bij nieuwe procede heb je kans op problemen.
nu nog maar wachten op goede en snelle en uiteraard zuinige main stream videokaarten en natuurlijk prijs verlaging van gf100
mooi werk nvidia!
Klote voor NVIDIA? Ze hebben gewoon een veel te grote chip proberen maken op een risicovol proces. Alle problemen hebben ze aan zichzelf te danken.
Lang niet alle, TSMC heeft absoluut ook schuld. Zij hadden beloofd 40nm halverwege vorig jaar up and running te hebben, op een betrouwbare manier. Aangezien er nog steeds problemen zijn met het proces, kun je niet alles op NV afschuiven. ATi heeft er ook last van (gehad), maar is actief bezig geweest om de boel aan te passen. Dat heeft z'n vruchten afgeworpen.
Akkoord, TSMC heeft z'n beloftes niet waar gemaakt (of toch niet op tijd). Maar toch, dat was niet geheel onverwacht en bovenal heeft NVIDIA een idioot grote chip op een nog onvolwassen proces willen maken. Da's een risicovolle gok met zeer grote inzet en daar werden ze op afgestraft.
Die risicos moet je zo af en toe nemen. Had men er niet op ingezet, en de 8800-architectuur nog een respin gegeven, dan waren ze ook hard achterop geraakt. NV gokte erop dat ze warmte etc binnen de perken konden houden, en dat 40nm een fikse boost zou geven. Dat was 2x mis, maar was het raak geweest, en had de 4x0 (of GT100 zoals ze oorspronkelijk zouden heten) vorig jaar in de winkel gelegen, dan had men een mooie klapper gemaakt. ATi gokte (terecht) dat verbruik en grootte belangrijk zouden worden, en dat heeft ze geen windeieren gelegd. In de GPU-business is vooruitzien en gokken een belangrijke factor. Matrox, 3dfx en nog een aantal hebben in het verleden ook gegokt, en een keer goed verloren. NV is te groot om door 1 misser plat te gaan, maar het kost ze veel credits. Zelfs 'normale' tweakers krijgen door dat er daar toch het een en ander minder gaat, en dat kan geen TWIMTBP-campagne tegenop.
Niet geheel waar, management en hoofd ontwerper hebben behoorlijke steken laten vallen.

Men had moeten leren van geschiedenis, waar ATi top bij tijds bijstuurde ging NV gewoon door met een nieuw proces waar veel teveel problemen mee waren, met een product die veel te ver zijn tijd vooruit was en veel te prestigieus was maar, maar management koste wat het koste de snelste GPU wilde hebben.

Nou gefeliciteerd dat hebben ze nu, alleen een probleem, niet zo als een Ferrari, waar je echt mee kan pronken, wil mensen niet in hun PC een GPU hebben die in verhouding net zoveel lawaai, energie verbruikt en onevenredig duur is.

Daar komt nog eens bij dat zo goed als niemand behoefte heeft aan een GPGPU in zijn PC voor wat het extra kost, ik kan in ieder geval niet de kosten bate er van inzien.
En Tesla de dedicated, GPGPU NVs alternatief voor mainframes verliest rechts en links klanten die na alle gebroken beloftes, de Tesla te langzaam en te heet en duur vinden.

De 5870 was origineel veel groter geplant als dat we hebben gekregen, originele planning was 2x zoveel transistors dan de 4870 (bijna net zo groot als de GF100), maar na de problemen met de 4770 op 40nm zijn ze grondig in opties gaan schrapen zo dat ze op 1.5x die size uitkwamen wat nog net onder controle is te houden.
Meer info hier over @ Anandtech: The RV870 Story: AMD Showing up to the Fight

ATi heeft van zijn fouten geleerd, en NV heeft in het verleden de zelfde problemen gekend, waarom kon ATi wel van zijn geschiedenis leren en NV niet, of in ieder geval van ATi's geschiedenis leren, is dat niet wat een goed management team doet, in plaats van schreeuwen dat ze een "can of wooop ass" zouden openen, en niet kunnen leveren?

Begrijp me niet mis ik heb geen voorkeur voor ATi of NV en koop altijd gewoon waar ik mijn beste "bang for bug" kan krijgen, en ik totaal niet blij bent met de huidige stand van zaken.

Want met de zo een beetje alleen heerschappij van ATi zie ik zonder concurrentie de prijzen voorlopig niet zakken, terwijl ik toch best graag een water gekoelde 5970 naast mijn 5870 zou willen prikken :(
Het is keihard nV eigen dikke schuld.

Dat er iets aan TSMC te wijten is, is ook maar marginaal. AMD werd gewoon geleverd. Niet optimaal maar daar staat tegen over dat je in die lagere prijs klasse van een volume produkt spreekt waar 1mil wereld wijd niet veel is. Maar voor een duur ding is 100.000 stuks mogelijk even krap.

nV probleem is 'n 3miljard transistoren chip proppen op 40nm die.

Het had ook ietje minder gekund. Zoals 2,5 mil of 2,2.

Maar dan kom je in de performance klasse van AMD.
De single gpu performance kroon word dan stuivertje wisselen.

Tja als je dwangmatig de eerste moet zijn, dan moet je met je ontiegelijk bigchip beleid gewoon op de blaren zitten.

De 3mil chip is eigenlijk iets voor een nog kleiner dieshrink. 32nm of 28nm.

Dat houd in dat je voor een GPU upgrade eens niet je PSU voor een nog zwaardere moet vervangen. Terwijl de vorige PSU nog goed is maar te licht.

Ben benieuwed wat GTX465 voor iets is.
Toch grappig dat iedereen zit te zeuren over de "bizarre grootte" van G200 en GF100, terwijl iedereen zo lyrisch was over G80, die bijna net zo groot was. Nooit ook maar iemand horen zeuren over yield issues, idioot verbruik of wat dan ook. Waarom was NVIDIA toen nog revolutionair en visionair en geweldig en nu dom en arrogant en koppig?
Als TSMC niet zegt dat ze het kunnen, 40nm, dan zou nVidia niet met dit ontwerp zijn gekomen. Je bent wel gek als je je geld compleet zet op een procede waavan je WEET dat het niet goed te produceren is.
Vergeet niet dat ATI in t begin (zeker met de ji-end kaarten) ook problemen had in het productie proces. Ik vind dat ze dat dan nog snel hebben opgelost. Snel zijn ze wel alleen nog een beetje te duur. Denk dat de prijs toch echt wel weer gaat zakken nu t een beetje begint te lopen en er beter aan de vraag-aanbod voldaan kan worden.q
Niet veel iig, want ze hadden al geoefend met de HD4770.
Daarom was de 5870 ook zo goed verkrijgbaar de eerste maanden ;) Een vriend van mij heeft er 3 maanden op moeten wachten voor zijn 5870 binnen was. Nee, AMD had ook veel problemen met productie, alleen door hun ervaring met de 4770 konden ze wel een paar maand eerder lanceren dan NVIDIA.
Verkrijgbaarheid zegt niet perse alles over de productie... Immers, als de vraag absurd veel hoger dan de productie capaciteit is, dan moet je ook lang wachten, ookal is er geen enkele uitval in de productie.

En AMD zat met de 5870 absoluut in een situatie waarbij de vraag enorm was. Ze hadden de nige nieuwe generatie DX11 gpu, met uitstekende prestaties, en uiterst laag energie verbruik. Gewoon veel beter dan alles wat er op de markt was. En dat betekende dat een half jaar lang, de high-end consument alleen bij AMD kon kopen.... Dat doet wel wat met de vraag... Ook omdat het vooraf al duidelijk was dat het weinig zin had om op NVidia te wachten.
AMD had in december 800.000 HD5000 chips geleverd. Dat was in 3 maanden. Nu heeft NVIDIA een "paar honderd duizend" geleverd in iets meer dan een maand. Toch zijn de kaarten nog steeds uitverkocht. Klinkt toch redelijk als een zelfde situatie toch?

[Reactie gewijzigd door Snoitkever op 15 mei 2010 13:14]

ik snap sommige reacties over het energieverbruik niet,
natuurlijk zijn de HD 5xxx serie beter in quasi alle aspecten maar
Nvidia heeft nu weer de snelste singelGPU kaart en daar moet toch iets tegenover staan,
als je een GTX480 kan betalen kan je ook zijn verbruik wel betalen,

persoonlijk wacht ik tot de volgende generatie Nvidia denk ik, dan word het pas echt interessant tussen ATI en Nvidia
Nvidia heeft nu weer de snelste singelGPU kaart en daar moet toch iets tegenover staan,
als je een GTX480 kan betalen kan je ook zijn verbruik wel betalen
Wat heb je er in godsnaam aan om de snelste single GPU te hebben? Als iets met 2 GPU's op alle fronten beter is, dan is dat toch gewoon een superieure kaart?
Kom niet aan met het verhaaltje dat sommige oude games het niet ondersteunen, die draaien ook perfecte framerates met een enkele GPU.

Bij CPU's is men ook overgestapt op meerdere cores ipv een enkele snelle core te hebben. NVIDIA met dat ook wel zien anders gaan ze ten onder.

[Reactie gewijzigd door plankton123 op 14 mei 2010 13:22]

Bij CPU's is men ook overgestapt op meerdere cores ipv een enkele snelle core te hebben. NVIDIA met dat ook wel zien anders gaan ze ten onder.
Ik dacht dat mensen ondertussen wel beter zouden weten dan te beginnen over "multicore" GPU's. Een dual-GPU kaart is niet hetzelfde als een dual-core CPU. Fermi is een 32 core architectuur, Cypress een 20-core architectuur. Multi-GPU kaarten zijn te vergelijken met een multi-CPU PC, en daar is de gewone consument ook nooit op overgestapt.
Is dat er OOIT voor de gewone consument geweest dan? Multi-CPU?

Dat waren XEON cpu's, oftewel voor het bedrijfsleven.
Het is wel de snelste, maar het verschil is niet al te groot. verder zijn ze alleen gemiddeld het snelste. Het is niet zo dat de 480 in elke game sneller is.
Dus imo is het stroom verbruik niet gerechtvaardigd.

Dus heel logisch dat mensen klagen over het stroom verbruik
"Persoonlijk wacht ik.........ATI en NVidia"

Ja, dat zeiden ze bij de vorige generatie ook.
Van mij mogen ze het wel eens gaan waarmaken.
Ze produceren ze wel maar zouden ze ook verkopen ?
Echt concurrerend met de HD 5xxx serie zijn ze nauwelijk.
Het verbruik is echt belabberd.
Zoals Nvidia al meermaals heeft aangegeven zijn gamers niet langer hun enige en misschien wel niet hun grootste doelpubliek meer.

Daarnaast doet Nvidia het als bedrijf zeer goed lijkt het:

Nvidia on Thursday reported revenue of $1.0 billion for the first quarter of fiscal 2011 ended May 2, 2010, up 2 percent from the prior quarter and up 51 percent from $664.2 million in the same period a year earlier.

Hun Tesla en Quadro lijn doet het naar eigen zeggen enorm goed, vooral op vlak van supercomputing hebben ze de markt helemaal voor zich.
Tsja dat is wel waar, maar is dit wel slim? Want het echte geld ligt bij oem's, en die kopen vooral kaarten die een goede naam hebben, wat dus de gamer die naar de media markt gaat wilt hebben, en dat krijg je door mooie kaarten te maken.. Of zie ik dit nou verkeerd? :p
Hun nieuwe doelpubliek is niet de gamer die naar de mediamarkt gaat, dus wat die wilt hebben maakt niet zoveel.
Met Fermi heeft Nvidia op gpgpu gemikt, waar deze kaarten dan ook gehakt maken van ATI.
1. Er is zeer weinig vraag naar gpgpu in vergelijking met de gamersmarkt.
2. de kaart maakt geen gehakt van ATI bij gpgpu.

3. Neem eens 10 applicaties die serieus van gpgpu gebruik maken? (waarbij het verschil daadwerkelijk merkbaar is, en de aanschaf van zo'n kaart zinvol is)
2. de kaart maakt geen gehakt van ATI bij gpgpu.
AMD is waardeloos op gebied van GPGPU, zeker in vergelijking met Fermi. C++ support, ECC memory, single address space, unified l2 cache, volledige IEEE754-2008 support, executie van meerdere kernels tegelijk, etcetera. AMD heeft geen enkele aanpassing in zijn GPU ontwerp voor GPGPU, alles is gericht op graphics. Uiteraard is dit een slimme keuze geweest van AMD want daardoor zijn ze nu de snelste en de goedkoopste, maar laten we nu niet gaan doen alsof ze ook maar iets voorstellen op gebied van GPGPU.
3. Neem eens 10 applicaties die serieus van gpgpu gebruik maken? (waarbij het verschil daadwerkelijk merkbaar is, en de aanschaf van zo'n kaart zinvol is)
Wie heeft het hier over consumentenapplicaties? Er zijn een heleboel bedrijven in de medische, financiele en energie business die bezig zijn met CUDA en hier fantastische resultaten mee bereiken. Natuurlijk zijn dit geen applicaties die jij of ik "kennen", dit zijn specialistische pakketen die binnen die bedrijven ontwikkeld en gebruikt worden. NVIDIA heeft hier een gigantische voorsprong op AMD, die tot december 2009 niet eens een fatsoenlijke API had voor GPGPU.
Zal de vraag eens herhalen.

"3. Neem eens 10 applicaties die serieus van gpgpu gebruik maken? (waarbij het verschil daadwerkelijk merkbaar is, en de aanschaf van zo'n kaart zinvol is)"

Doe al jaren GPUGPU en ja ATI maakt ook al jaren gehakt van Nvdia.

Kijk gewoon eens naar de DP FP van een 5870 VS een 480.
Een 4850 rend rondjes om een GTX285 puur in FP power, aleen in games niet maarja daar hebben we het niet over.
(Daarom gebruikte ik ook 2xGTX285 in SLi om te gamen :P )

En die API was er wel degelijk hoor. aleen om jou zin even te herhalen.
"Natuurlijk zijn dit geen applicaties die jij of ik "kennen", dit zijn specialistische pakketen die binnen die bedrijven ontwikkeld en gebruikt worden."

Oh kijk ATI.
http://arstechnica.com/hardware/news/2006/09/7763.ars

"AMD first released its Stream Computing SDK (v1.0), in December 2007"

"The stream cores can handle the higher rounding precision fused multiply-add (FMA) instruction in both single and double precision which increases precision over multiply-add (MAD) and is compliant to IEEE 754-2008 standard"

[Reactie gewijzigd door r.stanneveld op 15 mei 2010 08:39]

Dat ATI meer FLOPS heeft betekent niet direct dat ze beter zijn in GPGPU, net zoals meer FLOPS ook niet betekent dat de kaart sneller zal zijn in games.

Wat OpenCL en CUDA (al kun je de laatste natuurlijk niet vergelijken met ATI) betreft makt Fermi echt wel gehakt van ATi. Ook is het gemak om te programmeren van belang, als je je programmeurs de klus in de helft van de tijd kunt laten klaren is dat waarschijnlijk wel het performance verlies waard.
quote: mjtdevries
3. Neem eens 10 applicaties die serieus van gpgpu gebruik maken? (waarbij het verschil daadwerkelijk merkbaar is, en de aanschaf van zo'n kaart zinvol is)
Nvidia wilt een nieuwe markt maken, logisch dat die nog niet zoveel voorstelt.
(GPU's worden wel al even gebruikt in supercomputers, maar echt gemakkelijk is het nog niet om daar voor te programmeren. C++, OpenCL, CUDA ed moeten dit gemakkelijker en aantrekkelijker maken)
quote: mjtdevries
Grote onzin.
AMD en Nvidia hebben allebei de gpu gemaakt voor graphics.
Gpgpu is een gevolg van de trend in graphics om de shaders meer algemeen in te zetten waardoor het ineens ook als gpgpu bruikbaar is. Maar het is gewoon een bonus.
Als je kijkt naar het ontwerp van Fermi is GPGPU echt wel meer dan gewoon een 'bonus', Fermi is een GPU gemaakt voor GPGPU.

[Reactie gewijzigd door Goderic op 15 mei 2010 10:17]

"3. Neem eens 10 applicaties die serieus van gpgpu gebruik maken? (waarbij het verschil daadwerkelijk merkbaar is, en de aanschaf van zo'n kaart zinvol is)"
Kijk eens hier, meer dan 1000 showcase applicaties die CUDA gebruiken. Meer dan 100 daarvan commercieel, waaronder
Mental Ray 3.8
WinDVD
PowerProducer
PowerDirector
Roxio Creator

En laten we natuurlijk niet Adobe Premiere CS5 vergeten, waar CUDA hardware video decoding mogelijk maakt waardoor video editing vele malen sneller wordt.

Uiteraard is dit nog maar een deel van alle applicaties die gebruik maken van CUDA. Er zijn een heleboel in-house tools die door grote bedrijven gebruikt worden, zoals ik al zei, in bijvoorbeeld de medische en de energiewereld. Hoe zou NVIDIA anders aan meer dan 1 miljard kunnen verdienen aan GPGPU verkopen?
Kijk gewoon eens naar de DP FP van een 5870 VS een 480.
Theoretische DP of SP performance zegt echt helemaal niets over werkelijke performance van een GPU. Er zijn zoveel andere bottlenecks die minstens net zo belangrijk zijn. Dat is de reden dat G200 wint van RV770 in games terwijl RV770 in volgens de specs makkelijk de overhand zou moeten hebben.
En die API was er wel degelijk hoor. aleen om jou zin even te herhalen.
Haha, Stream ja? Nee, want Stream wordt veel gebruikt! Noem eens 10 applicaties die stream gebruiken :P
Uiteraard is dit een slimme keuze geweest van AMD want daardoor zijn ze nu de snelste en de goedkoopste, maar laten we nu niet gaan doen alsof ze ook maar iets voorstellen op gebied van GPGPU.
Grote onzin.
AMD en Nvidia hebben allebei de gpu gemaakt voor graphics.
Gpgpu is een gevolg van de trend in graphics om de shaders meer algemeen in te zetten waardoor het ineens ook als gpgpu bruikbaar is. Maar het is gewoon een bonus.

Vervolgens blijkt dat AMD veel eerder klaar is en een veel betere gpu heeft.

Nvidia trekt dan een konijn uit de hoge hoed. Ipv toegeven dat je grafische chip geflopt is, doe je nu net alsof je voor de gpgpu markt ontwerpt. terwijl die markt heeeeeel klein is tov de grafische markt.

Briljante marketing tactiek want het blijkt dat mensen er in trappen.
Maar goede marketing kan niet op tegen vernietigende benchmarks.

Er zijn inderdaad mensen bezig met CUDA. Dat zijn voornamelijk studenten op universiteiten. Omdat CUDA in eerste instantie simpel leek (er werd gedaan of het gewoon C was) zijn veel studenten daarmee aan de slag gegaan.

Maar als je er serieus mee aan de slag wil, dan is het niet simpel.
En dan zit er in praktijk vrijwel geen verschil tussen CUDA en OpenCL.
@mjtdevries: Niet overdrijven de markt is best wel groot.

Dit overzichtje even uit een artikel op Anandtech opgesnord, onderstaande getallen geven aan wat het marktpoptentieel is over 18 maanden aangaande GPGPU toepassingen.

Processor Seismic Supercomputing Universities Defence Finance
GPU TAM $300M $200M $150M $250M $230M
Totaal: 1.13 Miljard $= best wel veel zonder concurrentie

Dan over de inkomsten van Nvidia specifiek van Quadro en Tesla
Huidige situatie in Q3 2009 dus pr Fermi zie je dat al meer dan 25% van de grafische chips niet naar gamers gaan. Houdt er verder rekenig mee dat VGA ook alle simpele budget modelletjes bevat dus in de high end klopt het zeer zeker dat er meer chips gaan naar GPGPU toepassingen dan naar gamers.

NVIDIA Q3: 903.2$ Turnover (+16%)
- VGA GeForce 464 Miljoen turnover (25% up)
- Chipset 247.9 miljoen turnover (4% up)
- Tegra 61 miljoen turnover (22% up)
- Professional (Quadro + Tesla) 129 miljoen turnover (11% up)

Over Ati: je hoort enkel beloften van ATI dat ze werk gaan maken van GPGPU maar echt concreet is er nog niks. Zelfde verhaaltje als met physX en de vaporware tegenhanger van ATI.

[Reactie gewijzigd door -AzErTy- op 14 mei 2010 22:36]

GPU computing is zo onnuttig dat de laatste Adobe Premiere volledig rond CUDA geschreven is...
Ik denk dat jij enorm het business model van nVidia uit het oog verloren bent. Tesla is nu een veel grotere inkomstenbron voor nVidia dan GeForce (game) kaarten.
En heb je daar ook enig bewijs voor?

Je bent uit het oog verloren dat de game kaarten markt ongelooflijk veel groter is dan de Tesla markt.
Of een markt groter of kleiner is, zegt niets over wat er voor een bedrijf het interessantste is. Als jij 1 miljoen exemplaren verkoopt met een nihil of zelf GEEN winst, of 2000 met een flinke winst, waar zou jij dan voor gaan?
Tja, in de OEM sector ligt er een grote marktovermacht bij Intel, voor zo ver ik weet al jaren. En met de nieuwe (vrij goede) on-chip IGP in de CORE i[X], zal daar waarschijnlijk geen verandering in komen. Dus dan kan je als (veel) kleinere fabrikant natuurlijk je proberen te blijven focussen op een gebied, waar je veel tegenwicht hebt, of je boort een nieuwe markt aan en neemt die geheel over. nVidia heeft dus het laatste gedaan en blijkbaar met succes.

Trouwens: "het echte geld ligt bij oem's en die kopen vooral kaarten die een goede naam hebben". Dit is dus juist onzin, want in oem's zit meestal alleen een IGP, omdat dat gewoon veel goedkoper is. En die markt beheerst Intel al tijden. De gamers zijn inderdaad de mensen die nog veel geld uitgeven aan graka's, maar dit is een bijna marginale groep vergeleken met de mainstream/budget oem oplossingen.
Nvidia heeft bij de presentatie van zijn jaarcijfers bekendgemaakt dat er inmiddels 'een paar honderdduizend' Fermi-gpu's van de lopende band zijn gerold.
Tja Nvidia zegt wel meer als het over Fermi gaat :') Maar veel klopt er meestal niet van. Als ze al honderdduizenden chips hebben, waarom is er dan nergens een Fermi kaart te krijgen?

Zelfde met de tesla kaarten. Daarvan hebben ze de specs alweer veranderd (verlaagd).

Maar het kan ook dat nvidia naar goed nvidia gebruik ook gewoon weer hun relabelde oude chips die ze als fermi based kaarten verkopen (310) meetelt. Gaan ze straks trouwens ook doen met de GTS250 die gewoon een G92 is.

Fermi is gewoon te groot, te heet, te duur, te traag en niet in fatsoenlijke yields te produceren.
Tja Nvidia zegt wel meer als het over Fermi gaat :') Maar veel klopt er meestal niet van. Als ze al honderdduizenden chips hebben, waarom is er dan nergens een Fermi kaart te krijgen?
misschien omdat de ASUSen, Sapphires, XFXen en MSI's van deze wereld die GPU's nog op bordjes moeten schroeven ? en voordat ze dat doen moeten ze die bordjes nog ontwerpen.

Met andere woorden er zit wat tijd tussen het moment dat ze bij NVidea uit de foundry rollen en het moment dat ze in de winkel liggen.
Dat is niet waar. Die kopen het referentie ontwerp, plakken hun stikker er op en doen die in een doos met hun naam er op.
Ze nemen misschien het referentieontwerp over, maar je denkt toch niet dat NVIDIA dat maakt? NVIDIA zit niet in de PCB business, dat is juist wat de AIB partners doen (vandaar de naam). NVIDIA levert alleen de chips en eventueel een referentieontwerp De AIB partners doen de rest. Dus ja, er zit nogal wat tijd tussen, chips bakken, verschepen, PCB en andere componenten verschepen, assemblage, packaging, distributie naar importeurs, distributie naar winkeliers. Vergeet ook niet dat al die chips in het verre oosten worden geproduceerd en daarna helemaal naar Europa en Amerika worden vervoerd. Dat doen ze niet in 1 nachtje.
Volgens mij leveren ze altijd een referentieontwerp, vaak ruim voordat de produktie van de GPU daadwerkelijk van start gaat. Die PCB's liggen dan allang te wachten, totdat de eerste truck met cores langskomt. Maar goed, ze melden het tijdens de jaarcijfers, he tis niet zo dat er gisteren 200.000 op het "vliegtuig" gegaan zijn ...
Reken erop dat de eerste aantallen niet naar de consument gaan. Die gaan naar testcentra's en journalisten die er weer reviews voor maken (bijv HWI, Tweakers.net en andere grote jongens :) ). Zo krijgt NVidia en consorten (MSI, Asus, enz) de media achter zich (als het een succes is). Voordat het zijn weg naar de klant gevonden heeft, ben je, denk ik, zo drie weken verder. My 2 cents ;)

[Reactie gewijzigd door marquis op 14 mei 2010 17:05]

Sapphire is partner van AMD / ATI en houdt zich dus niet bezig met de verkoop van nVdia gpu's... Just so you know ;)
waarom is er dan nergens een Fermi kaart te krijgen?
Jawel, alleen niet tegen een beetje redelijke prijzen. Net als de 58xx een paar maanden terug...
Ik vind het behoorlijk typisch dat er aandacht wordt besteed aan uitspraken van een CEO terwijl de rest van de wereld erop wijst dat de yields nog steeds ridiculously low zijn. Er zijn totaal nog geen tekenen van verbetering geweest, anders het echt wel gelekt.

Waarom? Dit is alleen maar slecht nieuws voor TSMC die grote moeite heeft (gehad) met verschillende producten op 40nm. Het eerste wat je dan doet zodra er iets in de pijplijn zit dat de situatie kan doen omslaan is het positieve nieuws naar buiten brengen en vertrouwen uitspreken. Dat is hier niet gebeurd, dus ik zou toch nog wel een vaatje zout leveren aan het adres van dhr. 'Jensen'.
Inderdaad. Ook een term als 'een paar honderdduizend" is behoorlijk vaag... Dat klinkt echt veel meer als marketing dan iets anders.
Voor het geval je het niet wist, een CEO die liegt tegen z'n aandeelhouders is niet slim bezig. Niet alleen verpest hij de goodwill, hij kan ook heel hard aangeklaagd worden. Dus als Jen Hsun zegt dat ze zoveel kaarten hebben geleverd kun je er ook van uitgaan dat dat waar is. Als het niet waar was geweest hadden ze er wel op een andere manier omheen geluld.
terwijl de rest van de wereld erop wijst dat de yields nog steeds ridiculously low zijn.
Bron? Of kom je nu met Charlie aan? Want nee, die is natuurlijk veel betrouwbaarder dan Jen Hsun Huang ;)
NVidia heeft anders keihard gelogen toen ze hun Fermi kaart lieten zijn. "Dit is 'm!" roepen, en dan een slechte mockup laten zien, met een doorgezaagde pcb. Dus we weten gewoon uit ervaring dat Jen Hsun het niet zo nauw neemt met de waarheid.

Verder is dit gewoon mooi weer spelen... NB: merk op dat er geen echte harde aantallen worden genoemd. Dat is natuurlijk niet voor niets!
Dat was niet tegen aandeelhouders in een conference call over de financiele resultaten. Dat was tijdens een conferentie over GPGPU. Nogal een verschil. Dus waarom denk je dat het niet geloofwaardig is?
merk op dat er geen echte harde aantallen worden genoemd. Dat is natuurlijk niet voor niets!
Nee? Waarom is het dan?
Dus nieuws vanuit NVIDIA is selectief?...

Kun je mij dan vertellen hoe ik dat kan zien? Ik dacht nl dat nieuws wat naar buiten komt (al dan niet strokend met de werkelijkheid) voor iedereen te zien was ..... :+
Ach, blijkbaar heeft elke videochip fabrikant moeite met leveren van chips momenteel.
De 5870 v2 van asus heeft ook weer 2 weken geduurd voordat ik deze weer leverbaar zag (normale prijs)
Dat komt omdat zowel ATI als nVidia chips van de laatste generatie op hetzelfde (40nm) TSMC proces gebakken worden in dezelfde fabrieken.
TSMC heeft veel problemen gehad met slechte yields en als je de huidige situatie bekijkt lijkt me dat die yields zeker voor nVidia met die enorme chips nog wat tegenvallen.

[Reactie gewijzigd door Stevendefeij op 14 mei 2010 16:47]

Tegenstrijdig bericht. Geleverd of geproduceerd? Daar zit nogal een verschil tussen moet ik zeggen. Als het geproduceerd is dan kan het best zijn dat daar een hoop afgekeurde 480 en 470 exemplaren tussen zitten die dan als mainstream kaarten verkocht kunnen worden. Niet ongebruikelijk in de gpu en cpu branche. Deze kunnen dan nog geleverd worden aan de afnemers.
Dat die chips te heet worden, wisten we al. Daar kunnen ze volgens Nvidia toch zo goed tegen, hitte O-)
Wat zijn AMD fans toch selectief van geheugen zeg. Of zijn we opeens vergeten dat de 4870 en vooral de 4850 ook bizar heet werden? 80 graden in idle was heel normaal. Toch hoor je daar niemand meer over zeuren nu ;)
Zijn er al berichten van falende 470/480 kaarten vanwege deze temperaturen? hmm? ;)
jep...tik maar in google... maar er zijn nog meer bugs op die kaarten als ik zo wat links volg... , dus zo op het eerste gezicht is het alleen maar erger geworden met NVIDIA kaarten...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True