Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 63 reacties

Nvidia heeft bekendgemaakt dat de opvolger van de Fermi-gpu die de huidige serie videokaarten aandrijft, in 2011 zal uitkomen. De nieuwe architectuur gaat schuil onder de codenaam Kepler en wordt op 28nm geproduceerd.

Nvidia deed de aankondiging tijdens zijn GPU Technology Conference in San Jose, schrijft Engadget. De gpu's, die gebruik gaan maken van de Kepler-architectuur, worden op een 28nm-proces gebakken. De huidige Fermi-chips worden op een 40nm-proces geproduceerd. Kepler-gpu's zouden drie tot vier keer meer performance per watt leveren dan Fermi.

Verder op de roadmap staat een chip met de codenaam Maxwell, die in 2013 het levenslicht moet zien. Deze gpu zou bij het parallel uitvoeren van grafische berekeningen tot acht keer sneller zijn dan de huidige Fermi-architectuur. Of de Kepler-chips echt in 2011 zullen uitkomen, valt nog te bezien. De roadmap plaatst de release van Fermi in 2009, terwijl deze in de praktijk pas in maart 2010 uitkwam, na problemen met het energievebruik en de warmteproductie.

Nvidia gpu roadmap

Moderatie-faq Wijzig weergave

Reacties (63)

Dit is wel heel positief qua planning. Eerst zien dan geloven ;) wel mooi dat ze gelijk overstappen op 28nm

[Reactie gewijzigd door -Cn- op 22 september 2010 10:34]

ik moet het eerst zien dan geloven, nVidia's repsheet is nou niet echt geweldig geweest dit jaar. ik ben nog skeptisch over deze cijfers.

Fermi zou ook een revolutie moeten zijn en dat is het nou niet echt geworden.
Ik vind de Fermi aanpak wel degelijk revolutionair, maar goed ik doe niets aan spelletjes maar alles met de CUDA cores om mijn apps te versnellen.
Op dat gebied is Nvidia voorlopig toonaangevend en men is van plan daarin ook de absolute marktleider te blijven.

Mijns inziens is het een kwestie van tijd voordat games ook gebruik maken van de enorme aantallen parallele cores. Het vereist een heel andere aanpak om daar het maximale uit te halen en game developers willen zich liever niet vastpinnen op een propietary techniek.
John Carmack is al aan het spelen met OpenCL dat voorlopig een stuk trager en onvolwassener is, maar dat zowel op ATI als Nvidia draait. De performance op Nvidia is volgens hem een stuk hoger op het OpenCL plaftorm waar Nvidia eigenlijk helemaal niet op inzet.

Het ziet er dus naar uit dat games in de toekomst wel degelijk gebruik zullen gaan maken van de parallele cores. Zie ook hoelang het game developers kostte om de Cell aanpak van de PS optimaal te benutten. Onwaarschijnlijk lang, maar vergeet niet dat een deel van die kennis bruikbaar is voor het gebruik in Cuda/OpenCL multiple core grafische chips.

Het nieuwsbericht lijkt trouwens een beetje in de war. Performance per watt zal toenemen, wat goed nieuws is, maar niets zegt over de absolute snelheid. Op de GPU conference is dat overigens NIET gerapporteerd volgens mij. Zoals het plaatje ook laat zien gaat het om de DP (dual precision) performance per watt.

Dat is toevallig ook mijn interesse gebied want dat maakt werkstation apps stukken sneller binnen de huidige TDP's, maar dat zegt dus nog veel minder over mogelijke gaming performance. Daar gaat deze conference overigens ook helemaal niet over.

edit: twv JohnAd: het ging me om het optimale gebruik van de 'massive parallel aproach' in games. Tesselation bijvoorbeeld valt nog behoorlijk te verbeteren en kan prima onchip gebeuren. De meeste mensen zien Cuda en het minder presterende OpenCL als een PhysX only ding en ik probeerde te verduidelijken dat het de core (pun intended) van games zal gaan worden.

Je zinnen over OpenCL versus Cuda vs Ati en Nvidia zijn volstrekt onduidelijk. Nvidia's op CUDA geoptimaliseerde architectuur (en andersom CUDA zit dicht op de hw capabiliteis van de Fermi's) zou juist slechter moeten presteren onder OpenCL. Het is ATI die officeel zo enthousiast is over OpenCL *maar dat in de praktijk niet erg laat merken*

[Reactie gewijzigd door max3D op 22 september 2010 13:24]

Cuda is uiteraard geoptimaliseerd voor nV architektuur. Met een compiler ontwikkeld met grote achtergrond kennis van die architektuur. Zorgt ook voor stuk minder overhead.
OpenCL dat gebaseerd is op Cuda, lijkt er heel veel op maar is veel algemener niet zo gebonden aan nV hardware maar heeft wel daar zijn oorsprong zitten.
OpenCL is meer generiek dat het vanalles moet kunnen ondersteunen kan naast CPU en GPU, ook andere soorten PU ondersteunen. Zolang er een compiler support voor is.
En is nogal vers en onvolwassen.

Voor GPGPU aps die puur voor performance gaan die blijven bij Cuda en nV.
Voor Games ga je liever voor OpenCL waar een grotere markt mee bereikt wordt, maar niet het maximale eruit wordt gehaald. Bij games is sowieso al een groot deel van performance ingeruild voor uitgebreide scripted game engines. Performance is belangrijk maar niet zalig makend er speel heel veel meer mee.

GPU zijn zo massive parralel omdat grafische computatie op het kleinste niveau zo onafhankelijk is. Dus makkelijk te parrallelliseren is.

Games waarvan GFX 'n onderdeel is, is geen probleem. Maar de andere componenten zijn niet zomaar te parrallelizeren.

Sommige componenten kunnen met geavanceerde software architectuur methodes zoals de voorbeeld, iNtel Ghost demo, toch aardig fijn opgedeeld worden. En voor sommige delen zijn gewoon beter te doen met sequentiele aanpak. Zoals Valve ook mee experimenteerd.

nV streefd er ook na om met Cuda de CPU en GPU te gebruiken. Afhankelijk wat de beste performance haald. Cuda is niet exclusief voor GPU.

Cuda mag dan volwassener zijn, dat is niet zo verwonderlijk aangezien nV geen mee sukkeldende CPU devisie heefd die het geheel kwa omzet en profits naar beneden haald. En sinds nV samen met MS HSML ontwikkelde en eigen wegen inging met Cg dus er al lang mee bezig is. En AMD GPU devisie heefd niet de middelen om op dit gebied mee te komen laat staan de achterstand in te halen.
OpenCL is belangrijk voor hun en ook veel belangrijker voor games.

PhysX komt niet van de grond af omdat het beperkt is tot effect physics. Cuda PhysX games zijn dus beperkt tot effect physx. Meer willen de dev's niet toepassen.

HArdware accelerated Gameplay physics daar zit de kracht en de evolutie van een sloot veel meer defauld Physics features in games. Havok FX zou dat brengen in een ATI nV onafhankelijke manier.

Maar ja als je voor de andere helfd een CPU fallback moet maken en GPGPU gameplay physics zo'n groot contrast. Min en max physics loads, kwa gameplay mogelijk heden dat het de gameplay zodanig veranderd. Dan wordt dat niet toegepast. Gezien het streven van devs voor een gelijke game ervaring per platform.

Dus wil dat wat worden met GPGPU power voor meer uitgebreide geavanceerde Physics en AI wat invloed heefd op gameplay dan kan je niet om OpenCL heen.
Voor game geld dat Cuda staat voor ATI target platform discriminatie. Dus 99% dev's kunnen daar niks mee. En blijven zitten met CPU Physx, waar Cuda de CPU alleen mag kietelen.

OpenCL lost dit op. Maar nV spand liever hun Cuda om hun nV spul te stimuleren in game markt. Vooral in slechte periode is die drang zo groot. Want het is bekend dat porten van Cuda naar het cuda like OpenCL relatief makkelijk is.
En daarmee GPGPU voor games op de handrem zetten.

Ja bij vlagen kunnen ze wel eens een Dev zover krijgen om iets meer te doen met PhysX dmv hun twimtbp gelobby zodat je wat meer PhysX eye candy krijgt in een game.

Dan is er nog een probleem. Cuda, HSML ( CS ), OpenCL zijn C like shader taaltjes. Voor games leuk maar de markt maakt met wat uitzonderingen vooral gebruik van middleware.
Havok mag van iNtel, de Havok FX killer, alleen CPU voor Physics gebruiken.
PhysX als extra alleen nV als GPGPU gebruik.

Dus je hebt wel alternatieven voor Cuda maar geen middleware dat van OpenCL of HSML CS gebruik van gaat maken. En dan ook middleware dat een belangrijk markt aandeel heefd.

Dus met andere woorden is GPGPU in de game industrie een puinhoop 'n soap. iig voor Physics.
Ehm, games maken al gebruik van paralelle cores? Dat is het hele idee van de grafische chip en CUDA gebruikt de chip voor andere applicaties buiten de grafische wereld.

Dus ik begrijp niet wat je nu wilt zeggen, hoe moeten games 'op een andere manier' gebruik maken van de GPUs als ze nu al doen? Via GPGPU terug naar games, is de huidige manier van DirectX gebruik van de grafische processors niet goed?

En hoezo nVidia zet zich niet in op OpenCL? OpenCL is een alternatief voor CUDA dus het lijkt me vrij logisch dat nVidia's op CUDA geoptimaliseerde chips beter werken met het vergelijkbare OpenCL dan ATi, die zich hier vooralsnog niet op heeft gericht. Wat ik probeer te zeggen is dat nVidia zich wat de competitie van ATi betreft, zich wel degelijk ''richt'' op OpenCL.

[Reactie gewijzigd door JohnAD op 22 september 2010 13:12]

Het nieuwsbericht lijkt trouwens een beetje in de war.
het gros van de berekeningen t.b.v. 3D renders gebeurt in double, dus meer doubles per watt betekent toch zeker wel een verbetering.
Ik ben het wel met je eens dat 'meer doubles per watt' niet automatisch hetzelfde is als 'meer doubles'.

Sterker nog, als de nieuwe generatie echt zo rap was, had NVidia wel gezegd: 'kijk eens hoe rap hij is!' Nu lijkt het meer alsof ze willen zeggen: 'hij is net zo rap als fermi, maar je moet thuis je kachel weer aanzetten. knap van ons he?'

edit: spell fumble

[Reactie gewijzigd door increddibelly op 22 september 2010 13:38]

De ideeën achter Fermi zijn wel degelijk interessant. Het is een beetje als een briljante omhaal die grandioos naast gaat, het idee was leuk maar in uitvoering minder ;) Daarnaast doet Fermi het nog steeds prima in wetenschappelijke berekeningen (en de marges zijn daar fijn) Al zijn er claims dat de nieuwe AMD cypress architectuur nog betere resultaten levert. Deze is echter als firestream uitvoering niet te vinden op de AMD website..

Redelijke kans dat de problemen die bij de Fermi architectuur gevonden zijn bij Kepler worden gladgestreken en NVIDIA alsnog met hele mooie resultaten komt.
Kwa tesselation power misschien wel, de rest niet.
deze sheet gaat enkel over double percision floating point opperations per second.
enkele GPGPU taken dus.
daar zal nvidia het best goed doen, doet de fermi nu ook.
ze vergeten echter dat het in de eerste plaats een GPU moet zijn in de meeste gevallen. en daar faalt de fermi redelijk hard, zowel prijs/prestatie als prestaties/watt.

als nvidia nogsteeds de zelfde focus heeft als bij fermi, dan zie ik het gunstig in voor ATI op de desktop en laptop videokaart markt.

edit :
de chip van de gf104 is GROTER als de hd5870 (dus duurder om te maken) maar haalt bij lange na de prestaties niet. (zelfs als je ongeveer even veel van de chip disabled als de gf104 heeft, dan komt je bij de hd5850 in de beurt, maar daar kan hij ook niet overtuigend van winnen)
er word door nvidia dus veel minder aan die gf104 verdiend als AMD verdiend aan de rv870.
en de hd5830 was gewoon te duur voor de prestaties, maar dat was voor de introductie van gf104 ook al het geval.

de gf104 haalt ook bij lange na niet de zelfde GPGPU prestaties als de GF100.
nvidia heeft het hier over de prestaties van de gf100 die ze willen verhogen.

[Reactie gewijzigd door Countess op 23 september 2010 10:51]

ze vergeten echter dat het in de eerste plaats een GPU moet zijn in de meeste gevallen. en daar faalt de fermi redelijk hard, zowel prijs/prestatie als prestaties/watt.
Als je Fermi enkel als GF100 beschouwt wel ja. Maar de GF104 (GTX460) schaalt vrijwel 1 op 1 gelijk of beter dan AMD's (Cypress, als in: HD5830/HD5850) tegenhanger in dat prijssegment.

Het lijkt er met de GF100 op dat ze voor maximale per single GPU zijn gegaan. Voor het marktsegment dat dat van belang vindt is performance per watt en performance per euro vaak van heel weinig belang bij hun aankoopbeslissing.

[edit]
@Hieronder:
Dat is toch wel een groep die performance per euro en in mindere mate ook warmteproductie echt belangrijk vind hoor.
Een groot deel van die groep ja, maar voor dat deel is zo'n kaart dan ook helemaal niet bedoeld. Een ander deel van die groep maalt namelijk geen drol om warmteproductie of performance per euro, die willen gewoon de best presterende single kaart hebben die er te krijgen is. Er zijn altijd al ultra high end kaarten verkocht, die altijd al een aanslag op de portemonnee zijn geweest en die altijd al relatief meer verbruikten. Voor die groep was GF100 in de markt gepositioneerd.

Dat het een duur energieslurpend hittemonster is ben ik best met je eens. Persoonlijk zal ik dan ook nooit niet zo'n kaart halen. Maar er zijn wel degelijk hele volksstammen gamers die een GTX480 hebben gehaald.

[Reactie gewijzigd door houseparty op 23 september 2010 02:13]

Toen er voor de release van fermi (en dan bedoel ik GF100) aan NVidia of die GPU wel echt voor een game-kaart bedoeld was (want dat is de geforce-lijn toch altijd geweest) toen liet NVidia er geen gras over groeien want "ja het is echt voor gamers bedoeld". Dat is toch wel een groep die performance per euro en in mindere mate ook warmteproductie echt belangrijk vind hoor.

Voor de professionele markt zijn de quadro- en tesla-kaarten bedoeld, hadden ze daar maar dikke DP-performance op moeten doen want voor een game-kaart vond ik het niet best.

[Reactie gewijzigd door bwerg op 22 september 2010 17:10]

Voor nVidia is de Tesla en Quadro kaartenmarkt ook vele malen interessanter dan de gamemarkt. De marges in de eerste 2 markten zijn vele malen hoger.

Eigenlijk is de GeForce tak van nVidia puur de cashcow, wel met lage marges. De echte ontwikkelingen zitten in de Tesla/Quadro markt, en daaruit wordt ook een GeForce ontwikkeld.
Voor graphics is double float niet zo nodig.
Voor hun very expensive GPGPU lijn quadro Tesla etc wel. En om die lijnen wat extra waarde te geven.

Krijgt de game produkt lijn een double presision handicap mee.

En nV fiasco is meer het gevolg om een zóóó groot mogelijk chip te halen uit een prodece wat opzich al grote productie risico's en kosten mee brengt.
nee je bedoeld dat ze het iets te kleurrijk schetsen.. er staat Fermi 2009. ja toen hebben ze het aangekondigd.. maar het kwam pas halverwege 2010 op de markt!..

dus die kepler zal eind 2011 pas komen..??
Misschien bedoeld Nvidia (met wat wij denken met "uitkomen") "starten met"
Dus de start van Fermi was in 2009, de chips kwamen uit in 2010
Met Kepler starten ze in 2011, dus komt de productie in 2012, en met Maxwell start men in 2013 en de productie in 2014 of nog later. DIt zou verklaren waarom de Fermi-chip-serie later "Uitkwam" dan op die Roadmap staat.


my2cts
GPUs zijn tegenwoordig minstens 3 jaar in ontwikkeling. Men zal dus al een heel eind gevorderd zijn met Kepler en recent aangezet hebben voor Maxwell.

Ik vermoed eerder dat deze data duiden op tape-out. Vanuit NVIDIA's standpunt is het ontwerp dan af en moet men ze enkel nog produceren. Het duurt dan nog steeds een half jaartje of zo eer je ze in de winkels aantreft.
Fermi is echt niet in 2009 gestart, qua ontwikkeling.
yeah eerst zien dan geloven, want 3 jaar?

zo veel goeds heb ik niet gezien van nvidea en nu komen ze ineens met een planning aanzetten dat ze eind 2013 super zuinige gpu's hebben maar we zien wel hoe ver ze komen en het altijd fijn om de concurrentie aan te scherpen.
Super zuinig staat nergens. Fermi (GTX480>HD5870, maar performance per watt HD5870>GTX480 bijv.) heeft goede performance, maar de performance per watt vergeleken met ATi is lager.

Maar goed, dit klinkt positief, hopen dat het ook positief is ivm concurrentie. Het zou mooi zijn als een serie niet weer omhoog gaat in prijs vanwege gebrek aan concurrentie (en vanwege vraag en aanbod, maar die was waarschijnlijk meer in balans geweest als nVidia er een goede serie tegenover had).
performance per watt is zo een belachelijk statement als je de topmodellen gaat vergelijken, bij het vlaggenschip van elke producent draait het om performance.
in de mainstream lijn is dit een ander verhaal
Als je elke (game) kaart uit de 5xxx serie vergelijkt met een vergelijkbare GTX4xx zie je dat de alle ATI (AMD) kaarten betere performance per watt hebben. Is dus niet alleen bij de topmodellen. Ik hoop dat nVidia hun best doet voor die nieuwe architectuur, aangezien Fermi ook niet echt op tijd was. Het is altijd goed voor consumenten als er twee bedrijven goed concurreren met elkaar :D. Ik zie echter niet dat Kepler op tijd komt, maar we gaan het beleven.
Als je elke (game) kaart uit de 5xxx serie vergelijkt met een vergelijkbare GTX4xx zie je dat de alle ATI (AMD) kaarten betere performance per watt hebben
Dat is niet helemaal waar hoor. ;)

De GTX460 doet wat dat betreft niets onder voor de HD5830/HD5850. Sterker nog, veel sites schalen de GTX460 zelfs als beter in qua performance/watt dan die vergelijkbare kaartjes.
Zie ook: de review op T.net.
Ja, als je performance per watt als meetpunt neemt, dan kun je heel leuke ratio scoren, met een kaart die in principe amper vooruit te branden is. Een oudere generatie kaart kan veel betere performance per watt scoren, maar niemand wil dat dan gebruiken omdat een game dan op 10 fps draait, bijv.
Ik lees nergens dat ze zuinig zullen zijn tegen 2013, laat staan superzuinig, wel dat ze per watt 8x beter zullen presteren tov de huidige architectuur.
Ach, als de performance per Watt met een factor 4 omhoog gaat en ik er van overtuigd ben dat het ze niet gaat lukken om voor de eerst volgende generatie al een GPU te ontwikkelen die 4X zo snel is als de huidige ........

Doe het verhaal dan eens door de helft, het gaat nVidia dus lukken om een GPU te ontwikkelen die 2X zo snel is als zijn voorganger met een performance per Watt die 4X zo hoog is als voorheen. Dan mag je toch concluderen dat het verbruik ook terug zal lopen naar maar de helft van dat van de vorige generatie ? In mijn ogen dus toch wel zuinig hoor ;) Dubbele performance tegen half verbruik, het klinkt geweldig, maar ik moet eerst nog eens zien of het nVidia gaat lukken om zelfs maar de helft van de claim waar te maken en de performance per Watt te verdubbelen.
Super zuinig? Dat is relatief natuurlijk. Er staat enkel dat de kaarten veel performance per Watt hebben. Er staat niet bij dat een kaartje misschien dalijk 800W nodig heeft om een beetje normaal te draaien. Dat zou dan niet zo super zuinig zijn (maar wel veel performance :9~ )

Is natuurlijk allemaal speculatie. We wachten het wel af, dunkt mij.
De Quadro 4000 / 5000 / 6000 doen 142W / 152W / 225W maximaal. Dat valt mee lijkt me.
Alle vertrouwen heb ik in Nvidia.
De Gf100 is al bijgesneden naar de Gf104.
Kijk eens wat een mooi chippie.
En ik denk dat Nvidia met nog wel meer mooie dingen komt.
Heb er in iig al vertrouwen in.
ja heel mooi... voor ATI.
hij is groter als een hd5870 (= duurder om te maken), maar bij lange na niet de zelfde performance.
meer winst voor ATI dus per verkochte chip.

de enige reden dat hij mee kan komen is omdat nvidia er weinig winst op maakt.(het zelfde wat ze met fermi hebben moeten doen)
en de voorspellingen voor hun volgende kwartaal zijn dat ook niet al te gunstig.

[Reactie gewijzigd door Countess op 22 september 2010 11:49]

Dat groter is duurder verhaal met koppeling aan de winsten voor amd/ati zou op tweakers toch onderhand eens moeten verdwijnen. Omdat ook andere factoren meespelen (denk aan schaalgrootte) komt dit voordeel nooit naar voren in de cijfers, ook niet de operationele cijfers.

ATI valt al geruime tijd onder AMD, en AMD is nu niet echt het voorbeeld voor winstgevende producten. Alle winsten en verliezen bij elkaar over de afgelopen 20 jaar levert een groot negatief getal op. In 2007 en 2008 draaiden ze zelfs meer dan 3 miljard (!!!) verlies. In 2009 maken ze 293 miljoen winst. Nvidia verdiende voor de crediet crisis honderden miljoenen per jaar.

AMD legt uberhaupt vaak geld TOE op de productie van gpu's. Kijk maar eens in de jaarcijfers bij het operating income op de graphics devision:

blz 50: http://phx.corporate-ir.n...pbGRJRD0tMXxUeXBlPTM=&t=1

2007: -39 mijoen (omzet 992> -4%)
2008: +12 miljoen (omzet 1165> +1%)
2009: +50 miljoen (omzet 1206> +4%)

Ik kan je verzekeren dat een operationele winst op grafische kaarten van 1-4% echt geen vetpot is. Hier moeten namelijk nog allerlei kosten af:
"A measure of a company's earning power from ongoing operations, equal to earnings before deduction of interest payments and income taxes. also called operating profit or EBIT (earnings before interest and taxes).

Read more: http://www.investorwords....income.html#ixzz10FsM64Kg
"

ps ter vergelijking nvidia:
2007:448 (omzet 3068 > 14%)
2008:797 (omzet 4097> 19%)
2009: -70 (omzet 3424 > -2%)

[Reactie gewijzigd door sdk1985 op 22 september 2010 13:13]

"AMD is nu niet echt het voorbeeld van winstgevende producten". Waar, maar dat zegt natuurlijk niets over de winst over de kaarten waar het nu over gaat . De omzet en winst in 2007 heeft hier niets mee te maken. "AMD legt überhaupt geld toe" gaat ook helemaal niet meer op want de HD5000 was relatief gezien wél een vetpot. 1-4% is geen vetpot maar -2% is dat ook niet hè. ;)
Ook in 2007 en 2008 waren dezelfde voordelen voor amd van toepassing (denk aan de superieure 4000 serie van amd/ati). Mijn punt was dat een kleinere chip niet automatisch een hogere winst met zich mee brengt. Die -2% overigens dus niet zo relevant, 4% blijft te weinig. Als bedrijf wil je gewoon 10-20% operationele winst draaien.

Ik postte overigens specifiek de omzet en de winst van de "graphics" devisie.Wellicht was dat je ontgaan.

[Reactie gewijzigd door sdk1985 op 23 september 2010 15:47]

Als je naar het totaal plaatje kijkt dan zie je dat nVidia 30 miljoen dollar winst heeft gemaakt waar AMD 300 miljoen winst heeft gemaakt(2009). 10x zo hoog dus.

[Reactie gewijzigd door madmaxnl op 22 september 2010 21:27]

Laat ik even vooropstellen dat mijn post gaat over de relatie tussen de grootte van een chip en de hieraan verbonden opbrengsten.

Mbt jou specifieke opmerking; Helemaal waar, echter als je kijkt naar het historische tijdplaatje dan zie je dat amd voor deze 300 miljoen winst eerst 2x meer dan 3 miljard verlies heeft geleden terwijl nvidia in deze jaren honderden miljoenen heeft verdiend (+/- 800 en 400). Het is echt heel erg zinloos om specifieke jaren te vergelijken, zeker als er andere redenen zijn te vinden waarom in een bepaald jaar een bedrijf het goed of slecht doet. Dit gaat op voor zowel amd als nvidia en elk ander bedrijf, vandaar dat ik ook 3/4 jaren laat zien.

Dus welk punt probeer je nu te maken met "10x zo hoog"??? Historisch gezien zijn de winsten bij amd de afgelopen 20 jaar een en al drama, maar toen waren ze ook primair een cpu bouwer. Daarbij is de echte concurent van amd natuurlijk Intel en hierbij is het "grappig" dat de winst van intel in bijna elk jaar groter is dan de omzet van amd :+ .

Kijk anders even op mijn overzichtje intel vs amd vanaf 1993: http://img178.imageshack....intelenamdoverzichtje.png

De cijfers van nvidia staan erbij om te laten zien dat de concurent in voorgaande jaren wel een normale operationele marge had. Ik zou momenteel zelf ook geen nvidia aandelen aanschaffen;).

[Reactie gewijzigd door sdk1985 op 23 september 2010 16:08]

Alle winsten en verliezen bij elkaar over de afgelopen 20 jaar levert een groot negatief getal op. In 2007 en 2008 draaiden ze zelfs meer dan 3 miljard (!!!) verlies.
kijk en hier vergeet je een groot deel van de vergelijking.

in 2007 en 2008 heeft AMD een 2de fabriek bijgebouwde en is begonnen aan de omzetting naar 300mm wafers.

reken maar dat dat samen VEEL meer kost als 3 miljard.

AMD legt geen geld toe op de productie van GPU's maar investeert het geld dat ze verdienen gelijk weer terug in zichzelf.
Ik kan je verzekeren dat een operationele winst op grafische kaarten van 1-4% echt geen vetpot is. Hier moeten namelijk nog allerlei kosten af:
je rekende de kosten hier dubbel.
de winstmarge op GPU's voor aftrek van zulke kosten lag op 35% en is nu gestegen naar rond de 50%.
dat is alle kosten, van afschrijving op machines en gebouwen to materiaal en loon.
R&D, marketing en investeringen in groei, goedwill en kosten voor de integratie zijn er dan nog niet afgehaald.
daar is AMD in de jaren die jij noemt veel aan kwijt geweest met ATI. die kosten zijn echter bijna allemaal aan het verdwijnen.

het getal wat jij noemt (die 4%) hoeft helemaal niks meer vanaf. enkel kosten van AMD als bedrijf. maar een heel bedrijf integreren kost geld en dat duurt meer als een paar jaar, en dat wist AMD toen ze ATI kochten.
Nvidia verdiende voor de crediet crisis honderden miljoenen per jaar.
dat was voor de gf100, en dat was voor de hd4xxxx en hd5xxx serie.
Nvidia had altijd het voordeel als eerste op de markt te zijn met nieuwe snelle modellen die AMD pas later kon evenaren, met geluk.
nu zijn de rollen flink omgedraaid en heeft AMD 9 maanden lead time op nvidia gehad. een tijd waar ze hun prijzen helemaal niet hoefde te verlagen maar ze wel alles verkochten wat ze konden maken.
en toen Nvidia eindelijk met iets kwam om te concurreren konden ze dat enkel doen op het prijs nivo waar ATI als 9 maanden op zat. nog steeds geen prijs verlaging noodzakelijk voor ATI dus.
Omdat ook andere factoren meespelen (denk aan schaalgrootte)
ATI maakt hun dx11 chips nu precies één jaar. en verkoopt alles wat ze kunnen maken.
Nvidia komst pas net kijken, en de verkoop aantallen zijn niet spectaculair, en de productiekosten hoog.
zonder de zakelijke/wetenschappelijke markt kan je er aan twijfelen op Nvidia de R&D kosten voor fermi wel terug kan verdienen met de hd6xxx voor de deur.

waar Nvidia nog op drijft zijn de verkoop van chips van 1 en 2 generaties geleden(grootste deel van de markt) en de zakelijke markt.

kort om, AMD/ATI en de markt ligt er, zeker op GPU gebied heel anders bij als in de tijd die jij als voorbeeld ophoudt en die zeggen dus heel weinig over de huidige toestand.

[Reactie gewijzigd door Countess op 23 september 2010 00:03]

Je had jezelf veel moeite kunnen besparen door mijn url te openen. Mijn cijfers zijn afkomstig van het rapport van AMD zelf. Het zijn dus niet "mijn" cijfers, het zijn de winsten en omzetten die AMD zegt te behalen op de grafische devisie.

Welke kosten (zoals investering in fabrieken ) mogen en moeten worden toegekend aan producten wordt niet bepaald door jou of mij maar door IASB: http://www.ifrs.org/Home.htm

Dankzij deze standaarden kun je dus 2 jaarverslagen naast elkaar leggen en dus bedrijven vergelijken. "Intere" winstmarges rapporteren heeft geen zin want deze zijn niet vergelijkbaar.

Ik heb dan ook niet zo'n zin om je hele tekst aandachtig door te lezen (no offense) maar het lijkt wel alsof je al je geld in AMD aandelen hebt gestopt :+ . Je kunt met honderd voorbeelden aankomen waarom jij AMD zo geweldig vindt maar een omzet van 1.2 miljard blijft een stuk lager dan een omzet van 4 miljard. Daarbij is het ook volledig offtopic.

Ik zal wel te oud worden want vroeger was Ati het (te) dure merk en kwam nvidia met de goedkopere alternatieven (denk aan de 5900xt) :+ .

[Reactie gewijzigd door sdk1985 op 23 september 2010 15:58]

Welke opmerking is dan fanboy volgens jouw?
Volgens mij klopt het allemaal wel wat hij hierboven uitlegt

Dat jij het als fanboy aanziet zegt meer over jouw dan over Countess imo
Indrukwekkend maar het blijft speculeren want Fermi kwam ook erg laat door technische problemen, ik vraag me ook af waar AMD mee komt want dat zal ook wel 2011 en 2013 vallen.
Het oorspronkelijke plan voor HD6000 was eind 2010, maar dat is verschoven naar begin 2011. Vrij snel, dus. Zeker vóór fermi 2. Eigenlijk was ook het plan om de HD6000's op 28nm te maken maar gezien de problemen bij TSMC is het 28nm-plan wat achteruitgeschoven en is de 40nm HD6000 er tussen gekomen om de geplande vernieuwingen toch door te kunnen voeren. Fermi2 komt dus sowieso later dan HD6000, HD7000 weet volgens mij nog niemand (zonder NDA dan) echt van wanneer die komt maar dat zal wel eind 2011, begin 2012 zijn. Overigens hoop ik dat NVidia de planning weer niet zo krap heeft genomen als bij de release van fermi, dat leek echt nergens op en nu gaan ze ook weer over op een nieuw productieprocedé (28nm bij de tot nu toe vrij onbetrouwbare TSMC).

@vipeax: ah ja, dat was het.

[Reactie gewijzigd door bwerg op 22 september 2010 17:12]

De HD6000s zouden op 32nm komen. Dat procede is gecancelled.
Verder op de roadmap staat een chip met de codenaam Maxwell, die in 2013 het levenslicht moet zien. Deze gpu zou bij het parallel uitvoeren van grafische berekeningen tot acht keer sneller zijn dan de huidige Fermi-architectuur.
Waarop is deze uitspraak gebasseerd? Niet op die pica mag ik hopen want daar staat toch echt iets heel anders dan 8x sneller dan de Fermi. Het gaat om de performance per watt die 8x hoger wordt, hetgeen geenszins hoeft te betekenen dat een Maxwell chip 8x sneller presteert...
Ja als het alsmaar kleiner word is de volgende chip in 2018 20x meer performance per watt .... tijdperk van dikke voedingen zal dan wel voorbij zijn xD
Denk dat maar niet.
Performance per watt word beter, MAAR als je snellere kaarten wilt maken zul je grofweg nog steeds hetzelfde aantal wattjes er moeten inpompen.
Alleen heeft nvidia met hun GTX4XX serie er zich serieus op verkeken.
Dat er rek zit in de performance per watt in dit ontwerp vind ik niet zo heel vreemd.


Maar dit proces is al tijden aan de gang.
Als er een nieuwe generatie chips word gelanceerd dan zijn de midrangekaarten vaak net zo snel of sneller als de vorige topkaarten. Toch verbruiken ze minder vermogen.
Dit zie je bij zowel ATi als Nvidia.

Tenzij ze met een revolutionair ander procede komen (dus niet alleen dieshrinks) zie ik deze trend nog niet zo snel ophouden.

[Reactie gewijzigd door arbraxas op 22 september 2010 10:35]

Dat lijkt me een wel heel rooskleurige voorstelling.
Tenzij ze ineens hun chipdesign op orde hebben en alle plooien hebben glad gestreken door wat ze geleerd hebben met de Fermi.
De Fermi was ook niet beschikbaar in 2009 en als je die lijn doortrekt zou je toch zeggen dat alles 1,5 jaar opschuift. Als ze het heel netjes doen misschien een jaar.
Dit lijkt me meer een reactie op AMD`s aankondiging van de 6000 serie.
Erg jammer voor Nvidia, maar ze zijn toch van leider naar volger gegaan (T.o.v AMD).

Ik hoop wel dat ze straks het gat wat dichten naar AMD zodat de releases wat dichter bij elkaar komen te liggen zodat er voor ons als consument meer te kiezen is en meer concurrentie. Want dat is weer goed voor onze portemonnee.
ik geloof deze sheets wel.
maar ze gaan alleen over GPGPU taken. iets waar fermi nu ook al erg goed in is.

als videokaart zal ik echter waarschijnlijk geen van deze kaarten willen hebben.
eerst zien dan geloven,maar zo ver is het nog niet!
iedereen kan wel zeggen dat amd beter presteerd op het moment maar het ligt er wel een beetje aan wat je speelt!
ik speel op het moment bf bc2 bezit zelf een nvidia kaart bijna geen problemen er mee,maar mede clan genoten die met amd spelen klappen meermals naar desktop tijdens een speel ronde! dus waar dit ook aan ligt amd is hier niet beter! :?
Wie zegt dat dit aan AMD ligt, misschien ligt het wel aan de pc van je Clan genoten.
Als het namelijk echt een probleem was, zou je het wel vaker horen.


BTW wat heeft prestaties met stabilteit te maken?
Veel beloftes, hoop dat het ook uitkomt, zoja, kan dit zorgen voor een snelle vooruitgang van de grafische kracht. En zeker veel nieuwe technologieën met zich meebrengen.
De IT staat toch nog niet stil. het Leek er een tijd op dat de Fermi nog lang uitgemolken zou worden.. is dus niet het geval.
Ik heb een paar maanden terug nog 2 x fermi kaart gekocht. En hier ben ik mee van plan om nog zeker 3 jaar mee te doen.... dus de kepler zal ik gaan overslaan maar de maxwell zou het wel eens kunnen gaan worden dan.

Het verbaasd me echt dat er nog zoveel te verbeteren valt en dat we nog niet aan de limit van de techniek en science zitten.. dat is opzich wel een rustgevend gevoel.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True