Door Marc Rademaker

Redacteur

2009: Hommeles in gpu-land

Larrabee, to be or not be

In december is het relatief rustig, maar er komen wel enkele interessante verhalen bovendrijven. AMD en Nvidia kunnen namelijk even opgelucht ademhalen, nadat Intel bekend heeft gemaakt dat het bedrijf de eerste iteratie van zijn Larrabee-gpu’s heeft moeten schrappen. Het is al de zoveelste keer dat de chipgigant Larrabee uitstelt, waardoor Larrabee steeds vaker in één adem met de term vaporware wordt genoemd. Intel belooft echter dat er aan een tweede generatie Larrabee-gpu’s wordt gewerkt, terwijl de eerste generatie aan ontwikkelaars beschikbaar wordt gesteld.

Nog meer goed nieuws voor AMD dus, waarna er prompt verkoopcijfers onthuld worden van de DX11-gpu's: voor het einde van 2009 zouden er meer dan één miljoen DX11-gpu's verkocht worden. Eén miljoen is echter weinig indrukwekkend vergeleken met de minstens 20 miljoen videokaarten die in elk kwartaal van 2009 over de toonbank gingen.

December mag dan rustig lijken, het is slechts stilte voor de storm. Begin 2010 staat het begin van een ware revolutie op het programma: Intel gaat zijn cpu’s voorzien van gpu’s. Verder zou AMD tijdens de CES de allergoedkoopste Evergreen-varianten onthullen, terwijl iedereen met smart uitkijkt naar Nvidia’s presentatie, waar mogelijk de eerste tot de verbeelding sprekende prestaties van Fermi getoond worden.

Het jaar 2010 zou daarom weleens stukken interessanter kunnen worden dan elk jaar daarvoor. Zo moet blijken of Nvidia de goede weg in is geslagen met de Fermi-architectuur, die vooral veel vooruitgang op gpgpu-gebied lijkt te bieden. Het blijft nog maar de vraag wanneer en dan vooral in welke hoeveelheid Nvidia Geforce-kaarten uitbrengt die gestoeld zijn op de Fermi-architectuur. De prijs/prestatie-verhouding zal ongetwijfeld redelijk zijn, anders zullen alleen de allertrouwste Nvidia-aanhangers nog Geforce-kaarten kopen. Sterker nog, als Nvidia niet oppast, komt AMD nog in het tweede kwartaal van 2010 al met een refresh van Evergreen of introduceert AMD zelfs een geheel nieuwe architectuur in het derde kwartaal, met gpu's die op 32nm worden gebakken. En wie weet maakt Intel het sprookje wel af, met een mogelijke introductie van Larrabee eind 2010.

Reacties (91)

91
88
68
2
0
6
Wijzig sortering
Als iemand uit zijn duim zuigt met de helft verzonnen argumenten dat Fermi niet uitkomt in 2009 en dan toevallig ook het juist heeft. Worden die argumenten geen waarheid en is die persoon gewoon een lucky bastard en een aandachtshoer.

Gelieve The Inq niet meer credit te geven dan ze verdienen aub >_>

[Reactie gewijzigd door BieBiepGTR op 28 december 2009 10:32]

Je bedoelt dat die berichten van Nvidia dat DX11 niet veel voorstelt geen geplande strategie was om het uistellen van hun eigen product een beetje in de schaduw te zetten.

Alles wees er op dat Nvidia een "paper launch" ging maken met een product wat lang niet klaar was.

En het was niet iemand , als je nu kijkt naar http://www.digitimes.com/news/a20091228PD207.html

Zie je dat meerdere mensen de bronnen hebben binnen de fabriek kennelijk, dat niemand Nvidia voor het hoofd wil stoten is wel duidelijk.
Net zoals we the inq geen credit moeten geven voor de manier waarop ze aantoonden dat de nvidia gpu's in mac's behoorlijk slecht waren? Soms moet je je vooroordelen gewoon even opzij zetten en met een objectieve blik ergens naar kijken.

Ik heb zelf een gigantische hekel aan fudzilla, maar ook zij hebben soms ergens een klein brokje informatie waar je gewoon niet om heen kunt.
Er zijn twee belangrijke dingen in berichtgeving waar je een mening op baseert:
1) de informatie
2) de toon

Dat de toon van charlie, the inquirer en fudzilla totaal niet objectief en soms zelf zeikerig is, zegt helemaal niks over punt 1. Soms zeiken ze maar is de achterliggende informatie gewoon helemaal correct en belangrijk, dan worden ze vaak niet geloofd door fanboys vanwege punt 2. Dat is opzich jammer.

Hoeveel kritiek kreeg Charlie te verwerken toen hij durfde te beweren dat de Fermi-kaart bij de presentatie nep was? Achteraf was het eigenlijk een heel logisch en sterk beargumenteerd verhaal waar zelfs NVidia niet omheen kon en stonden de fanboys met de mond vol tanden.

Ik zeg niet dat je alles van Fud en Charlie etc. moet geloven, maar als ze het achteraf juist hebben, gooi het dan niet meteen op 'geluk' omdat je ze niet aardig vind.
Hoeveel kritiek kreeg Charlie te verwerken toen hij durfde te beweren dat de Fermi-kaart bij de presentatie nep was?
Sorry, maar nu wil ik echt even bronnen zien. Kenners wisten vanaf het begin dat de getoonde kaart een mockup was (bron 1 & bron 2. En ik twijfel of Charlie wel zelf achter die informatie is gekomen of dat hij het gewoon heeft overgenomen van mensen op het Beyond3D forum. Maar los van of het zijn nieuws was wil ik graag die storm van kritiek wel eens van je zien. Ja, Charlie heeft veel goede inside info, maar laten we even geen heilige martelaar die door de wereld voor gek verklaard wordt van hem maken, het is gewoon een slimme journalist met een hekel aan NVIDIA.
Dan hebben ze toch wel erg veel geluk de laatste tijd.... bijna te veel geluk :+
Eigenlijk heeft intel waarschijnlijk meer ervaring met allerhande GPU's dan gelijk welke fabrikant. Ze worden al jaren gemaakt om samen te werken met intel chips. Ook ontwikkeld intel zelf zijn chips voor op de moederborden. Intel wil in dit geval echter iets volledig nieuws proberen om zo een voordeel te verkrijgen boven nvidia en ati.

Op termijn zou Intel wel eens als grote winnaar uit de bus kunnen komen. Ze gaan volgend jaar al een grafiche core bundelen met hun CPU. Als deze snel genoeg is voor voornamelijk videobewerking waarom zouden de meeste mensen dan nog een losse GPU in hun computer duwen? Wanneer je wilt gaan gamen zal je alsnog niet anders kunnen maar van alle computers die jaarlijks worden verkocht worden naar mijn inzicht maar 10 - 15% gebruikt als game-pc. Het grote deel van de consumenten heeft dus genoeg met een standaard GPU waardoor intel vrij makkelijk schade kan toebrengen op de GPU-markt. En dat door eigenlijk niet actief te zijn in de markt van losse gpu-kaarten.
De IGP voor de Clarksfields zijn vergelijkbaar met de G45. Ze kunnen dus beeld op je scherm toveren en veel verder dan dat gaat het niet. Het is een aanval op de IGP markt( die ze al domineren ) die Nvidia er waarschijnlijk uit zal drukken, aangezien AMD ook bezig is met integratie van GPU met CPU. Die markt zal dus gesplitst worden tussen AMD en Intel ( het is een heel grote markt ). Je zal dus een Intel CPU + Intel Graphics kopen, of AMD+ AMD Graphics. De meeste huis-tuin en keuken PC's hebben hier genoeg aan maar workstations en Gamers bijvoorbeeld niet. Net zoals nu.
Er zal niet heel veel veranderen, Intel houdt dominantie over de low-end graphics markt; misschien kan AMD profiteren van de integratie door superieure IGP's te leveren. Nvidia zal uit de markt gedrukt worden en weet dit allang. De mid en high end markt blijft in handen van AMD en Nvidia en het is wachten op Larrabee.
De IGP voor de Clarksfields zijn vergelijkbaar met de G45. Ze kunnen dus beeld op je scherm toveren en veel verder dan dat gaat het niet.
Dat is niet helemaal correct. Ja, de IGP op Clarkdale is gebaseerd op G45, maar deze is op een aantal punten getweaked en er zijn meer processingcores toegevoegd. De grote bottlenecks zijn aangepakt en daarnaast biedt de IGP enkele nieuwe features die erg nuttig zijn vor het HTPC segment. Tel daarbij op de veel hogere kloksnelheid en je hebt in wezen een erg leuke budget VGA oplossing.
Maar wil je bijv. een wat luxere HTPC met een Linux distrootje á la XBMC of MythTV, dan heb je vaak ook nog de nodige 3D power nodig om de gebruikersinterface soepeltjes te laten lopen.
Van wat ik heb gehoord zijn de Clarksfields daar niet bepaald geweldig, daar waar een goedkopere nVidia Ion of AMD 780G wel goede prestaties haalt.
klopt idd. wel wat je zegt.

Aan de andere kant zijn er op game-kaarten wel hogere marges te halen, wat het kleinere marktaandeel deels compenseert natuurlijk.

@ Marc: geen problemen gehad met AMD toe duidelijk werd dat één van de lekken van hun nieuwe graka's zich op GOT bevond? ...
maar intel speelt het een beetje vuil, door VIA, nVidia, SiS en Ati buiten te kegelen als chipsetfabrikant (ze geven geen licenties meer), nemen ze hun eigen platform in handen
zolang ze het grootste marktaandeel hebben, hebben ze dus vrij spel
nu ze de IGP in de cpu hebben ingebouwd, is het zelf niet eens meer interessant om chipsets te maken: die worden alsmaar goedkoper en tevens zorgt intel er voor dat een oem enkel bij hen moet aankloppen
als intel nu nog een goede game-kaart kan bieden, kunnen ze een echt totaalpakket leveren voor oem's (ik denk dan vooral aan Apple en Dell als trouwste klanten)
op dat moment wordt het voor nVidia HEEL gevaarlijk en moet AMD z'n marktaandeel zoveel mogelijk op peil houden
Zolang die lekken niet van de beheerders van GoT komen, maar van forumleden, kunnen Marc&co er ook weinig aan doen, lijkt me. Ik heb geen officiele reviews gezien op T.net behalve verwijzingen naar andere sites en informatie van forumleden.
Aan de andere kant zijn er op game-kaarten wel hogere marges te halen, wat het kleinere marktaandeel deels compenseert natuurlijk.
Dacht je dat? GPUs zijn veel groter, gaan voor relatief lage prijzen over de toonbank, en waar Intel alleen de chip zelf hoeft te verkopen moet er bij de GPU nog geheugen, een custom PCB, koeler, assemblatie, marge voor de AIB partners allemaal bijgeteld worden. Die marge valt nog wel tegen hoor.

[Reactie gewijzigd door Snoitkever op 30 december 2009 16:17]

Die IGP's maken ze nu al, dus daar zal weinig (spannende) verandering zijn op de markt. Larrabee is echter bedoeld als high-end chip, en daarin kan intel totaal nog niet concurreren omdat ze gewoon minstens een generatie achterlopen op AMD en Nvidia qua prestaties. Dat ze ervaring hebben met IGP's voegt weinig toe, omdat je met high-end chips ineens veel en efficiënt prestaties uit je chip moet kunnen halen en als je de prestaties van intels IGP's ziet hebben ze dat de laatste jaren niet meer gedaan.

Ja, ze hebben veel geld en een grote R&D-afdeling dus als ze de high-end GPU-markt op willen dan lukt ze dat wel. Maar ze hebben nog veel in te halen en Ati en NVidia zijn gewoon ijzersterk op dat gebied dus dat zal nog wel even duren.
Kortom, tijd om Intel op te splitsen?
mooi jaaroverzicht!
ik ben persoonlijk wel eens benieuwd hoe de Intel larrabee zal concurreren met nVidia en ATI
ik gok dat ze no ver zullen zijn heel ver, nvidia en ati zijn al veel langer bezig met gpu's intel kan niet alles overheersen, wel zullen veel mobo's nu een onboard versie van deze krijen... gok ik dan.
Daarentegen zwemt Intel in het geld en kan zich dus veroorloven om gigantisch veel mensen op de ontwikkeling te zetten. Ik ben het wel met je eens dat het sowieso niet de eerste generatie gaat worden die een revolutie teweeg brengt.
Als Intel nou met veel geld top mensen bij ATI / NVIDIA gaat kopen? Dan zal er toch iets van een verschuiving plaats vinden.
Dan hebben de meeste bedrijven wel een concurrentie beding clausule in hun contracten opgenomen.

Leuk dat je dan overgenomen bent door intel maar als jij dan de komende 2 jaar niks met je kennis mag doen heeft intel er ook weinig aan. Worden ze meteen aangeklaagd.

[Reactie gewijzigd door HolleBolleTeun op 28 december 2009 15:53]

De kans is echter ook heel groot dat Larrabee, uiteraard met de dan door de marketingmensen gekozen naam, breeduit geadverteerd gaat worden als de ultieme game-ervaring en bovendien uiterst noodzakelijk voor de bedrijfsvoering, ongeacht of de prestaties zich kunnen meten met ATI en nVidia's kaarten of juist helemaal niet.

Aangezien de meerderheid van de consumenten zich vooral door reclame laten leiden (en decision-makers vaak ook voor de hen bekendere naam gaan) wordt het dus toch een gigantisch verkoopsucces.

Voor mij hoeft het niet, Larrabee. Mijn volgende GPU wordt zowiezo een nVidia of ATI (R600/R700/...) omdat die het beste ondersteund worden in FOS operating systems, (zeker met de nieuwste kernel-versie van Linux).
http://www.hardware.info/...abee_GPGPUchip_voor_2010/

Volgens mij is deze al van de baan gehaald bij Intel.
larrabee is veel te lang in ontwikkeling. de lifecycles van GPU's zijn véél korter dan die van CPU's en daar heeft Intel zich zwaar op verkeken. Ze gingen uit van de toekomstige generatie van de concurrenten, maar die denken altijd al 2 stappen vooruit.

Daarenboven is een GPU-design tegenwoordig ook een pak coplexer dan een CPU-design, waardoor Intel al met een gigantische vernieuwing moet komen om mee op de high-end markt te springen, die gedomineerd wordt door de moordende concurrentie en innovatie tussen AMD en Nvidia.

Dezelfde prestatie als op de SSD-markt zullen ze niet kunnen herhalen. Daar waar deze markt amper bestond en op geïnnoveerd was, is de GPU-markt al veel volwassener.
Anoniem: 115433
@Alquan29 december 2009 11:37
Concurreren nee dat doet Intel niet , kijk naar de I740 . die werd destijds voor dump prijzen op de markt gebracht.
Ik vraag me vooral af waarom Nvidia gekozen heeft om Physx af te sluiten in plaats van juist samen te laten werken met ATi kaarten.
Je zou denken dat ze op die manier juist kaarten als de 9800GT lekker kunnen laten meeliften met het succes van de dx11 kaartjes.

Aan de andere kant hebben ze misschien geen antwoord op het ultieme gamer speeltje dat Eyefinity heet en tegelijk geweldig is voor het bedrijfsleven. Misschien dat ze daarom physx hebben afgesloten van samenwerken met ATi (hoewel het telkens opnieuw zal worden gehackt) en zich zo richten op gpgpu/cuda structuren.
Het zou mij weinig verbazen dat PhysX het komende jaar verder doodbloedt. Dat doet het nu eigenlijk al, er zijn een paar games die het gebruiken, maar zelfs in die games voegt het eigenlijk niks toe, alleen wat eye-candy.
DX11 heeft echter een open variant hierop aan boord, die op alle DX11 kaarten werkt. Dan heb je dus een physics API die zowel open is, dus geen licentiekosten om dat nVidia PhysX logootje te mogen gebruiken, en die op alle compatibele kaarten, onafhankelijk van de chip, draait. Het enige nadeel is dan nog dat PhysX al langer op de markt is, maar eerlijk gezegd denk ik dat dat maar een klein obstakel is, omdat veel studio's daar überhaupt nog niks mee hebben gedaan.
Dit is sinds het begin van het hele PhysX verhaal ten tijde van Ageia al zo.
Kijk hoeveel ontwikkelaars met een Unreal Engine 3 licentie geen of nauwelijks gebruik maken van de gratis reeds geintegreerde PhysX middleware.
De meesten gebruiken Havok, Bullet, Open Dynamics Engine of andere alternatieven omdat deze multiplatform (dwz niet exclusief voor nVidia hardware) zijn.
De developer markt prefereerd een standaard. 'n Middleware dat geen hardware doelgroep van je target audience discrimineerd.
DX11 en OpenCL zijn hardware merk onafhankelijje alternatieven voor CUDA.
Niet PhysX. De tegenhanger daarvan is Havok. Havok discrimineerd GPU omdat het beheerd wordt door iNtel. We hadden dan al lang HavokFX gehad. De reden dat nV ageia overnam.

DX11 en OpenCL brengt niks in tegen PhysX en Havok.
'n derde middleware Physics bakker moet even flink Dev markt aandeel winnen en dan OpenCL of DX11_CS omarmen. Zodat default Physics load meteen flinke stap hoger kan. ipv een CPU nood loop. Gericht op Mainstream CPU target.

Dus voor Middleware bakkers is DX11CS en openCL interresant en elke dev die zelf hun Physics module ontwikkeld. Maar dat zijn uitzonderingen. De rest van de Dev's benutten middleware Havok en PhysX en Bullit etc.

Dus PhysX kan nog even vooruit sukkelen. En krijgen we bij vlagen een beetje of soms een shitload aan effect physics bij sommige TWIMTBP games.
Met open standaarden en GPU's van verschillende merken die samen kunnen werken, maak je overstappen gemakkelijker. Heb je immers een GPU van merk X, dan kun je er zomaar een GPU van merk Y bij zetten. En aangezien NVidia een groter marktaandeel heeft/had in high-end GPU markt zagen ze liever zo min mogelijk mensen overstappen.

NVidia-kaarten kunnen anders niet alleen meeliften met Ati-kaarten, maar ook andersom. Toen ze Physx gesloten hielden konden ze ook nog niet weten dat Ati sterker zou worden.
Bij mijn weten toen nV nog voor liep waren ze wel berijd om ATI te ondersteunen.
Maar dan vanwege dit.
iNtel -> Havok.- > CPU vs nV -> PhysX -> GPGPU.
Dus de CPU strijd van iNtel (AMD) vs GPGPU nV (AmdTI)
AMD hangt er tussen in. Dus AMD GPU en CPU denk whatever.

Voor nV geld kleinevijand van grote vijand is mijn vriend.
iNtel is big enemy. AMD underdog.
Tja dan pakt AMD op GPGPU goed uit. kleine Vijand van grote vijand zijn vijanden maar kleine vijand slaat hard naar nV die in dippie zit.

Will nV met PhysX GPGPU zwaar pushen tegen CPU dan hebben ze ATI(AMD) nodig.
Maar dat zal dan ten koste gaan van je slag positie in de GPU strijd. want je geeft AMD dan PhysX kado. Als je GPU core busness in ramp spoed zit dan dus niet je directe rivaal nog sterker maken.

Terwijl big rivaal even met LRB zit te modderen. Heeft nV AMD GPU rivaal eerst op de korrel.
Anoniem: 162923
@bwerg28 december 2009 13:45
dat klinkt er logisch t laatste stukkie ;) nice!
het is een oorlog tegen elkaar, waarom zou je elkaar dan helpen voor een beter product als je toch ook gewoon lekker aan je zelf kan denken...
Anoniem: 318238
28 december 2009 22:49
Zal de echte verschuiving op GPU gebied niet komen met raytracing, ik zag in het nvidia filmpje al dat er reeds zaken voor opgenomen zijn in de architectuur. De hele multicore ontwikkeling maakt dit nu eindelijk mogelijk. Volgens mij zijn nvidia en amd al flink bezig om hier een architectuur voor te ontwikkelen.

Voor fabrikanten ideaal omdat ze dan eindelijk met een geldige reden weer hardware kunnen verkopen.
precies. Maar ja opzich is het wachten op de Fermi nog best de moeite waard.
Ook al is de oplage in het begin misschien wel heel erg beroerd of is hij zelfs belachelijk duur.
zoals we weten heeft die GPU een gigantische diesize. Het is absoluut de grootste. Of die nu sneller of beter is maakt denk ik de fans niet veel uit. Ze kunnen in ieder geval altijd nog zeggen de MIjne is groter dan die van jou :D
Maarja grote maakt niet altijd uit natuurlijk. Maar raytracing is inderdaad waa het naartoe gaat. Op papier lijkt de technologie van fermi op dat gebied vrij belovend. Maar AMD doet het daarop ook zeker niet slecht. Ik zou het wel mooi vinden om een radeon 5890 te zien. 1+GHZ kloks moeten goed mogelijk zijn denk ik. Het was ze ook gelukt met de 4890.
ATI heeft ook een raytracing demo filmpje op ik geloof zelfs een hd3xxx kaart.

en welke multicore ontwikkeling heb je het over? GPU's waren altijd al multi-core namelijk.

edit :
hier article met hd4xxx
http://www.tomshardware.c...bee-Ray-Tracing,5769.html

maar ray tracing kon al met gewone dx9 hardware

[Reactie gewijzigd door Countess op 29 december 2009 11:08]

Leuk artikel :-).

Echter, ik mis eigenlijk (hoewel slechts voor een kleinere groep gebruikers relevant) de ontwikkelingen op gebied van Linux support (waar NVIDIA vrijwel heer en meester is door hun in 2009 geperfectioneerde en main stream geworden VDPAU acceleratie). Terwijl op dat gebied AMD/ATI echt nog steeds de plank behoorlijk mis slaat.

Niet zo'n probleem natuurlijk: Gamers zullen dus sneller geneigd zijn ATI te kopen (wat toch onder Windows draait) en mediacenter-/linuxfans NVIDIA :)
Klein vraagje tussen door waarom moet je met alle geweld Linux gebruiken voor een mediacenter? Ik heb nu bijna een jaar geleden een systeempje inelkaar gezet welke nu op Windows 7 + Media Portal draait. Kwa hardware was ik bijna 200 euro duurder uit als ik voor een Nvidia/Intel opslossing zou gaan, nu gebruik ik ATi/AMD wat perfect werkt. Volgens mij is er op dit gebied nog niet echt veel veranderd, maar oke ieders zijn voorkeur ik kan nu eenmaal meer met windows dan met Linux. :)

[Reactie gewijzigd door _Dune_ op 28 december 2009 11:44]

Voor linux heb je toch geen intel nodig? Het enige verschil is de GPU, misschien dat een mainstream NVidia zo'n 10-20 euro meer kost dan een AMD-kaartje van vergelijkbare prestaties dus dat valt best mee.
Met een media center ga je ook geen losse kaart gebruiken (veel te veel energie verslindend), maar een GPU of IGP op het moederbord zelf, deze zijn namelijk prim instaat HD content af te spelen. Als je dan Nvidia neemt, zit je tegenwoordig veelal aan een Intel CPU vast.
Ik heb onlangs een Asus M4N78 PRO mobo gekocht, specifiek omdat dit bord AMD cpu's ondersteunt en een nVidia onboard video kaart heeft (GF8300). Deze graka bied hardware acceleratie voor HD video weergave. Aangezien ik geen windows gebruik is zo'n oplossing het goedkoopst voor een media centre.
Die was er nog niet toen ik mijn spullen kocht. ;) Maar inderdaad is ik had ook een moederbord met 8200 chipset kunnen nemen, de voorganger van de 8300, maar deze had een nadeel tegenover de 780G van AMD/ATi. (ik weet zo niet precies wat)
En qua software was je hoeveel kwijt? Kom je uiteindelijke toch op een gelijk bedrag uit, met zwakkere hardware. Bovendien, je kan ook gewoon een amd proc + low budget nvdia kaartje erin prikken, kost je misschien 2 tientjes extra tov igp.

Er is wel iets veranderd trouwens wat betreft linux en Ati. De blobs missen nog video ondersteuning, maar zijn qua stabiliteit, features en performance behoorlijk vooruit gegaan. Het meest belangrijke voor linux is echter dat de hardware specs open zijn gegooit en de open source 3d driver nu echt vooruitgang aan het maken is. Misschien wordt 2010 wel het jaar van open source ATI 3D. Kan je van nvidia niet zeggen, die blijft dan de enige gpu bakker van betekenis waar alles gesloten is.
Omdat het leuk is ;-). Het is leuk om te kunnen knutselen aan je eigen computer.
Waarom ik met "alle geweld" Linux wil gebruiken?

1. Het start sneller op (ik wil niet een pc 24/7 aan laten staan)
2. Ik media portal een draak vind zo traag en toch geen TV gebruik
3. XBMC, zeker vanwege m'n non-behoefte aan TV de perfecte mediacenter software is (in mijn ogen dan he ;) ) en dat onder Linux nou eenmaal beter draait.
Toen ik het artikel op the inquierer las, kwam dat inderdaad erg solide over. Alle problemen die aangekaart werden kwamen al voor bij de toenmalige nVidia chips.

Door het vele uitstellen en alleen maar opnieuw uitbrengen van kaarten met een oude architectuur. (Artikel noemt het niet, maar jezus hoe vaak is er een 8800GT respin uitgekomen de afgelopen twee jaar?). Lijkt het er echt op dat het 'upgraden' van deze architectuur niet gelukt is.

Het artikel voorspelde een complete redesign, en als je ziet hoelang het al duurt, (bijna een jaar) voordat er echt iets nieuws uit komt, lijkt het grotendeels waar te zijn. Ik ben heel benieuwd of dit goed gaat. Het zou net als bij Intel's C2Ds een hele verbetering kunnen, en weer jaren rek geven voor nVidia, en AMD terug duwen. Maar het kan ook zijn dat de nieuwe generatie nog ontzettend getuned en uitgewerkt moet worden en dat de eerste misschien maar net in de buurt komt bij de vorige generatie AMDs.

Ik ben iig heel erg benieuwd. AMD heeft nu zulke mooie videokaarten met strakke prijzen, ik hoop dat nVidia de druk weer op kan voeren zodat AMD genoodzaakt is om die prijzen en kaartjes zo te houden! En meer gpu power is nooit weg, er is altijd wel iets dat mooier kan :).
Hoe meer de drie (of twee) kampen elkaar af proberen te troeven, hoe beter het is voor de consument.

Alleen zijn die grappen van Nvidia met 'mijn merk alleen'-acties zoals PhysX en het schrappen van DirectX 10.1 uit Assassin's Creed 1 minder leuk.

Ook jammer vind ik (dat zie je al aan de promotiefilmpjes) is dat Nvidia steeds meer GPGPU-producten, officieel deel van de DX11-standaard (, uit gaat brengen voor het bedrijfsleven, zoals Tesla en Fermi. Waar zijn wij gamers dan?

De hordes mensen met 8800-kaarten zullen waarschijnlijk niet al te veel moeite hebben om hun portemonee te trekken voor een leuke HD5770 of een HD5850.
...uit gaat brengen voor het bedrijfsleven, zoals Tesla en Fermi. Waar zijn wij gamers dan?
Over het algemeen proviteer je juist van het bedrijfs leven. Daar is nou eenmaal meer geld te verdienen. Daardoor zijn de ontwikkelingskosten sneller terugverdiend en kun je als 'gamer' eerder genieten van betaalbaar high-end spul.
Hangt natuurlijk erg van de markt af of er in het bedrijfsleven meer te verdienen valt dan bij consumenten. Voor high-end GPU's lijkt dat mij duidelijk niet het geval, ook al zijn de GPU's nu geschikt voor supercomputer toepassingen, daar heeft de gemiddelde kantoorgebruiker geen boodschap aan.
Ik ben in alle eerlijkheid een ATi Fan-boy, zonder twijfel, 9700, HD3870(Inclusief Crossfire), HD4870(Wederom Crossfire), en hopelijk binnenkort HD5970... maar ik moet wel zeggen, ik kan me echt niet voorstellen dat een chispet gigant als nVidia zich zo slecht kan vertegenwoordigen.

Noem mij maar paranoïde, maar volgens mij laat nVIdia de concurrentie zich in de kaart kijken.

Daarintegen, de Geforce en Quadro kaarten zijn helaas berucht voor hoge kosten, vergeleken met AMD/ATi radeons.

2010 belooft verlichtend te worden, ik wacht met spanning of.
De planning en ontwikkeling voor GT200 en fermi zijn al een hele tijd geleden gemaakt, nog in de tijd dat ze met gemak de performancekroon hielden met de G80. Ze hadden die grote, dure chips dan ook ontworpen met in het achterhoofd dat Ati daar qua prestaties toch niet bij kon en dat ze met gemak veel geld konden vragen voor de snelste GPU's op de markt. Toen bleek dat Ati erg hard terugsloeg (nu al twee keer), konden ze daar niks meer aan doen. Tenminste, niet meer voor fermi want die was al lang in ontwerp. Misschien dat ze na fermi een andere koers gaan varen.
Ik geloof persoonlijk niet dat men zover terug in de tijd moet om bij de teken tafel te komen van de GT200 en Fermi familie. De ontwikkeling gaat tegenwoordig harder, dus is er ook minder tijd om iets op poten te zetten.

AMD had de RV670 niet gepland, omdat de R600 destijds goed had moeten zijn. Toch stond er binnen een half jaar een HD3800 serie in de schappen, MET dx10.1.

Neej geef ze een jaar en een maandje of 3 om een nieuwe generatie uit te denken, dan kom je denk ik beter in de buurt.

De nieuwe trucjes zullen inderdaad wel eerder klaar liggen, maar het ontwerp van de chip is nog lang niet vast en worden vast nog hier en daar gewijzigd voor en tijdens de eerste chipjes.
hd3800 was toch ook niet zo goed(herrinner ik mij)? dx10.1 is wel een verandering maar geen grote, maar een complete chip duurt echt wel lang, ik had een poos geleden een stuk bij anandtech gelezen over het ontwerpen van de chip in de 4800 series, en die is 3 jaar voordat de chip uitkwam begonnen, dus het duurt nog steeds wel 3 jaar hoor...
Leuk artikel om te lezen. En erg netjes van ATI om toch te laten zien dat ze nog steeds snelle/goedkope kaarten kunnen bouwen. (285GTX here, maar geen fanboy)
Elke grakamaker moet het van de mainstreamkaarten hebben.
Die worden meer verkocht dan de high-end versies.
Aan de andere kant wordt er veel meer winst gemaakt op high-end kaarten. Neem bijvoorbeeld de HD5870. De chip is dubbel zo groot als die van de HD5770, ook een groter PCB maar bijvoorbeeld niet meer geheugen. Al met al dus minder dan dubbel zo veel onderdelen, en waarschijnlijk ook niet meer dan dubbel zoveel kosten om te maken. Stel dat een HD5770 100 euro kost om te maken en een HD5870 200 euro (puur uit de lucht gegrepen getallen), dan wordt er iets van 20 euro winst gemaakt op de HD5770 en 100 euro op de HD5870.

Zie ook de GTX280 toen die net gelaunched was. Die kost nu nog geen 300 meer (al is die in winkels niet meer verkrijgbaar) maar werd eerst voor het dubbele verkocht, dus dat is een dikke vette 300,- extra winst voor elk verkocht kaartje!
Anoniem: 287880
28 december 2009 10:51
32 nm van GF dan?
TSMC heeft 32 geschrapt en gaat meteen 28. Ik denk dat je eerder op 28 nm kan rekenen voor de volgende shrink dan 32.
GloFo in Dresden is geloof ik ook al (bijna) over op 28 nm, nu zijn ze in Saratoga County, NY ook bezig met een 28 nm fab die snel over kan gaan in 22 nm.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee