Door Olaf van Miltenburg

Nieuwscoördinator

Jaaroverzicht: Nvidia krijgt rake klappen van AMD

30-12-2008 • 15:55

51

Multipage-opmaak

Begin 2008: Nvidia in de comfortabele stoel

Het gpu-landschap vormde het afgelopen jaar een bijzonder interessant strijdtoneel. Gebleken is maar weer eens dat de consument de werkelijke winnaar is bij gezonde concurrentie tussen bedrijven. De twee kemphanen op deze markt, Nvidia en AMD, volgden beiden verschillende strategieën en geconstateerd kan worden dat die van AMD uiteindelijk het meest succesvol is gebleken. Duidelijk is echter ook dat deze fabrikant zich op kan maken voor een jaar waarin Nvidia er alles aan zal doen om terug te slaan.

Nvidia begon 2008 in een luxe-positie en de fabrikant domineerde vrijwel alle segmenten. De in mei 2007 geïntroduceerde Geforce 8800 Ultra-kaart bezat nog steeds de prestatiekroon, hetgeen het succes van de op 90nm geproduceerde G80-gpu uit 2006 nog maar eens onderstreepte. De eind 2007 op de markt gebrachte kaarten met de op 65nm gebakken varianten van de G80, de G92, hielden de mainstreammarkt in hun greep. Kortom: er leek geen vuiltje aan de lucht.

Nvidia G92

Want wat stelde AMD hier tegenover? De in november geïntroduceerde Radeon HD 3850 en de HD 3870, gebaseerd op de RV670-gpu. Dit was een 55nm-die shrink van de enigszins geflopte, op 80nm geproduceerde, R600-gpu. De kaarten werden redelijk goed ontvangen, maar een echte bedreiging voor Nvidia vormden ze niet.

In januari speelde AMD zijn troef uit voor de highend-markt: de Radeon 3870 X2. Die videoplank wist warempel de beste prestaties van dat moment neer te zetten, maar belangrijker was dat een nieuwe strategie van AMD zich ontvouwde: bouw een gpu voor de mainstreammarkt en plaats twee van deze chips op een pcb om het hogere segment te bedienen. Een interessante strategie, maar ook Nvidia bleek een kaart met twee G92-gpu's in de pijplijn te hebben.

Deze Geforce 9800GX2 arriveerde in maart en veegde de vloer aan met de dual-gpu-kaart van AMD. Tot overmaat van ramp voor de Radeon-fabrikant, kwam Nvidia een maand later ook nog met de opvolger van de 8800GTX: de 9800GTX. Deze G92-kaart presteerde even goed als de 3870 X2, kostte minder en bevatte slechts een gpu, wat door velen als een voordeel werd gezien. Wat bleef er hierdoor over van de strategie van AMD?

GT200 versus RV770: de ommezwaai

Halverwege het jaar kwam Nvidia met zijn klapstuk, een gpu die de fabrikant nog steviger in het zadel moest brengen. De GT200 was puur machtsvertoon: met 1,4 miljard transistors was het de grootste chip die ooit door chipfabrikant Tsmc was geproduceerd. De oppervlakte van de nog steeds op 65nm gebakken chip bedroeg 576 vierkante millimeter. Dat was groter dan het oppervlak van de G80, 484 vierkante millimeter, terwijl die gpu op 90nm werd geproduceerd. De GT200-chip beschikt daarnaast over 240 shaderprocesors, 112 meer dan de G80 en de G92.

Nvidia GT200 die

De eerste kaarten met de GT200, de GTX260 en de GTX280, moesten Nvidia steviger in het zadel brengen op de highend-markt. Dat lukte en de prestaties werden bejubeld, maar niet zonder kritische kanttekeningen. In zowel reviews als reacties werd aangehaald dat de GTX280 met zijn prijs van boven de 500 euro toch wel erg duur was, dat de kaarten erg groot waren en het energieverbruik niet mals was. Hoe groot konden gpu's nog worden en tegen welke prijs? Ter illustratie: er konden slechts 94 GT200-chips uit een enkele 300mm-wafer gehaald worden.

Het bleek dat AMD zichzelf die vraag al in 2005 stelde. In dat jaar begon de fabrikant aan de ontwikkeling van de RV770. In een tijd dat niet ter discussie stond dat een gpu-fabrikant met de grootste, want best presterende, chip moest komen om aan kop te blijven in de race, lukte het enkele ontwikkelaars van AMD om het bedrijf ervan te overtuigen dat er een andere koers gevaren moest worden. Bouw een relatief kleine chip voor het lucratieve hoge deel van de mainstream-markt en zorg voor de beste prijs-prestatieverhouding. Zo voorkom je extreem grote investeringen en problemen die kunnen ontstaan door omvangrijke, complexe ontwerpen. Bovendien kun je kaarten voor meerdere segmenten snel uitrollen, zonder dat gewacht hoeft te worden op de afgeleiden van de kolossale chips voor de highend. Niet onbelangrijk is dat het moeilijker is om goede yields te halen met monster-chips, dus met een kleine chip is de kans kleiner dat je functionaliteit van afdankertjes van je dure gpu's moet uitschakelen om ze op goedkopere kaarten te zetten, hetgeen toch een vorm van kapitaalvernietiging is.

Nvidia AMD gpu grootte van de die

Om de RV770 klein te houden, maar toch hoge prestaties mee te geven, nam AMD enkele gewaagde beslissingen. De meest gedurfde was wel om de chip van een 256bits bus te voorzien om de omvang binnen de perken te houden en deze op de RV770 XT, de codenaam voor de HD 4870, te combineren met gddr5-geheugen. Een combinatie die voor voldoende bandbreedte moest zorgen. De specificatie van gddr5 was echter in 2005 nog niet afgerond en AMD had geen enkele garantie dat het geheugen voldoende snel zou worden, op tijd gereed zou zijn en voldoende beschikbaar zou kunnen komen bij het verschijnen van de RV770 XT. De HD 4870 zou het 'performance'-segment moeten bedienen, het hoogste deel van de mainstream volgens de AMD-classificering, maar lager dan 'enthusiast'.

RV770XT

De HD 4850 was voor de rest van het mainstream-segment bedoeld. AMD had een kaart in gedachten waarvan de kloksnelheid van de gpu op 500MHz liep en waarop 256MB geheugen geplaatst zou worden dat op 900MHz liep. Op het laatste moment werd echter besloten 512MB geheugen toe te voegen en de gpu-kloksnelheid en geheugensnelheid op respectievelijk 625MHz en 993MHz te zetten.

Ten opzichte van de RV670 zou de RV770 over aanzienlijk meer streamprocessors beschikken: 320 tegenover 800. Verder steeg de hoeveelheid texture units van 16 naar 40. Het aantal transistors nam toe van 666 miljoen naar 965 miljoen en de die nam in omvang toe van 192mm² naar 256mm², hetgeen als een bescheiden vergroting kan worden gezien.

De release van de RV770-kaarten verliep bepaald niet vlekkeloos. Aanvankelijk zouden de 4850 en de 4870 tegelijk worden geïntroduceerd op 25 juni, maar op donderdag 19 juni gaf AMD groen licht aan de reviewers om hun testen van de 4850 te publiceren omdat die kaarten al voortijdig in de verkoop waren gegaan. De resultaten van de 4870 moesten ze echter nog onder de pet houden. Hoe het ook ging; de conclusie was unaniem: de Radeon-kaarten boden ongekende waar voor hun geld. De 150 à 170 euro kostende 4850 kon de strijd met de veel duurdere 9800GTX moeiteloos aan en de 4870 wist in veel gevallen de GTX260 te overklassen.

In augustus volgde de dual-gpu-kaart de 4870 X2 en deze kaart veegde de vloer aan met de GTX280. AMD had twee gpu's nodig om de prestatiekroon terug te pakken, maar dit was geheel volgens de strategie en de fabrikant vroeg een vergelijkbare prijs als Nvidia voor zijn langzamere GTX280. In oktober verscheen ook nog eens de HD 4830, met een opnieuw uitstekende prijs-prestatieverhouding voor de onderkant van het middensegment. Het verschil met het begin van het jaar had niet groter kunnen zijn: AMD heerste op prestatiegebied terwijl Nvidia nog niet zo lang geleden zijn belangrijkste troef had uitgespeeld. Bovendien had de fabrikant van de Radeons de mainstreammarkt ineens in een stevige greep.

De race gaat verder

Het was na de release van de RV700-kaarten alle hens aan dek bij Nvidia. Het tweede deel van het jaar kenmerkte zich door prijsverlagingen en een versnelde overstap op 55nm, die met veel geruchten en weinig resultaat gepaard ging. De fabrikant besloot op de dag van de release van de nieuwe ster aan het firmament, de Radeon HD 4850, de prijs van zijn 9800GTX te verlagen, terwijl ook een op 55nm geproduceerde variant, de 9800GTX+, met hogere kloksnelheden werd geïntroduceerd. Half juli, slechts een maand na hun introductie, werden de prijzen van de GTX260 en GTX280 drastisch teruggebracht, een uiterst pijnlijke ingreep voor Nvidia die ongetwijfeld tot scheve gezichten heeft geleid bij mensen die een van deze kaarten al hadden aangeschaft.

Na verloop van tijd waren de yields van de GT200 zo goed dat Nvidia het aandurfde een GTX260 met 216 in plaats van 192 streamprocessors uit te brengen. Erg veel zoden zette dit echter niet aan de dijk, en de toevoeging 'Core 216' toonde vooral het onvermogen van Nvidia aan om zijn belofte na te komen dat de productnaamgeving vereenvoudigd zou worden. Die naamgeving leidde, en leidt overigens, vaak tot gefronste wenkbrauwen: de Geforce 8800GS werd hernoemd naar Geforce 9600GSO, de Geforce 9800GTX is in feite niets anders dan een hoger geklokte 8800GTS en de 9800GT is een 8800GT in een ander jasje.

Ondertussen werd Nvidia ook nog eens geplaagd door perikelen met zijn mobiele G84- en G86-gpu's die problemen vertoonden door gebruik van gebrekkig materiaal.

Nvidia PhysxWas het dan allemaal kommer en kwel voor het groene kamp in de tweede helft van 2008? Dat ook weer niet. Het bedrijf heeft wat vorderingen gemaakt met zijn gpgpu-platform Cuda. Zo liet onder andere de applicatie Badaboom zien dat de technologie aanzienlijk snellere video-decodering binnen handbereik brengt. Ook de overname van Physx-ontwikkelaar Ageia mag niet onbenoemd blijven. Nvidia heeft de Physx-ondersteuning inmiddels in zijn drivers geïntegreerd en nu 2K Games, Electronic Arts en THQ zich achter het platform voor natuurkundige berekeningen geschaard hebben, lijkt een veelbelovende toekomst voor de technologie weggelegd.

Ook niet onbelangrijk zijn de vorderingen op mobiel gebied. Nvidia wist veel notebookfabrikanten over te halen om laptops uit te rusten met een een gpu uit zijn Geforce 9M-serie. Onder andere Apple vormt nu een belangrijke klant van de 9400M, waarmee Nvidia de aanval heeft geopend op de igp's van Intel. Onder de noemer 'Ion' wil Nvidia de 9400M combineren met de succesvolle Atom-cpu, zodat netbooks en nettops bijvoorbeeld hd-video in 1080p-formaat kunnen afspelen. 2008 vormde ook het jaar waarin Nvidia zijn Tegra-system-on-a-chip introduceerde. De fabrikant komt hiermee met een soc, die naast een ARM11-cpu een 3d-videocore, een beeldprocessor, hardware voor het decoderen van hd-films, een north- en southbridge en geheugen bevat.

Bovendien is de algemene verwachting dat Nvidia de prestatiebokaal in januari weer in ontvangst mag nemen bij de introductie van de GTX295. Deze oplossing kan gezien worden als een dual-GTX260-kaart en bestaat uit twee op 55nm gebakken GT200-chips. Nvidia lijkt de overstap op 55nm af te ronden op de valreep van 2008 maar duidelijk is al dat de fabrikant ATI Streamsnel probeert door te stoten naar 40nm, aangezien AMD bezig is op dit productieprocedé over te schakelen. AMD zal proberen zijn strategie te handhaven en zich op prijs-prestatie blijven richten. Ook zal het zijn Cuda-tegenhanger Stream blijven doorontwikkelen. Het wordt hoe dan ook interessant om te zien hoe de kemphanen de strijd vervolgen.

Lees meer

Reacties (51)

51
48
9
7
0
7
Wijzig sortering
Ook het Ion platform icm een Intel Atom dualcore mag niet vergeten worden.

Verder denk ik dat dit jaar Ati toch als betere producent uit de bus gekomen is met de 4780 door een zeer sterke kaart voor een zeer zacht prijsje aan te bieden, al is de 4850 qua prijs/prestatie op dat vlak weer net iets beter, maar dus ook minder snel.

Verder heeft nVidia toch ook een overwinning geboekt door een SLI-certificering te kunnen verkopen bij een Intel X58-chipset wat eerder alleen tot de nForce chipsets behouden bleef.

De uiteindelijke winnaar is tenslotte toch de consument die alleen maar beter af is met de prijsconcurrentie en in dit geval ook nog de lage dollar.

@ pocketgamer, Ion heeft nog steeds kans om toch op de markt te komen, puur omdat Intel bedacht om zo ook het marktaandeel Intel CPU's te vergroten, door de Atom ook los te verkopen, zie ook dit artikel op Fudzilla.

[Reactie gewijzigd door Wiethoofd op 25 juli 2024 02:40]

Ik denk dat het eerder een overwinning is voor intel. Die zorgt nu dat ZIJN chipsets worden verkocht en niet die van nvidia.

OT:
Ook zal het zijn Cuda-tegenhanger Stream blijven doorontwikkelen.
Nee, stream niet, maar openCL! Dat gaat het worden. Word zowel door nvidia als ati ondersteund en zal hierdoor makkelijker tot acceptatie kunnen komen! Niet te vergeten DX11 welke ook nog ondersteuning voor GPGPU gaat geven. Dus stream en cuda? Nee, denk het niet.

@pocketgamer

Nee, dat is niet waar blijkt :)

http://www.internetnews.c...a%20Out%20From%20Atom.htm

[Reactie gewijzigd door Anoniem: 134818 op 25 juli 2024 02:40]

Nee, stream niet, maar openCL! Dat gaat het worden. Word zowel door nvidia als ati ondersteund en zal hierdoor makkelijker tot acceptatie kunnen komen! Niet te vergeten DX11 welke ook nog ondersteuning voor GPGPU gaat geven. Dus stream en cuda?
Wat ik gelezen heb op het Stream forum blijft Stream wel doorontwikkeld worden, net als CUDA. Ik weet niet exact hoe het bij AMD zal zijn, maar denk dat het wel ongeveer hetzelfde zal zijn als bij NVIDIA.

CUDA code wordt door nvcc omgezet naar ptx (virtual assembly) en vervolgens naar bytecode voor de specifieke GPU omgezet (inclusief optimalisatieslag die ook GPU specifiek is).
OpenCL code zal bij NVIDIA ook omgezet worden naar ptx, waardoor er slechts een OpenCL->ptx compiler gemaakt hoeft te worden. Het 'interessante' werk zit hem in de tweede stap, en die zal dus door beide talen gedeeld worden.

CUDA ondersteund momenteel nog te veel dingen die niet door OpenCL ondersteund worden (templates bijvoorbeeld en de runtime environment). En ik denk dat NVIDIA (net als ATI) graag extra features aan hun talen toe zal willen voegen zonder langs een OpenCL committee te moeten.
Intel heeft er al voor gezorgd dat het Ion platform niet door gaat. Van intel mogen atoms alleen op intel bordjes geprikt worden helaas. Hopelijk wordt het Ion platform doorgezet op celerons dan :)
Anoniem: 206066 @svenk9131 december 2008 08:10
Ik meende dat dat verhaal inmiddels al afgedaan was als gerucht. Intel heeft duidelijk gezegd dat Nv gewoon Atom CPU's mag gaan gebruiken icm Nv chipsets e.d.
Anoniem: 261542 30 december 2008 16:38
ik mis het lucratieve laptop segment van videochips in deze bijdrage, daar is nvidia volgens mij naast intel wel de de grote winnaar van 2008 geworden. notabene: er worden telkens meer laptops verkocht ipv desktop pc's.

edit:
hm, ik lees hier dat amd ook voor het laptop segment gpu's niet slechte zaken gedaan heeft: http://www.theinquirer.ne...hics-market-booming-while

dit zijn wel cijfers van october 2008, de nieuwe nvidia chipset die ook in de apple laptops gebruikt wordt komt hier nog niet in voor. het is overigens een trend in laptop land om meerder gpu's per SKU (macbook pro) te verkopen dus dit onderstreept het belang van de laptop markt voor GPU's nogmaals.

[Reactie gewijzigd door Anoniem: 261542 op 25 juli 2024 02:40]

Ik vind het nogal onzorgvuldig om de tweestrijd tussen AMD en Nvidia af te schilderen als zijnde 'gezond'. Al hoewel een oligopolie (daar lijkt dit toch het meeste op!) veel beter is dan een monopolie, is het nog altijd verre van gezond.

Op korte termijn is het wellicht gunstig - zoals nu blijkt - maar de kans is erg groot dat het nu nog gezonde evenwicht uit balans geraakt en doorslaat naar een bepaalde kant. Als je meerdere aanbieders hebt is die kans vele malen kleiner.

Vergelijk het met de Desktop OS-markt. Je hebt daar nu één hele grote speler: Microsoft, twee kleinere (OS X en Linux) en nog heel wat splintergroeperingen die niet echt ter zake doen. Niet zal beweren dat dát een gezonde situatie is. Toch was ook dat ooit een 'gezonde' markt. Echter is de markt helemaal uit evenwicht geraakt en kijk wat er terecht van is gekomen...
Nog even kijken wat er gaat gebeuren met Nvidia. Ik zit op dit moment met een Macbook Pro. Hierin zit een 9400m en een 9600m gt. Er zijn dus problemen met de 9600m gt. Ik ondervind deze problemen zelf ook.

Over het probleem zelf:
http://www.theinquirer.ne...hy-nvidia-chips-defective

De oplossing van Nvidia naar afnemers toe:
http://www.theinquirer.ne...uying-its-defective-chips

Discussie op het Apple Forum:
http://discussions.apple....threadID=1767221&tstart=0

De onderste link is een van de meest gelezen topics op het forum van Apple. Ook het aantal reacties is niet van de lucht. Daarbij komende dat een groot gedeelte van de macbook pro gebruikers wellicht de 9600m gt niet eens gebruiken, danwel niet gebruikt om mee te gamen.

Het zal nog wel een roerige periode worden voor Nvidia.
Ik denk toch dat er ook wel iets gezegd had mogen worden over IGP's. Ik denk bijvoorbeeld dat de 3200 van amd wel noemens waardig is.
Hier ben ik het helemaal mee eens. AMD heeft hiermee gezorgd voor een verschuiving binnen de low-end en HTPC systemen. Hiermee kon het eerste systeem dat, zonder toevoeging van een losse videokaart, (enkele) moderne games en FullHD (1080p) video aan kon. De toevoeging van Hybrid Crossfire maakte de borden niet alleen interessant voor eerder genoemde systemen maar ook voor het gebied tussen mid- en high-end.
Ook dit is weer een gebied waarin Nvidia het nakijken had. Het heeft nog tot kort geleden geduurd dat zij met een passend antwoord wisten te komen: de GeForce 9300/nForce730i (welke de AMD 790GX/ATi HD3300 op sommige punten zelfs voorbij stevent).
Het is mooi dat beide fabrikanten elkaar in de nek hijgen. Is goed voor de conccurentie en ze moeten op die manier ook de prijzen laag houden.

Vroeger altijd ATi kaarten gehad ( 9500 Pro, 9800 Pro en X800 Pro ) maar nu weer eens een GeForce 8800 GTS 320 mb erin hangen. Ben over al deze kaarten erg te spreken en een bepaald voorkeur voor een merk heb ik niet.

Het schijnt dat de beeldkwaliteit van verschillende kaarten/merken ook nog aanzienlijk kan verschillen maar daarin heb ik persoonlijk nooit echt verschil kunnen zien.
Denk ook dat de meeste mensen dit niet zien.. Je hebt een oude kaart, ramt er een nieuwe in en vindt deze zowieso al stukken beter.. (als je hem aan het draaien hebt) mensen die cijfertjes erbij gaan pakken en beelden gaan vergelijken die zeker.. Maar het gros van de mensen zal geen verschil zien...
Volgens mij is dat verschil in beeldkwaliteit iets van jaren terug, uit de Geforce 1/2 tijd. Toen gebruikten sommige fabrikanten goedkope filters voor de analoge output. Veel kaarten worden tegenwoordig door de GPU fabrikant gemaakt en wordt er tegenwoordig veel digitaal aangesloten.

Waar wel een verschil in zit is dat bepaalde games anders worden gerenderd door AMD/Nvidia, dit heeft denk ik met de drivers te maken hoe deze alles laten berekenen door de GP.
Anoniem: 267267 30 december 2008 16:10
Ben zeer benieuwd wat er volgend jaar gaat gebeuren op beide fronten :)
Anoniem: 178292 30 december 2008 16:34
Je kunt duidelijk merken dat Nvidia en AMD/Ati een spelletje met elkaar aan het spelen zijn. Ik geef toe dat ik duidelijk een Nvidia fan ben geweest (vanaf de 6000 reeks, had ook met linux te maken) en tevens pas nog een 9800 GT gekocht (bang for buck :p).

Al met al vind ik dat AMD/Ati het helemaal niet verkeerd doet en heeft het laatste jaar flink aan de weg getimmerd. Niet alleen mooie kaartjes afleveren voor een goede prijs, maar ook de drivers (eindelijk!) eens onder handen nemen van zowel windows en linux.

De kans is groot dat mijn volgende kaart een AMD/Ati word als ze zo doorgaan. De duidelijke winaar van dit jaar is AMD/Ati, natuurlijk een persoonlijke mening, en dat komt van een Nvidia fanboy.
Hoe bedoel je een spelletje spelen? Naar mijn idee zijn ze elkaar gewoon volop aan het beconcurreren met alle voordelen van de consument erbij.
Hij bedoelt elkaar overtreffen en op een bijzonder naar elkaar gewrichten manier concurreren
Misschien moet je eens kijken naar de netto resultaten van amd/ati, ze smijten met geld en maken miljarden verlies per kwartaal. Als je naar de laatste 5 kwartalen kijkt van de grafische afdeling dan zijn er 2 met een verlies en 3 met een winst. Dus netto is het bepaald ook geen vetpot dat "succes" van de rv770. Nvidia zijn winst lag, tot de prijsdaling van de gtx260/gtx280, perfect op pijl. Laten we het over intel maar niet hebben, die maken helemaal een belachelijke winst. Amd/Ati is nog lang niet aan de winnende zijde, niet zolang ze met value for money producten komen waar ze zelf verlies op maken.
Anoniem: 247379 30 december 2008 16:42
Ik ben benieuwd of Nvidia volgend jaar eens degelijke Windows drivers gaat schrijven. De afgelopen twee jaar was dat een drama, en voor mij een reden om bij de volgende kaart toch maar wat extra naar het ATI aanbod te kijken.
Ik snap het niet, Ik heb gewoon standaard drivers van de nvidia site afgeplukt,
alles draait stabiel en geen artefacts.
Kijk als je driver over driver gaat installeren dan vraag je om problemen.
Gelukkig doe ik dat dan ook niet. Ik heb ook de standaard drivers, en bij mij is het een groot drama.
Dan doe JIJ iets gruwelijk fout, en niet nVidia.

Ik draai meer beta drivers dan WHQL gecertificeerde, en ik heb onder Vista nog geen enkel probleem gehad met mijn 7600GT of mijn 9600GTs in SLI. Het werkt als een zonnetje, PhysX ook.

Dus aan wie ligt het dan?
Heb dit jaar nog een 8800GTS 512 gehad, drivers vond ik minder dan ruim een jaar eerder toen ik nog een 7600GT had.

@Ackermans1973:

Als jij alleen WHQL drivers draait geef ik je groot gelijk omdat daar vaak wel goede tussen zitten, maar dat is eigenlijk van de zotten, dat een consument beta drivers moet gebruiken om zonder problemen te draaien, heeft nvidia zo weinig vertrouwen in haar eigen drivers dat men op drivers die het wel blijken te doen, geen WHQL certificering durven te zetten? en daarbij komt dat men geen garantie heeft wanneer men deze drivers gebruikt.

Domovoi doet dus niets fout wanneer hij gewoon de nieuwste van internet plukt, dus aan wie ligt het dan? Aan nVidia, die heeft als taak om de beste drivers de consument aan te bieden, en ze niet weg te stoppen in het beta hoekje, waar de consument geen garantie heeft als zijn kaart kapot gaat.
Aan nVidia en Microsoft. nVidia's dual monitor support is brak m.n. als HDMI wordt gebruikt en Microsoft heeft vooralsnog verzaakt degelijke p&p ondersteuning toe te voegen voor TV's die dmv HDMI en een receiver worden aangestuurd. nVidia was een hel en daarom ben ik op AMD overgestapt. Nog niet perfect vanwege de slechte p&p van Windows maar zeker stukke beter dan nVidia.
Nvidia doet het sinds de Geforce 1 eigenlijk altijd al goed dus ik denk dat ze zo wel weer de leiding zullen pakken. De GeForce 4, 6, 8 en 9 waren allemaal een groot succes en de prijsdalingen waren ook voor mij een motivatie om voor Nvidia te kiezen, want wat heb je aan zo'n snelheidsmonster van 400 Euro tegenwoordig, als je ook met 'n 200 Euro kaart alles op het hoogste kunt spelen (okay, misschien niet al die extra features vol open, maar goed, dat boeit de meeste weinig). Nvidia heeft verder ook nog steeds de beste driver support, daar waar het met ATI altijd stoeien is. Ik ben op zich voorstander van Nvidia, maar mooi dat ook ATI/AMD het goed doet tegenwoordig. Een alleenheerser zou nooit goed zijn.

Op dit item kan niet meer gereageerd worden.