In 2009 liet ATI voor het eerst echt zijn tanden zien, na de overname door AMD. Bij Nvidia bleef het vooral bij veel gegrom en rookgordijnen. Het was het jaar waarin DirectX 11 werd geïntroduceerd, terwijl DirectX 10 amper wortel heeft kunnen schieten. Het was ook het jaar waarin spel na spel werd uitgesteld, maar desondanks trakteerde AMD ons op razendsnelle gpu’s die praktisch elk spel levend konden opvreten. En 2009 was ook het jaar waarin Intel zijn gooi naar de high-end videokaartmarkt nog maar eens een jaartje in de koelkast zette, door Larrabee wederom uit te stellen. Ergo: in 2009 zagen we weinig hoogtepunten, en van de ontwikkelingen die er wel waren zullen we de vruchten waarschijnlijk grotendeels pas volgend jaar kunnen plukken.
Het jaar 2009 ging niet eens heel slecht van start voor Nvidia: tijdens de jaarlijkse Consumer Electronics Show werd de GT200b-gpu geïntroduceerd. De gpu was een op 55nm gebakken GT200, met een lager energieverbruik, die ook van hogere kloksnelheden voorzien kon worden. De gpu belandde op onder andere de GTX 285, die daarmee de snelste gpu van dat moment aan boord had. De chip werd ook gebruikt voor de GTX 260 core 216, maar veel belangrijker was de GTX 295. Deze videokaart had niet een maar twee GT200b-gpu’s aan boord. De gpu’s hadden 240 cuda-cores, net zoals de gpu’s op de GTX 285. De geheugenbus was echter slechts 448bit breed, net zoals bij de gpu’s van de GTX 260. De kloksnelheden waren gelijk aan die van de GTX 260-videokaart. Per saldo was het een videokaart die de HD 4870X2 van AMD te snel af was, waardoor Nvidia de felbegeerde prestatiekroon weer in handen had. Door het 55nm-procedé kon Nvidia ook beter de concurrentie aan met AMD’s videokaarten. Al met al begon 2009 vrij goed voor Nvidia en de balans tussen beide kemphanen leek grotendeels weer hersteld.
Na de CES in januari bleef het relatief rustig, alhoewel de eerste geruchten opdoken over nieuwe videokaarten van Nvidia. Het ging om gpu’s die op 40nm zouden worden geproduceerd met de codenaam GT212, GT214, GT216 of GT218. De verwachting was dat de gpu’s dezelfde architectuur zouden hebben als de GT200b-gpu’s, met als voornaamste verschil het kleinschaliger productieproces. Nvidia introduceerde zijn eerste GT200-gpu namelijk al halverwege 2008, maar zes maanden later waren het nog steeds de G92-gpu’s die gebruikt werden voor Nvidia’s midrange- en budgetkaarten. Afgeleiden van de GT200b-gpu waren in geen velden of wegen te bekennen. Het was dan ook tijd voor Nvidia om een een nieuw rookgordijn op te trekken: het gerucht ontstond dat de 9800GT en de 9800GTX+ hernoemd zouden worden naar respectievelijk de GTS240 en GTS250. Het gerucht wordt tijdens de Cebit, begin maart, bevestigd, wanneer Nvidia de GTS250 onthult. De GTS250 is niets meer en niets minder dan een 9800GTX+, maar dan met 1GB gddr3-geheugen in plaats van 512MB gddr3-geheugen. Nvidia is het hernoemen van zijn videokaarten blijkbaar nog niet verleerd, want de 8800GT werd eerder ook al hernoemd naar de 9800GT, terwijl de 9800GTX eerst door het leven ging als de 8800GTS.
De eerste 40nm-gpu, Nvidia in de problemen?
Pas in april ziet weer een nieuwe videokaart het levenslicht: de ATI Radeon HD 4890. De videokaart heeft een nieuwe gpu aan boord, de RV790, in feite een licht aangepaste RV770, die in staat moet zijn om hogere kloksnelheden te halen. De HD 4890 is sneller dan de HD 4870 en komt zelfs in de buurt van de GTX 285. Overklokte modellen van de HD 4890, met soms kloksnelheden van maar liefst 1GHz, gaan zelfs gelijk op met de GTX 285. Nvidia laat zich echter niet kennen, en om het feestje van AMD te verstieren wordt de GTX 275 uit de hoge hoed getoverd. De videokaart valt aardig tussen de GTX 260 en de GTX 285 in en troeft de HD 4890 op de meeste fronten af. De beschikbaarheid van de GTX 275 laat echter te wensen over.
Eind april wordt het pas echt interessant, als AMD de ATI Radeon HD 4770 introduceert. De videokaart zorgt voor aardig wat opschudding, aangezien deze als eerste een gpu aan boord heeft die op 40nm is gebakken. Het nieuwe procedé zorgt voor een veel lager verbruik dan dat van bijvoorbeeld de HD 4850, terwijl de prestaties nagenoeg gelijk zijn. Het is een voorbode van wat komen gaat, want Nvidia’s GT212-GT218-gpu’s zouden nog steeds uit kunnen komen en AMD’s eigen nieuwe generatie zou ook op 40nm worden gebakken. Het mocht duidelijk zijn dat de HD 4770, met de RV740-gpu, een vingeroefening was voor AMD om het 40nm-proces onder de knie te krijgen. Dat was hard nodig ook, want tot op heden zou TSMC nog steeds problemen hebben met het 40nm-proces. De videokaart was overigens slechts mondjesmaat beschikbaar.
Dan is het alweer mei, maar voordat de eerste helft van 2009 er opzit, gaat het gerucht al dat Nvidia’s GT300-videokaarten niet meer in 2009, maar pas in 2010 op de markt komen. Het gerucht is afkomstig van The Inquirer, dat bekend staat als fervent Nvidia-hater. Het artikel lijkt echter redelijk beargumenteerd en vandaag de dag kunnen we concluderen dat het gerucht van destijds bewaarheid is geworden.
Omtrent AMD’s nieuwe generatie doen positievere geruchten de ronde: tijdens een interview met AMD zei Sasa Marinkovic, senior marketing manager EMEA bij AMD, in niet mis te verstane woorden dat er tijdens de kerst uit nieuwe videokaarten gekozen kon worden. Daarmee duidde de pr-man uiteraard op de RV870, een naam die incorrect bleek. De codenaam voor de huidige generatie, zo bleek later, luidde Evergreen. Tijdens de Computex, begin juni, liet AMD zelfs een werkende DirectX 11-gpu zien.
Voor de rest bleef het in de maanden juni en juli echter vrij stil. Nvidia introduceerde een aantal mobiele gpu’s die op 40nm worden geproduceerd en DirectX 10.1 ondersteunen; ondersteuning die bij Nvidia’s desktopkaarten tot op de dag van vandaag ontbreekt. Tevens werd een teken van leven vernomen van de GT216 en de GT218, die gebruikt zouden worden voor respectievelijk de GT210 en de GT220. De videokaarten stelden echter teleur ten opzichte van ATI’s videokaarten en vinden dan ook voornamelijk hun weg naar OEM-desktops. De high-end varianten, de GT 212, en de GT214, lijken een stille dood te zijn gestorven en de geruchten gaan dat Nvidia dat project in de ijskast heeft gezet en zich volledig richt op de GT300-architectuur.
ATI pakt uit, Nvidia blaft terug
In augustus vernemen we opnieuw positieve berichten over AMD’s Evergreen-gpu. De gpu wordt tijdens Quakecon gedemonstreerd, maar het blijft nog steeds gissen naar welke specificatie dan ook. Het duurt dan echter niet lang voordat er een uitnodiging van AMD op de mat valt: of we zin hebben om naar de perspresentatie van Evergreen in Londen te komen. Het evenement vindt plaats op 8 september, waar meteen de reviewsamples uitgedeeld worden. Het embargo verstrijkt pas op 23 september, maar de eerste resultaten en foto’s zijn dan al uitgelekt, tot groot ongenoegen van AMD, aangezien een van de grootste lekken zich op het Gathering of Tweakers-forum bevindt.
AMD legt de lat vrij hoog met de HD 5870 en de HD 5850, die gehakt maken van de GTX 285. De HD 5870 komt zelfs in de buurt van de GTX 295. De prijs van de HD 5870 is redelijk te noemen, en stukken lager dan die van de GTX 295, terwijl de laatste bovendien meer energie verbruikt en uiteraard geen DirectX 11 ondersteunt. Wat betreft energieverbruik wist AMD ook een flinke inhaalslag te maken, door het idle-verbruik terug te brengen naar minder dan 30W. Jammer genoeg laat de beschikbaarheid van de HD 5870 en de HD 5850 te wensen over. De productie van de 40nm-gpu's bij TSMC loopt blijkbaar niet zo voorspoedig als gewenst.
Nvidia start een heus pr-offensief, door onder andere op 1 oktober Fermi te introduceren. Fermi is de codenaam van de nieuwe architectuur, en niet GT300. Het pr-offensief mag helaas niet baten, want het ene na het andere gerucht duikt op dat Fermi pas in 2010 het levenslicht zal zien; een gerucht dat nu ook door Nvidia wordt bevestigd. Vreemd genoeg praat Nvidia vooral over de gpgpu-kant van zijn nieuwe architectuur, en blijven de game-prestaties volledig buiten beschouwing. Fermi zal voor het eerst opduiken in Nvidia’s Tesla-systemen en waarschijnlijk moet er tot begin 2010 gewacht worden op gameprestaties van de GT300-kaarten.
Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.
AMD lijkt tevreden met zijn resultaten, maar het noodlijdende bedrijf neemt er geen genoegen mee. Zo verschijnen de HD 5770 en de HD 5750 begin oktober: mainstream-varianten van de Evergreen-gpu, die redelijke prestaties bieden voor een schappelijke prijs. Maar AMD zit nog niet bepaald op rozen, want de plank lijkt enigszins misgeslagen te zijn: de HD 4870 en HD 4890 zijn voor eenzelfde prijs verkrijgbaar en vaak sneller. Het is voor de consument dan ook lastig kiezen: DirectX 11 en minder verbruik, of simpelweg hogere prestaties.
Halverwege november, een maand later dan AMD aanvankelijk had gehoopt, arriveert het klapstuk, de HD 5970. Twee van AMD’s snelste gpu’s in tandem op één pcb zorgen voor ongekende prestaties en de prestatiekroon wordt met beide handen teruggegrist van Nvidia. Nvidia probeert nog wat aandacht op de te eisen met de GT 240, waarvan de gpu op 40nm wordt gebakken. Meer dan een halfhartige poging is het echter niet, want de videokaart kan amper de strijd aan met kaarten van ATI die al meer dan een half jaar op de markt zijn.
Larrabee, to be or not be
In december is het relatief rustig, maar er komen wel enkele interessante verhalen bovendrijven. AMD en Nvidia kunnen namelijk even opgelucht ademhalen, nadat Intel bekend heeft gemaakt dat het bedrijf de eerste iteratie van zijn Larrabee-gpu’s heeft moeten schrappen. Het is al de zoveelste keer dat de chipgigant Larrabee uitstelt, waardoor Larrabee steeds vaker in één adem met de term vaporware wordt genoemd. Intel belooft echter dat er aan een tweede generatie Larrabee-gpu’s wordt gewerkt, terwijl de eerste generatie aan ontwikkelaars beschikbaar wordt gesteld.
Nog meer goed nieuws voor AMD dus, waarna er prompt verkoopcijfers onthuld worden van de DX11-gpu's: voor het einde van 2009 zouden er meer dan één miljoen DX11-gpu's verkocht worden. Eén miljoen is echter weinig indrukwekkend vergeleken met de minstens 20 miljoen videokaarten die in elk kwartaal van 2009 over de toonbank gingen.
December mag dan rustig lijken, het is slechts stilte voor de storm. Begin 2010 staat het begin van een ware revolutie op het programma: Intel gaat zijn cpu’s voorzien van gpu’s. Verder zou AMD tijdens de CES de allergoedkoopste Evergreen-varianten onthullen, terwijl iedereen met smart uitkijkt naar Nvidia’s presentatie, waar mogelijk de eerste tot de verbeelding sprekende prestaties van Fermi getoond worden.
Het jaar 2010 zou daarom weleens stukken interessanter kunnen worden dan elk jaar daarvoor. Zo moet blijken of Nvidia de goede weg in is geslagen met de Fermi-architectuur, die vooral veel vooruitgang op gpgpu-gebied lijkt te bieden. Het blijft nog maar de vraag wanneer en dan vooral in welke hoeveelheid Nvidia Geforce-kaarten uitbrengt die gestoeld zijn op de Fermi-architectuur. De prijs/prestatie-verhouding zal ongetwijfeld redelijk zijn, anders zullen alleen de allertrouwste Nvidia-aanhangers nog Geforce-kaarten kopen. Sterker nog, als Nvidia niet oppast, komt AMD nog in het tweede kwartaal van 2010 al met een refresh van Evergreen of introduceert AMD zelfs een geheel nieuwe architectuur in het derde kwartaal, met gpu's die op 32nm worden gebakken. En wie weet maakt Intel het sprookje wel af, met een mogelijke introductie van Larrabee eind 2010.
Als iemand uit zijn duim zuigt met de helft verzonnen argumenten dat Fermi niet uitkomt in 2009 en dan toevallig ook het juist heeft. Worden die argumenten geen waarheid en is die persoon gewoon een lucky bastard en een aandachtshoer.
Gelieve The Inq niet meer credit te geven dan ze verdienen aub >_>
[Reactie gewijzigd door BieBiepGTR op 28 december 2009 10:32]
Je bedoelt dat die berichten van Nvidia dat DX11 niet veel voorstelt geen geplande strategie was om het uistellen van hun eigen product een beetje in de schaduw te zetten.
Alles wees er op dat Nvidia een "paper launch" ging maken met een product wat lang niet klaar was.
Net zoals we the inq geen credit moeten geven voor de manier waarop ze aantoonden dat de nvidia gpu's in mac's behoorlijk slecht waren? Soms moet je je vooroordelen gewoon even opzij zetten en met een objectieve blik ergens naar kijken.
Ik heb zelf een gigantische hekel aan fudzilla, maar ook zij hebben soms ergens een klein brokje informatie waar je gewoon niet om heen kunt.
Er zijn twee belangrijke dingen in berichtgeving waar je een mening op baseert:
1) de informatie
2) de toon
Dat de toon van charlie, the inquirer en fudzilla totaal niet objectief en soms zelf zeikerig is, zegt helemaal niks over punt 1. Soms zeiken ze maar is de achterliggende informatie gewoon helemaal correct en belangrijk, dan worden ze vaak niet geloofd door fanboys vanwege punt 2. Dat is opzich jammer.
Hoeveel kritiek kreeg Charlie te verwerken toen hij durfde te beweren dat de Fermi-kaart bij de presentatie nep was? Achteraf was het eigenlijk een heel logisch en sterk beargumenteerd verhaal waar zelfs NVidia niet omheen kon en stonden de fanboys met de mond vol tanden.
Ik zeg niet dat je alles van Fud en Charlie etc. moet geloven, maar als ze het achteraf juist hebben, gooi het dan niet meteen op 'geluk' omdat je ze niet aardig vind.
Hoeveel kritiek kreeg Charlie te verwerken toen hij durfde te beweren dat de Fermi-kaart bij de presentatie nep was?
Sorry, maar nu wil ik echt even bronnen zien. Kenners wisten vanaf het begin dat de getoonde kaart een mockup was (bron 1 & bron 2. En ik twijfel of Charlie wel zelf achter die informatie is gekomen of dat hij het gewoon heeft overgenomen van mensen op het Beyond3D forum. Maar los van of het zijn nieuws was wil ik graag die storm van kritiek wel eens van je zien. Ja, Charlie heeft veel goede inside info, maar laten we even geen heilige martelaar die door de wereld voor gek verklaard wordt van hem maken, het is gewoon een slimme journalist met een hekel aan NVIDIA.
Eigenlijk heeft intel waarschijnlijk meer ervaring met allerhande GPU's dan gelijk welke fabrikant. Ze worden al jaren gemaakt om samen te werken met intel chips. Ook ontwikkeld intel zelf zijn chips voor op de moederborden. Intel wil in dit geval echter iets volledig nieuws proberen om zo een voordeel te verkrijgen boven nvidia en ati.
Op termijn zou Intel wel eens als grote winnaar uit de bus kunnen komen. Ze gaan volgend jaar al een grafiche core bundelen met hun CPU. Als deze snel genoeg is voor voornamelijk videobewerking waarom zouden de meeste mensen dan nog een losse GPU in hun computer duwen? Wanneer je wilt gaan gamen zal je alsnog niet anders kunnen maar van alle computers die jaarlijks worden verkocht worden naar mijn inzicht maar 10 - 15% gebruikt als game-pc. Het grote deel van de consumenten heeft dus genoeg met een standaard GPU waardoor intel vrij makkelijk schade kan toebrengen op de GPU-markt. En dat door eigenlijk niet actief te zijn in de markt van losse gpu-kaarten.
De IGP voor de Clarksfields zijn vergelijkbaar met de G45. Ze kunnen dus beeld op je scherm toveren en veel verder dan dat gaat het niet. Het is een aanval op de IGP markt( die ze al domineren ) die Nvidia er waarschijnlijk uit zal drukken, aangezien AMD ook bezig is met integratie van GPU met CPU. Die markt zal dus gesplitst worden tussen AMD en Intel ( het is een heel grote markt ). Je zal dus een Intel CPU + Intel Graphics kopen, of AMD+ AMD Graphics. De meeste huis-tuin en keuken PC's hebben hier genoeg aan maar workstations en Gamers bijvoorbeeld niet. Net zoals nu.
Er zal niet heel veel veranderen, Intel houdt dominantie over de low-end graphics markt; misschien kan AMD profiteren van de integratie door superieure IGP's te leveren. Nvidia zal uit de markt gedrukt worden en weet dit allang. De mid en high end markt blijft in handen van AMD en Nvidia en het is wachten op Larrabee.
De IGP voor de Clarksfields zijn vergelijkbaar met de G45. Ze kunnen dus beeld op je scherm toveren en veel verder dan dat gaat het niet.
Dat is niet helemaal correct. Ja, de IGP op Clarkdale is gebaseerd op G45, maar deze is op een aantal punten getweaked en er zijn meer processingcores toegevoegd. De grote bottlenecks zijn aangepakt en daarnaast biedt de IGP enkele nieuwe features die erg nuttig zijn vor het HTPC segment. Tel daarbij op de veel hogere kloksnelheid en je hebt in wezen een erg leuke budget VGA oplossing.
Maar wil je bijv. een wat luxere HTPC met een Linux distrootje á la XBMC of MythTV, dan heb je vaak ook nog de nodige 3D power nodig om de gebruikersinterface soepeltjes te laten lopen.
Van wat ik heb gehoord zijn de Clarksfields daar niet bepaald geweldig, daar waar een goedkopere nVidia Ion of AMD 780G wel goede prestaties haalt.
maar intel speelt het een beetje vuil, door VIA, nVidia, SiS en Ati buiten te kegelen als chipsetfabrikant (ze geven geen licenties meer), nemen ze hun eigen platform in handen
zolang ze het grootste marktaandeel hebben, hebben ze dus vrij spel
nu ze de IGP in de cpu hebben ingebouwd, is het zelf niet eens meer interessant om chipsets te maken: die worden alsmaar goedkoper en tevens zorgt intel er voor dat een oem enkel bij hen moet aankloppen
als intel nu nog een goede game-kaart kan bieden, kunnen ze een echt totaalpakket leveren voor oem's (ik denk dan vooral aan Apple en Dell als trouwste klanten)
op dat moment wordt het voor nVidia HEEL gevaarlijk en moet AMD z'n marktaandeel zoveel mogelijk op peil houden
Zolang die lekken niet van de beheerders van GoT komen, maar van forumleden, kunnen Marc&co er ook weinig aan doen, lijkt me. Ik heb geen officiele reviews gezien op T.net behalve verwijzingen naar andere sites en informatie van forumleden.
Aan de andere kant zijn er op game-kaarten wel hogere marges te halen, wat het kleinere marktaandeel deels compenseert natuurlijk.
Dacht je dat? GPUs zijn veel groter, gaan voor relatief lage prijzen over de toonbank, en waar Intel alleen de chip zelf hoeft te verkopen moet er bij de GPU nog geheugen, een custom PCB, koeler, assemblatie, marge voor de AIB partners allemaal bijgeteld worden. Die marge valt nog wel tegen hoor.
[Reactie gewijzigd door Snoitkever op 30 december 2009 16:17]
Die IGP's maken ze nu al, dus daar zal weinig (spannende) verandering zijn op de markt. Larrabee is echter bedoeld als high-end chip, en daarin kan intel totaal nog niet concurreren omdat ze gewoon minstens een generatie achterlopen op AMD en Nvidia qua prestaties. Dat ze ervaring hebben met IGP's voegt weinig toe, omdat je met high-end chips ineens veel en efficiënt prestaties uit je chip moet kunnen halen en als je de prestaties van intels IGP's ziet hebben ze dat de laatste jaren niet meer gedaan.
Ja, ze hebben veel geld en een grote R&D-afdeling dus als ze de high-end GPU-markt op willen dan lukt ze dat wel. Maar ze hebben nog veel in te halen en Ati en NVidia zijn gewoon ijzersterk op dat gebied dus dat zal nog wel even duren.
ik gok dat ze no ver zullen zijn heel ver, nvidia en ati zijn al veel langer bezig met gpu's intel kan niet alles overheersen, wel zullen veel mobo's nu een onboard versie van deze krijen... gok ik dan.
Daarentegen zwemt Intel in het geld en kan zich dus veroorloven om gigantisch veel mensen op de ontwikkeling te zetten. Ik ben het wel met je eens dat het sowieso niet de eerste generatie gaat worden die een revolutie teweeg brengt.
Dan hebben de meeste bedrijven wel een concurrentie beding clausule in hun contracten opgenomen.
Leuk dat je dan overgenomen bent door intel maar als jij dan de komende 2 jaar niks met je kennis mag doen heeft intel er ook weinig aan. Worden ze meteen aangeklaagd.
[Reactie gewijzigd door HolleBolleTeun op 28 december 2009 15:53]
De kans is echter ook heel groot dat Larrabee, uiteraard met de dan door de marketingmensen gekozen naam, breeduit geadverteerd gaat worden als de ultieme game-ervaring en bovendien uiterst noodzakelijk voor de bedrijfsvoering, ongeacht of de prestaties zich kunnen meten met ATI en nVidia's kaarten of juist helemaal niet.
Aangezien de meerderheid van de consumenten zich vooral door reclame laten leiden (en decision-makers vaak ook voor de hen bekendere naam gaan) wordt het dus toch een gigantisch verkoopsucces.
Voor mij hoeft het niet, Larrabee. Mijn volgende GPU wordt zowiezo een nVidia of ATI (R600/R700/...) omdat die het beste ondersteund worden in FOS operating systems, (zeker met de nieuwste kernel-versie van Linux).
larrabee is veel te lang in ontwikkeling. de lifecycles van GPU's zijn véél korter dan die van CPU's en daar heeft Intel zich zwaar op verkeken. Ze gingen uit van de toekomstige generatie van de concurrenten, maar die denken altijd al 2 stappen vooruit.
Daarenboven is een GPU-design tegenwoordig ook een pak coplexer dan een CPU-design, waardoor Intel al met een gigantische vernieuwing moet komen om mee op de high-end markt te springen, die gedomineerd wordt door de moordende concurrentie en innovatie tussen AMD en Nvidia.
Dezelfde prestatie als op de SSD-markt zullen ze niet kunnen herhalen. Daar waar deze markt amper bestond en op geïnnoveerd was, is de GPU-markt al veel volwassener.
Ik vraag me vooral af waarom Nvidia gekozen heeft om Physx af te sluiten in plaats van juist samen te laten werken met ATi kaarten.
Je zou denken dat ze op die manier juist kaarten als de 9800GT lekker kunnen laten meeliften met het succes van de dx11 kaartjes.
Aan de andere kant hebben ze misschien geen antwoord op het ultieme gamer speeltje dat Eyefinity heet en tegelijk geweldig is voor het bedrijfsleven. Misschien dat ze daarom physx hebben afgesloten van samenwerken met ATi (hoewel het telkens opnieuw zal worden gehackt) en zich zo richten op gpgpu/cuda structuren.
Het zou mij weinig verbazen dat PhysX het komende jaar verder doodbloedt. Dat doet het nu eigenlijk al, er zijn een paar games die het gebruiken, maar zelfs in die games voegt het eigenlijk niks toe, alleen wat eye-candy.
DX11 heeft echter een open variant hierop aan boord, die op alle DX11 kaarten werkt. Dan heb je dus een physics API die zowel open is, dus geen licentiekosten om dat nVidia PhysX logootje te mogen gebruiken, en die op alle compatibele kaarten, onafhankelijk van de chip, draait. Het enige nadeel is dan nog dat PhysX al langer op de markt is, maar eerlijk gezegd denk ik dat dat maar een klein obstakel is, omdat veel studio's daar überhaupt nog niks mee hebben gedaan.
Dit is sinds het begin van het hele PhysX verhaal ten tijde van Ageia al zo.
Kijk hoeveel ontwikkelaars met een Unreal Engine 3 licentie geen of nauwelijks gebruik maken van de gratis reeds geintegreerde PhysX middleware.
De meesten gebruiken Havok, Bullet, Open Dynamics Engine of andere alternatieven omdat deze multiplatform (dwz niet exclusief voor nVidia hardware) zijn.
De developer markt prefereerd een standaard. 'n Middleware dat geen hardware doelgroep van je target audience discrimineerd.
DX11 en OpenCL zijn hardware merk onafhankelijje alternatieven voor CUDA.
Niet PhysX. De tegenhanger daarvan is Havok. Havok discrimineerd GPU omdat het beheerd wordt door iNtel. We hadden dan al lang HavokFX gehad. De reden dat nV ageia overnam.
DX11 en OpenCL brengt niks in tegen PhysX en Havok.
'n derde middleware Physics bakker moet even flink Dev markt aandeel winnen en dan OpenCL of DX11_CS omarmen. Zodat default Physics load meteen flinke stap hoger kan. ipv een CPU nood loop. Gericht op Mainstream CPU target.
Dus voor Middleware bakkers is DX11CS en openCL interresant en elke dev die zelf hun Physics module ontwikkeld. Maar dat zijn uitzonderingen. De rest van de Dev's benutten middleware Havok en PhysX en Bullit etc.
Dus PhysX kan nog even vooruit sukkelen. En krijgen we bij vlagen een beetje of soms een shitload aan effect physics bij sommige TWIMTBP games.
Met open standaarden en GPU's van verschillende merken die samen kunnen werken, maak je overstappen gemakkelijker. Heb je immers een GPU van merk X, dan kun je er zomaar een GPU van merk Y bij zetten. En aangezien NVidia een groter marktaandeel heeft/had in high-end GPU markt zagen ze liever zo min mogelijk mensen overstappen.
NVidia-kaarten kunnen anders niet alleen meeliften met Ati-kaarten, maar ook andersom. Toen ze Physx gesloten hielden konden ze ook nog niet weten dat Ati sterker zou worden.
Bij mijn weten toen nV nog voor liep waren ze wel berijd om ATI te ondersteunen.
Maar dan vanwege dit.
iNtel -> Havok.- > CPU vs nV -> PhysX -> GPGPU.
Dus de CPU strijd van iNtel (AMD) vs GPGPU nV (AmdTI)
AMD hangt er tussen in. Dus AMD GPU en CPU denk whatever.
Voor nV geld kleinevijand van grote vijand is mijn vriend.
iNtel is big enemy. AMD underdog.
Tja dan pakt AMD op GPGPU goed uit. kleine Vijand van grote vijand zijn vijanden maar kleine vijand slaat hard naar nV die in dippie zit.
Will nV met PhysX GPGPU zwaar pushen tegen CPU dan hebben ze ATI(AMD) nodig.
Maar dat zal dan ten koste gaan van je slag positie in de GPU strijd. want je geeft AMD dan PhysX kado. Als je GPU core busness in ramp spoed zit dan dus niet je directe rivaal nog sterker maken.
Terwijl big rivaal even met LRB zit te modderen. Heeft nV AMD GPU rivaal eerst op de korrel.
Zal de echte verschuiving op GPU gebied niet komen met raytracing, ik zag in het nvidia filmpje al dat er reeds zaken voor opgenomen zijn in de architectuur. De hele multicore ontwikkeling maakt dit nu eindelijk mogelijk. Volgens mij zijn nvidia en amd al flink bezig om hier een architectuur voor te ontwikkelen.
Voor fabrikanten ideaal omdat ze dan eindelijk met een geldige reden weer hardware kunnen verkopen.
precies. Maar ja opzich is het wachten op de Fermi nog best de moeite waard.
Ook al is de oplage in het begin misschien wel heel erg beroerd of is hij zelfs belachelijk duur.
zoals we weten heeft die GPU een gigantische diesize. Het is absoluut de grootste. Of die nu sneller of beter is maakt denk ik de fans niet veel uit. Ze kunnen in ieder geval altijd nog zeggen de MIjne is groter dan die van jou
Maarja grote maakt niet altijd uit natuurlijk. Maar raytracing is inderdaad waa het naartoe gaat. Op papier lijkt de technologie van fermi op dat gebied vrij belovend. Maar AMD doet het daarop ook zeker niet slecht. Ik zou het wel mooi vinden om een radeon 5890 te zien. 1+GHZ kloks moeten goed mogelijk zijn denk ik. Het was ze ook gelukt met de 4890.
Echter, ik mis eigenlijk (hoewel slechts voor een kleinere groep gebruikers relevant) de ontwikkelingen op gebied van Linux support (waar NVIDIA vrijwel heer en meester is door hun in 2009 geperfectioneerde en main stream geworden VDPAU acceleratie). Terwijl op dat gebied AMD/ATI echt nog steeds de plank behoorlijk mis slaat.
Niet zo'n probleem natuurlijk: Gamers zullen dus sneller geneigd zijn ATI te kopen (wat toch onder Windows draait) en mediacenter-/linuxfans NVIDIA
Klein vraagje tussen door waarom moet je met alle geweld Linux gebruiken voor een mediacenter? Ik heb nu bijna een jaar geleden een systeempje inelkaar gezet welke nu op Windows 7 + Media Portal draait. Kwa hardware was ik bijna 200 euro duurder uit als ik voor een Nvidia/Intel opslossing zou gaan, nu gebruik ik ATi/AMD wat perfect werkt. Volgens mij is er op dit gebied nog niet echt veel veranderd, maar oke ieders zijn voorkeur ik kan nu eenmaal meer met windows dan met Linux.
[Reactie gewijzigd door _Dune_ op 28 december 2009 11:44]
Voor linux heb je toch geen intel nodig? Het enige verschil is de GPU, misschien dat een mainstream NVidia zo'n 10-20 euro meer kost dan een AMD-kaartje van vergelijkbare prestaties dus dat valt best mee.
Met een media center ga je ook geen losse kaart gebruiken (veel te veel energie verslindend), maar een GPU of IGP op het moederbord zelf, deze zijn namelijk prim instaat HD content af te spelen. Als je dan Nvidia neemt, zit je tegenwoordig veelal aan een Intel CPU vast.
Ik heb onlangs een Asus M4N78 PRO mobo gekocht, specifiek omdat dit bord AMD cpu's ondersteunt en een nVidia onboard video kaart heeft (GF8300). Deze graka bied hardware acceleratie voor HD video weergave. Aangezien ik geen windows gebruik is zo'n oplossing het goedkoopst voor een media centre.
Die was er nog niet toen ik mijn spullen kocht. Maar inderdaad is ik had ook een moederbord met 8200 chipset kunnen nemen, de voorganger van de 8300, maar deze had een nadeel tegenover de 780G van AMD/ATi. (ik weet zo niet precies wat)
En qua software was je hoeveel kwijt? Kom je uiteindelijke toch op een gelijk bedrag uit, met zwakkere hardware. Bovendien, je kan ook gewoon een amd proc + low budget nvdia kaartje erin prikken, kost je misschien 2 tientjes extra tov igp.
Er is wel iets veranderd trouwens wat betreft linux en Ati. De blobs missen nog video ondersteuning, maar zijn qua stabiliteit, features en performance behoorlijk vooruit gegaan. Het meest belangrijke voor linux is echter dat de hardware specs open zijn gegooit en de open source 3d driver nu echt vooruitgang aan het maken is. Misschien wordt 2010 wel het jaar van open source ATI 3D. Kan je van nvidia niet zeggen, die blijft dan de enige gpu bakker van betekenis waar alles gesloten is.
1. Het start sneller op (ik wil niet een pc 24/7 aan laten staan)
2. Ik media portal een draak vind zo traag en toch geen TV gebruik
3. XBMC, zeker vanwege m'n non-behoefte aan TV de perfecte mediacenter software is (in mijn ogen dan he ) en dat onder Linux nou eenmaal beter draait.
Toen ik het artikel op the inquierer las, kwam dat inderdaad erg solide over. Alle problemen die aangekaart werden kwamen al voor bij de toenmalige nVidia chips.
Door het vele uitstellen en alleen maar opnieuw uitbrengen van kaarten met een oude architectuur. (Artikel noemt het niet, maar jezus hoe vaak is er een 8800GT respin uitgekomen de afgelopen twee jaar?). Lijkt het er echt op dat het 'upgraden' van deze architectuur niet gelukt is.
Het artikel voorspelde een complete redesign, en als je ziet hoelang het al duurt, (bijna een jaar) voordat er echt iets nieuws uit komt, lijkt het grotendeels waar te zijn. Ik ben heel benieuwd of dit goed gaat. Het zou net als bij Intel's C2Ds een hele verbetering kunnen, en weer jaren rek geven voor nVidia, en AMD terug duwen. Maar het kan ook zijn dat de nieuwe generatie nog ontzettend getuned en uitgewerkt moet worden en dat de eerste misschien maar net in de buurt komt bij de vorige generatie AMDs.
Ik ben iig heel erg benieuwd. AMD heeft nu zulke mooie videokaarten met strakke prijzen, ik hoop dat nVidia de druk weer op kan voeren zodat AMD genoodzaakt is om die prijzen en kaartjes zo te houden! En meer gpu power is nooit weg, er is altijd wel iets dat mooier kan .
Hoe meer de drie (of twee) kampen elkaar af proberen te troeven, hoe beter het is voor de consument.
Alleen zijn die grappen van Nvidia met 'mijn merk alleen'-acties zoals PhysX en het schrappen van DirectX 10.1 uit Assassin's Creed 1 minder leuk.
Ook jammer vind ik (dat zie je al aan de promotiefilmpjes) is dat Nvidia steeds meer GPGPU-producten, officieel deel van de DX11-standaard (, uit gaat brengen voor het bedrijfsleven, zoals Tesla en Fermi. Waar zijn wij gamers dan?
De hordes mensen met 8800-kaarten zullen waarschijnlijk niet al te veel moeite hebben om hun portemonee te trekken voor een leuke HD5770 of een HD5850.
...uit gaat brengen voor het bedrijfsleven, zoals Tesla en Fermi. Waar zijn wij gamers dan?
Over het algemeen proviteer je juist van het bedrijfs leven. Daar is nou eenmaal meer geld te verdienen. Daardoor zijn de ontwikkelingskosten sneller terugverdiend en kun je als 'gamer' eerder genieten van betaalbaar high-end spul.
Hangt natuurlijk erg van de markt af of er in het bedrijfsleven meer te verdienen valt dan bij consumenten. Voor high-end GPU's lijkt dat mij duidelijk niet het geval, ook al zijn de GPU's nu geschikt voor supercomputer toepassingen, daar heeft de gemiddelde kantoorgebruiker geen boodschap aan.
Ik ben in alle eerlijkheid een ATi Fan-boy, zonder twijfel, 9700, HD3870(Inclusief Crossfire), HD4870(Wederom Crossfire), en hopelijk binnenkort HD5970... maar ik moet wel zeggen, ik kan me echt niet voorstellen dat een chispet gigant als nVidia zich zo slecht kan vertegenwoordigen.
Noem mij maar paranoïde, maar volgens mij laat nVIdia de concurrentie zich in de kaart kijken.
Daarintegen, de Geforce en Quadro kaarten zijn helaas berucht voor hoge kosten, vergeleken met AMD/ATi radeons.
2010 belooft verlichtend te worden, ik wacht met spanning of.
De planning en ontwikkeling voor GT200 en fermi zijn al een hele tijd geleden gemaakt, nog in de tijd dat ze met gemak de performancekroon hielden met de G80. Ze hadden die grote, dure chips dan ook ontworpen met in het achterhoofd dat Ati daar qua prestaties toch niet bij kon en dat ze met gemak veel geld konden vragen voor de snelste GPU's op de markt. Toen bleek dat Ati erg hard terugsloeg (nu al twee keer), konden ze daar niks meer aan doen. Tenminste, niet meer voor fermi want die was al lang in ontwerp. Misschien dat ze na fermi een andere koers gaan varen.
Ik geloof persoonlijk niet dat men zover terug in de tijd moet om bij de teken tafel te komen van de GT200 en Fermi familie. De ontwikkeling gaat tegenwoordig harder, dus is er ook minder tijd om iets op poten te zetten.
AMD had de RV670 niet gepland, omdat de R600 destijds goed had moeten zijn. Toch stond er binnen een half jaar een HD3800 serie in de schappen, MET dx10.1.
Neej geef ze een jaar en een maandje of 3 om een nieuwe generatie uit te denken, dan kom je denk ik beter in de buurt.
De nieuwe trucjes zullen inderdaad wel eerder klaar liggen, maar het ontwerp van de chip is nog lang niet vast en worden vast nog hier en daar gewijzigd voor en tijdens de eerste chipjes.
hd3800 was toch ook niet zo goed(herrinner ik mij)? dx10.1 is wel een verandering maar geen grote, maar een complete chip duurt echt wel lang, ik had een poos geleden een stuk bij anandtech gelezen over het ontwerpen van de chip in de 4800 series, en die is 3 jaar voordat de chip uitkwam begonnen, dus het duurt nog steeds wel 3 jaar hoor...
Leuk artikel om te lezen. En erg netjes van ATI om toch te laten zien dat ze nog steeds snelle/goedkope kaarten kunnen bouwen. (285GTX here, maar geen fanboy)
Aan de andere kant wordt er veel meer winst gemaakt op high-end kaarten. Neem bijvoorbeeld de HD5870. De chip is dubbel zo groot als die van de HD5770, ook een groter PCB maar bijvoorbeeld niet meer geheugen. Al met al dus minder dan dubbel zo veel onderdelen, en waarschijnlijk ook niet meer dan dubbel zoveel kosten om te maken. Stel dat een HD5770 100 euro kost om te maken en een HD5870 200 euro (puur uit de lucht gegrepen getallen), dan wordt er iets van 20 euro winst gemaakt op de HD5770 en 100 euro op de HD5870.
Zie ook de GTX280 toen die net gelaunched was. Die kost nu nog geen 300 meer (al is die in winkels niet meer verkrijgbaar) maar werd eerst voor het dubbele verkocht, dus dat is een dikke vette 300,- extra winst voor elk verkocht kaartje!
GloFo in Dresden is geloof ik ook al (bijna) over op 28 nm, nu zijn ze in Saratoga County, NY ook bezig met een 28 nm fab die snel over kan gaan in 22 nm.
Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.
Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.
Functioneel en analytisch
Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie.
Meer details
janee
Relevantere advertenties
Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht.
Meer details
Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.
Ingesloten content van derden
Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden.
Meer details