Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 122 reacties

Nvidia heeft zijn nieuwe gpu-architectuur 'Fermi' gepresenteerd. De fabrikant spreekt zelf van de grootste stap voorwaarts sinds de G80. De focus ligt bij Fermi op Cuda en de architectuur lijkt vooral gericht op gebruik in supercomputers.

Fermi Tesla-kaartDe verwachting was dat Fermi het antwoord zou worden op AMD's ATI Radeon HD 5000-introductie, maar het enige wat Nvidia met betrekking tot gaming liet weten was dat de architectuur DirectX 11 ondersteunt en dat de videokaart op basis van Fermi sneller zal worden dan de HD 5870. De presentatie van Nvidia concentreerde zich dan ook op de betekenis van de Fermi-architectuur voor de Tesla-kaarten die in supercomputers gebruikt kunnen worden.

Fermi wordt op hetzelfde 40nm-procedé van TSMC als de RV870 van AMD's 58xx-serie videokaarten gebouwd. De chip krijgt echter 3 miljard transistors, waar de RV870-gpu van AMD 2,15 miljard transistors heeft en de huidige GT200-chip van Nvidia het met 1,4 miljard schakelingen moet doen. Er zijn 512 cores, die Nvidia 'Cuda Cores' noemt, die gegroepeerd zijn in blokken van 32. Elk blok van 32 cores beschikt over 64KB geheugen, dat als gedeeld geheugen of L1 cache geconfigureerd kan worden.

De hoeveelheid L2 cache-geheugen is een tussen de blokken gedeelde 768KB, waarmee de totale hoeveelheid geheugen van de Fermi-chip op 256KB tot 768KB L1-cache en 768KB L2-cache komt. De gpu kan via zijn 384bit-geheugenbus maximaal 6GB gddr5-geheugen aanspreken. De GT200 had een 512bit-geheugeninterface en werd met gddr3 uitgerust. Volgens AnandTech zou de die-size van Fermi, gezien het aantal transistors en het productieprocedé, op 467 vierkante millimeter uit kunnen komen. Wanneer de chips in het eerste kwartaal van 2010 verschijnen, zal de definitieve die-grootte duidelijk worden.

De Fermi-chip zal wat de consumentenmarkt betreft in het hogere prijssegment als desktopkaart ingezet worden, met afgeleiden die de mainstreammarkt moeten bedienen. Dit is de strategie die Nvidia ook in het verleden hanteerde. Primair moet Fermi echter als gpgpu dienst doen: Tesla-kaarten met de chip kunnen via in C++ geschreven programma's aangestuurd worden en bieden verbeterde ondersteuning voor Visual Studio. Bovendien biedt Fermi als eerste videokaart-architectuur ondersteuning voor ecc-geheugen in de registers, L1 en L2-caches en het dram, wat de data-integriteit van hpc-toepassingen moet verbeteren.

Nvidia zegt vooral van het mobiele platform Tegra en supercomputerplatform Tesla afhankelijk te zijn wat de groei in 2010 betreft: met name Tesla moet een exponentiele groei door gaan maken die door Fermi mogelijk gemaakt zou worden. Dubbele groeipercentages zouden overigens niet bijzonder lastig realiseerbaar moeten zijn: Tesla zorgde afgelopen kwartaal voor een omzet van slechts tien miljoen dollar.

 GPUG80
GT200
Fermi
Transistors 681 miljoen
1,4 miljard
3 miljard
Cuda Cores
128
240
512
Double precision fp
-
30 fma ops/clock
256 fma ops/clock
Single precision fp
128 mad ops/clock
240 mad ops/clock 512 fma ops/clock
Warp schedulers/ sm
1
1
2
Special Function Units/ sm
2
2
4
Shared memory/ sm
16KB
16KB
48KB of 16KB (in te stellen)
L1 cache
-
-
48KB of 16KB (in te stellen)
L2 cache
-
-
768KB
ECC-ondersteuning Nee
Nee
Ja
Gelijktijdige kernels
Nee
Nee
Maximaal 16
Fermi-architectuur

Gerelateerde content

Alle gerelateerde content (33)
Moderatie-faq Wijzig weergave

Reacties (122)

Nou, laat de aankondiging van de RV890 maar komen ;), hebben we dat ook weer achter de rug ;).

gpGPU is leuk, maar voor de gamers boeit dat natuurlijk niet. Het zal mij benieuwen hoeveel sneller dat hij is. Hij is een stuk groter qua oppervlakte, dat geeft nvidia een slechtere concurrentie positie(Groter=duurder. Meer kans op fouten, meer verlies bij de randen, minder uit een wafer) De laatste geruchten die ik las, was dat ie geen hardware tesselator heeft, dat moet dus ook via de shader processors. Ben benieuwd wat voor effect dat wel niet heeft op de performance. (http://gathering.tweakers...message/32665814#32665814)
Nvidia zegt vooral van het mobiele platform Tegra en supercomputerplatform Tesla afhankelijk te zijn wat de groei in 2010 betreft
Nvidia laat de gamers zitten lijkt het wel. Ook nauwelijks informatie over hoeveel sneller ie is. (De geruchten gaan 20% tenopzichte van de HD5780: http://gathering.tweakers...message/32660054#32660054)

[Reactie gewijzigd door Reinman op 1 oktober 2009 15:14]

Helemaal mee eens. Ik vraag mezelf af waar nVidia nu mee bezig is, er komt bij mij ook een gezegde in het hoofd met een schoenmaker en een leest.

Op zich vindt ik het wel prachtig dat ze verder kijken met de mogelijkheden op een GPU. Maar zoals we zagen met de GT200 architectuur had dit pijnlijke gevolgen. Als gamerskaart was hij niet concurrerend bij het beoogde prijspunt. Ze menen deze vergissing geen tweede keer te maken doordat ATi nu niet echt verassend is. Voor ATi lijkt er mijns inziens nog geen vuiltje aan de lucht. Zij bakken goedkope kaarten voor n doelgroep, welke tevens de groep is die het meeste geld in het laatje brengt. Voor nVidia blijft het een gok die ze nemen.

Een artikel op Anandtech bracht echter wel een andere kant naar voren, samengevat:
Nu de GPU's van ATi (en aankomend van nVidia) zo krachtig zijn dat ze met gemak de laatste games renderen op een resolutie van 1920*1200 en hoger, moet er gezocht worden naar de volgende markt. Waar we eerste de drijfveer hadden van de alsmaar groter worden de monitors is deze stimulans voor meer GPU kracht tot een halt gekomen. Daarnaast blijven games hangen in het X360/PS3 tijdperk qua grafische intensiteit, dus ook daar is al die extra kracht niet voor nodig. Dus waarmee dan wel de wedloop winnen?

Een interessante gedachtegang :)
Nvidia is al aardig lang bezig met GPGPU en is ook het verst gevorderd erin.
De voordelen voor de consument zijn zeer groot, een HD film omrekenen in een fractie van de tijd dmv. CUDA is zeer nuttig. Steeds meer camera's (en mobieltjes) hebben video-opname mogelijkheid en steeds meer doen dat in HD.
een HD film omrekenen in een fractie van de tijd dmv. CUDA is zeer nuttig
Heb je toevallig een linkje? Voor zover ik weet wordt CUDA op grote schaal gebruikt door bepaalde programmeurs (= niet interessant voor 99,9% van de consumenten dus). Welke HD-ondersteuning biedt CUDA dan die kaarten zonder CUDA niet bieden (en hoe merkbaar is dat)?
Zijn zo veel transcoders die de GPU gebruiken hoor, doe eens wat moeite en google ze zelf eens anders...

http://www.google.nl/#hl=...trans&fp=1283994b02f42a7e
Ja, transcoders die de GPU gebruiken kan ik ook wel vinden. De vraag is echter welke voordelen biedt t.o.v. kaarten znder CUDA. En of het ook inderdaad zo is dat CUDA onmisbaar is voor HD-materiaal of dat een Ati-GPU daar ook gewoon mee uit de voeten kan. Dat Badaboom gebruik maakt van CUDA is leuk maar als iets vergelijkbaars ook zonder CUDA kan heb je er natuurlijk niet veel aan.
doe eens wat moeite en lees mijn vraag nog eens want dat google-resultaat geeft daar in geen enkele mate antwoord op :)

[Reactie gewijzigd door bwerg op 1 oktober 2009 17:31]

Nouja transcoden gaat gewoon veel sneller en je kan op een pc met een veel minder zware CPU nog steeds vloeiend HD video afspelen, lijkt me toch een groot voordeel ten opzichte van kaarten die dat niet ondersteunen ;)
Ik wil niet vervelend zijn hoor, maar wie heeft tegenwoordig geen pc met cpu die krachtig genoeg is voor HD video. Zelfs de meeste budget systemen kunnen het vloeiend afspelen, bovendien is een cpu upgrade (eventueel met nieuw mobo) goedkoper dan een (fatsoenlijke) nvidia Graka.
mwah, integrated graphics kunnen veelal geen hd streams afspelen vanwege te weinig bandbreedte... Verder is het wel relax om niet op 100% cpu te hoeven draaien, maar op 2.5, omdat je gpu alles overneemt.
ATI heeft zijn eigen transcoder, en ik denk dat er vanzelf dx11 of openCL transcoders komen die werken op GPU's van beide fabrikanten.

cuda is gedoemd om uit te sterven zodra openCL van de grond komt, en daarmee is nvidia's 'voorsprong' ongedaan gemaakt.
google even op badaboom
Een nieuwe ontwikkeling is bijvoorbeeld het kunnen aansturen van 2+ monitoren.
nieuws: ATI Eyefinity kan zes beeldschermen aansturen met n videokaart
Hierbij hebben we dan wel weer veel meer GPU performance nodig.
De grafische kracht is helemaal nog niet klaar. 'T wordt nog jaren wachten voor we realtime volledig games gaan ray tracen. Tegen we dat voor elkaar hebben komt er zeker en vast iets nieuw om het mooier te maken en vooral om ons terug te laten kopen.
Zolang omzet van verkoop groter blijft dan de kosten om iets te ontwikkelen, zullen we nieuwe ontwikkelingen krijgen.
Ik vraag mezelf af waar nVidia nu mee bezig is, er komt bij mij ook een gezegde in het hoofd met een schoenmaker en een leest.
Iedereen praat over Fermi alsof het niet een monster is. Het heeft meer dan 2 keer de hoeveelheid cores van G200! Waarom zou het niet een monster 3D kaart worden? Omdat hij toevallig ook dual precision berekeningen kan? Het is niet alsof dat DirectX langzamer maakt. Als Fermi dezelfde clocks aan kan als G200 zie ik geen enkele reden waarom hij niet 1,5 tot 2 keer zo snel zou kunnen zijn. Uiteraard is dat moeilijk te zeggen zolang we niet meer info hebben over de grafische mogelijkheden van de chip, maar qua rauwe rekenkracht is het in ieder geval een monster, en ik denk niet dat NVIDIA zo dom is om zichzelf te handicappen door dan op TMU, ROP of iets dergelijks te korten.
"gpgpu is leuk, maar voor gamers boeit dat natuurlijk niet."

Waarom niet? Als games daar gebruik van maken is het prachtig.
Ja, als. Dat gebeurt dus nauwelijks, dus dat is verspilde ruimte. Ruimte wat ze hadden kunnen gebruiken voor meer game performance. Bekijk het zoals de 30 dp shader processors van de GT200. Daar heb je dus geen klap aan bij het gamen.
Kortzichtig standpunt... Met alle stappen die er gezet worden in de API's om al die rekenkracht in de GPU's te benutten (denk aan OpenCL) kan je wel voorspellen dat veel game-gerelateerd niet-grafisch rekenwerk steeds meer naar de GPU verplaatst. Denk alleen al aan physics, procedural textures, maar misschien zelfs AI en wie weet wat nog meer. Geen CPU die dat kan beconcurreren, dus of het gaat naar de GPU, of de mogelijkheden van games die er iets mee zouden kunnen blijven beperkt.

Wat betreft de 'ruimte die ze hadden kunnen gebruiken voor game performance': zo simpel werkt het niet. De performance van moderne GPU's is wordt tegenwoordig vrijwel helemaal bepaald door de fillrate (shader performance), die kan je hoger maken door nog meer shader units toe te voegen (of de kloksnelheid of het geheugen te versnellen), maar op het gegeven moment heeft dat weinig zin meer als je niet ook op steeds hogere resoluties gaat renderen. Dat levert boven een bepaalde grens niets meer op aan beeldkwaliteit, dus dan zit je met al je shader units. Rara wat je er dan allemaal nog meer mee kan doen...

[Reactie gewijzigd door johnbetonschaar op 1 oktober 2009 16:09]

Waar blijft het dan? Reken maar dat het nog gaat duren en ja het kan nog van je performance af gaan ook nog!
http://www.anandtech.com/video/showdoc.aspx?i=3650&p=2

Dat games niet meer genoeg zijn ben ik het niet met je eens. Zelfs op de normalere resoluties zou je toch graag wat meer willen. Zoals je ziet is er nog genoeg ruimte voor meer kracht. Dat gaat in de toekomst alleen maar toe nemen.
http://www.pcgameshardwar...-Radeon-HD-5850/Practice/

Daarbij komt het punt, je moet je shaders toch wat laten doen? Wat nu als zoals de GT200 je shaders hebt die dus niets staan te doen omdat ze speciaal zijn voor gpGPU en je game, als vele games, dat niet gebruiken? Dat is zonde ruimte. Daar zie je dat ATI het eigenlijk een stuk beter heeft aangepakt. Daarvan kunnen de shaders, die je normaal voor gamen gebruikt, ook DP doen. 1 SPU kan een DP bewerking doen. Hierdoor heeft de RV770 en ook de RV780 serie zon hoge DP flops. Het gaat mij vooral om het verspillen van ruimte voor alleen gpGPU werk.

[Reactie gewijzigd door Reinman op 1 oktober 2009 16:09]

Ik vraag me echt af waarom jij zo negatief bent over GPGPU en waar je dat op baseert, technieken zoals CUDA zijn pas 2.5 jaar oud en worden al voor weet ik veel hoeveel toepassingen gebruikt. Video transcoding, video playback, physics, en hele bergen aan wetenschappelijke rekentaken. Nu is er ook een open standaard die door alle grote GPU fabrikanten wordt gesteund waardoor het NOG aantrekkelijker wordt om NOG meer rekenwerk naar de GPU te verplaatsen en nu komt tweaker Reinman hier in 20 reacties roepen dat het allemaal maar onzin is (en wordt nog telkens omhoog gemod ook) :?

Ik snap het niet, er valt veel mee te winnen, de techniek ontwikkelt zich razendsnel, het heeft zich al in de praktijk bewezen, en de mogelijkheden worden steeds makkelijker om te benutten. Wat wil je nou, voortuitgang, of per se gelijk krijgen dat GPGPU inderdaad maar een speeltje van onderzoekers is?

[Reactie gewijzigd door johnbetonschaar op 1 oktober 2009 16:30]

Ik ben niet negatief over gpGPU, hell ik programmeer (nu een maand) cuda. Ik zie ook wat er gebeurd en wat er niet gebeurd. Ik merk ook wat de beperkingen zijn. Zo maar alles maar ff paralleliseren is niet zo makkelijk. Als het zo makkelijk zou zijn geweest, dan was het aantal programma's dat goed gebruik maakt van multicore cpu's ook gigantisch geweest. Helaas is dat niet het geval. Het is geen heilige graal die alles zo in eens op lost. Al die taken die je noemt, hebben NIETS met gaming te maken.

2,5 jaar in computerland is ongelofelijk lang! Dat zie je ook al, hoeveel series we inminddels al verder zijn. Om het te vergelijken met dual core CPU's. Die zijn er ook al heel erg lang, maar pas de laatste jaar begint het echt bijna noodzakelijk te worden om dat ook te hebben. Nu beginnen langzaam aan steeds meer programma's er iets mee te doen.

Ik roep nergens dat gpGPU onzin is. Ik zeg alleen dat het voor games niet interessant is om stukken te hebben die niets doen. Dat is zonde, je core word er groot en duur van, terwijl je die ruimte kan gebruiken voor gaming performance.

Ik hoef geen gelijk, ik heb alleen een punt: gpGPU is leuk, maar niet interessant voor gamers. Hey wacht, dat heb i kdus al gezegt. Ik zeg dus ook dat gpGPU interressant is. Wat ik dan verder vind is dat dit niet tenkoste moet gaan van je performance voor gamen en als bedrijf zijnde niet voor de grote en dus prijs van de core.


Na 4x het zelfde in een ander jasje te hebben gezet hoop ik dat het duidelijk is.

[Reactie gewijzigd door Reinman op 1 oktober 2009 16:46]

Let's agree to disagree dan, want ik denk dat je de komende jaren meer van GPGPU mag verwachten in games dan van wat voor andere vooruitgang dan ook. Te paralleliseren problemen zijn er voldoende in games, alleen was er tot voor kort geen makkelijke manier om GPU's hiervoor te benutten, en bovendien is het nog niet zo heel lang dat GPU's zo bizar veel power hebben dat je makkelijk een kwart van je stream processors apart kan zetten voor andere dingen dan pixel pushing.
@ johnbetonschaar :
hoewel ik zeker zie dat gpgpu belangrijker gaat zijn in games door openCL en DX11, denk ik niet dat Nvidia daar een voordeel uit gaat halen.
ATI heeft meer als genoeg shaders over om de performance te bieden die nodig is voor games, ook in de toekomst.

de extra transistors die Nvidia gebruikt voor GPGPU kosten ze alleen meer geld zonder dat het ze voordelen bieden in de game market.
op de supercomputer markt is het een ander verhaal misschien, maar ik verwacht niet dat ze intel's larrabee aan kunnen op dat gebied (waar larrabee weer totaal niet relevant gaat zijn in de game markt)
True. Maar het is slimmer units te gebruiken die beide taken kan doen (zoals Ati doet) dan units exclusief op te offeren voor die ene taak (wat Nvidia doet). Dat bedoelt Reinman met verspillen; ze reserveren al een X-aantal units speciaal voor GPGPU. Die units staan dus letterlijk uit hun neus te peuteren als er geen gebruik van word gemaakt.

MAW: niet handig.
jij hebt het over dx gaming, bij ray tracing wordt het denk ik een heel ander verhaal

nvidia heeft heeft een demo laten zien waarbij ray tracing 50 keer vlugger gaat dan in de vorige generatie
De reden dat ze er 'nog' niet gebruik van maken is dat er geen uniforme standaard is, die zowel ATI, nVidia, als Intel 'behappen'. Die is er nu wl in de vorm van OpenCL en de DirectX 11 variant hierop genaamd Compute Shaders. Gezien de 'potentie' van Windows 7 als populair OS, en de weide verspreiding die DX11 mogelijk zou krijgen, is dat meer motivatie voor ontwikkelaars om er ook echt voor te gaan ontwikkelen.

Wat dat betreft heeft ATI het slim aangepakt, ze hebben een 'cuda' taal genaamd stream, maar er nooit heel erg veel nadruk op gelegd. Ik denk dat nVidia ondanks alle goede bedoelingen op den duur Cuda voor consumenten 'op' zou moeten geven, of het moet porten naar DX11's compute shaders, want dt is de standaard die games/consumenten software gaat gebruiken. En omdat het nogal dicht bij OpenCL zit, zal het voor crossplatform games ook de voorkeur hebben boven een nVidia-specifiek Cuda.
Hoezo nauwelijks? Physics berekeningen vallen volgens mij ook onder general purpose. Dus alle spellen met PhysX maken hier gebruik van.

Tevens moet er normaal gesproken eerst hardware zijn voordat spellen het kunnen ondersteunen, ondersteuning komt vast wel nu er hardware voor is.

[Reactie gewijzigd door knirfie244 op 1 oktober 2009 16:26]

1)En hoeveel spellen maken gebruik van PhysX op de GPU(antwoord: 2 a 3)
2)En hoeveel van de spellen voegd PhysX wat aan gameplay toe(antwoord: 0)
3) En Hoeveel spellen zijn er(te veel om op te noemen)

PhysX is een wassen neus. Sad, but its true.

Interessant lees voer:
http://gathering.tweakers...message/32660774#32660774

[Reactie gewijzigd door Reinman op 1 oktober 2009 16:42]

Physx is geen wassen neus en voegt wel degelijk wat toe, staat alleen nog in de kinderschoenen

http://www.youtube.com/watch?v=6GyKCM-Bpuw

[Reactie gewijzigd door gbh op 2 oktober 2009 01:41]

Die youtube video laat vooral zien dat ati gebruikers worden genaaid. 99% van die effecten had je ofwel met de gpu kunnen doen ofwel met een cpu. Het is toch al een naai streek dat Batman alleen FSAA kan doen met een nvidia kaart.
Nu ik zie hoeveel effecten ze hebben weg gelaten bij het normale spel om Nvidia kaarten er beter uit te laten zien wil ik eigenlijk niks meer met Nvidia te maken hebben.

Wat een lame bedrijf zeg.
dat klopt, maar van de andere kant dat kan ATI ook prima doen zodra er openCL of DX11 software voor beschikbaar is (en die komt er, want dat werkt op zowel ATI als Nvidia, en dat is de grootste reden waarom physx niet doorbreekt)

dat is dus geen selling point voor Nvidia. geen reden om een gt300 te kiezen boven een hd5xxx serie.

edit : blijkbaar is die al in ontwikkeling zelfs
http://www.theinquirer.ne...s-graphics-physics-engine

[Reactie gewijzigd door Countess op 1 oktober 2009 19:35]

Gevalletje kip-ei. Eerst de mogelijkheid, of eerst de wens tot een feature.

Denk wel verder dan enkel grafische onderdeel van games. Denk aan het offloaden van (een deel van) AI van CPU naar GPU, dan kan een betere beslissingstree komen met meer opties voor gedrag en dergelijk.

Enkel naar pixels en fps staren is een met oogkleppen rondlopen.

Zeker in het licht van fusion bij amd en intel van gpu on-die komen is OpenCL en vergelijkbare dingen belangrijk door toenemende standaard beschikbaarheid.
De grafische kaart is nu al de meest voorkomende zwakke plek in de PC als het gaat om spellen.
Als spellen nog harder op die graka gaan leunen dan wordt dat helemaal een probleem.
> gpGPU is leuk, maar voor de gamers boeit dat natuurlijk niet

Toch wel. Steeds meer zaken als Physics en AI (Artifical Intelligence) in games gaan hier ook gebruik van maken. Met als gevolg weer meer realistische games.
Tenzij je de halve markt uitsluit door een game te leveren die enkel draait op n merk videokaarten. En daar wringt de schoen. Zolang er geen open standaarden zijn die het mogelijk maken dat deze vooruitgang voor iedereen brengt zal het altijd bij gimmicks en kleine extra'tjes als wapperende capes blijven.

Laat ze in games eerst maar eens die extra cores in een CPU aan het werk zetten voordat we alles gaan verhuizen naar de GPU, dan houden we daar mooi capaciteit over voor een paar extra AA samples.

Wat we sinds de Geforce 8000 en Radeon 2000 serie zien is dat het verspilde moeite is om verder te werken dan de standaard omdat er toch geen gebruik van wordt gemaakt. (Zie de extra ongebruikte functies op de 2900XT en GTX 2XX series)
Inderdaad. Ik had het ook niet over Cuda, maar over GPGPU in het algemeen.
Het is niet voor niets dat alle vendors achter openCL zijn gaan staan.
Alleen is het nog wel vrij low-level, iets lastiger te programmeren dan Cuda.
Van de games die uit komen zijn dat er maar een handje vol. Ik geef het wel een grotere kans met DX11 compute shader. Niet met CUDA gezien dat maar bij een vendor kan. Dat word toch niet als heel fijn gezien. Zeker dingen die integraal zijn zoals gameplay physics en AI. Zelfs daarop zullen we nog verder moeten wachten tot het echt effect gaat hebben. De aankomende games zullen denk ik zijn zoals battleforge. Je kan er dan gewoon makkelijk zonder, omdat het weinig toevoegd.
http://www.driverheaven.n...php?reviewid=842&pageid=5
maarja:
http://www.anandtech.com/video/showdoc.aspx?i=3650&p=2
Ik merk het. Trine bijvoorbeeld, heeft Physx nodig. Gewoon een drivertje installeren en de CPU kan het ook, zo intensief wordt het gebruikt. Het aantal spellen waarbij een NVidia-kaart onmisbaar is is op n hand te tellen.
AI is nog altijd idioot en is zelf geen hot item meer om over te pochen. Hebben ze jaren over zitten roepen en echt goeie verbetering hebben we niet gekregen. De kracht is er maar de kennis over AI is er gewoon niet en vele developers lijken er geen zin in te hebben.
Een spel dat op physics bouwt bestaat ook niet. Het is meestal ofwel hier en daar iets dat je kan kapot maken, of het is een volledige wereld waar alles kapot gaat en dan is het plezier er ook direct van. Enkel leuk als developer om de premie van NVIDIA te krijgen wanneer je er een bankje inzet dat in drie stukken kapot kan vallen.
Een hardware tesselator is een requirement voor iedere DX11 GPU btw.
Waar staat dat het een fixed function tesselator moet zijn? Als het over de shaders gaat, is het toch ook hardware? Daarbij moet hij het ondersteunen, er staat nergens dat het een hardware tesselator moet zijn. Al lijkt me het negatief qua performance mocht je het in software inplementeren.

[Reactie gewijzigd door Reinman op 1 oktober 2009 17:02]

Larrabee heeft ook geen hardware tesselator, dus waarom zou Fermi die wel moeten hebben? Zolang alle tesselator features maar gebruikt kunnen worden maakt het niet uit of hier een stukje logica voor op de chip zit of dat dit door de SIMD cores wordt uitgevoerd in "software"
'gpGPU is leuk, maar voor de gamers boeit dat natuurlijk niet.'

GPGPU is misschien niet zozeer voor de gamers interessant, maar het gaat mijn inziens simpelweg over het aanboren van een markt waar wel heel veel geld te halen valt: supercomputing.
Al die duizenden CPU's die bepaalde berekeningen maken die op de GPGPU vele malen sneller gaan.
Je heb voor zover ik weet al clusters van IBM die gebruik maken van een combinatie van CPU's en een variant van de Cell processor.
En Intel gaat hetzelfde doen met hun Larrabee.
Maar wat moet dat dan in godsnaam in een consumenten kaart.
NVIDIA had Cuda gewoon bij Quadro moeten stoppen. Voor de consumenten slaan ze er hun marktaandeel mee aan diggelen. Meeste mensen kopen bij OEM welke sowieso iets goedkoper wil aanbieden en de slimme gamer heeft het ook niet nodig. Blijven enkel de weinige fanboys en mensen die er echt meerwaarde aan hebben over.
Over de diesize, Anand doet een hele simpele berekening. Cypress = 2.15 miljard transistors en 334mm2 groot. Fermi zal daarom wel 3/2,15 = 1,39x zo groot zijn, oftewel 1,39x334 - 467,7mm2. Persoonlijk denk ik dat de gpu groter dan 500mm2 wordt. Een verbruik van ruim 200W zou me ook weinig verbazen.
Ik ben vooral benieuwd wat het verbruik @idle is. De GT200 was ook groot maar er was wel goede power-management. Dat ze ati hierin weer verslaan zie ik echter niet meer gebeuren.
Ik nodig iedereen uit het volgende artikel over "Fermi' te lezen. Je krijgt op deze manier een beter beeld van hoe ver NVidia echt is.
Het is een knap staaltje onderzoeksjournalistiek, vergelijk dat voor de grap eens met de losse flodders van fudzilla. Wat een verschil.

http://www.semiaccurate.c...a-fakes-fermi-boards-gtc/
Haha, geweldig! Als dat artikel waar is... Wat een blamage. Daar laat nvidia toch een aardige steek vallen zeg.
Grappig dat nVidia zich meer op Cuda en supercomputing gaat richten, en wat mij betreft ook begrijpelijk.

Gaming op de PC is stervende (nee, niet voor ons tweakers en ook nie voor mij, maar puur op verkoopcijfers), en dat voelen naast de games-makers ook de videokaarten bakkers.

Door nu alvast meer richting supercomputing / gpgpu doelen te promoten en ontwikkelen zal nVidia zich wat meer op de toekomst in willen dekken, en dat doen ze mijns inziens slim.
Heb je cijfers voor een stervende pc-gaming markt? Ik geloof er namelijk niet in, volgens mij groeit de pc-gaming markt namelijk alweer, maar wordt de verkoop van mmo-subscripties en de online digitale verkoop van games, via bijv steam, niet goed in kaart gebracht, waardoor de pc gaming markt stervende lijkt, maar dat helemaal niet is.

De reden dat Nvidia zich op de HPC-markt richt is tweeledig, ze hebben geen x86-licentie en zowel Intel (Larrabee) en AMD/ATI hebben dat wel. Door hun gpu meer een cGPU te maken, kunnen ze waarschijnlijk in de hpc-markt goed meekomen, en de marges zijn daar erg hoog. Zo verkocht AMD 2 procent van hun totaal aantal gpu's (van de 149m) in de workstation markt, maar leverde het 10 procent van hun totale inkomsten op.

Het feit dat ze zich meer op die markt richten heeft echter gevolgen, zoals een grote gpu, die lage yields zal kennen, waardoor er in verhouding NOG minder gpu's uit een wafer komen dan bij AMD. Gevolg, een dure gpu, die ze keihard naar beneden moeten schalen om met AMD in de mainstream markt te kunnen concurreren. Hierdoor lijkt het alsof ze zich niet meer om gamers bekommeren maar dat kan net zo goed gezien worden als het falen van Nvidia. Ze zeggen immers zelf dat ze RV770 zwaar onderschat hebben, en de ontwikkeling van een gpu duurt al snel 4 jaar of langer.
Opzich slim ja, maar hoe groot is die markt? en hoe groot gaat hij worden? vraag ik me toch af.

Het is IMO een grote gok van nVidia om zich meer op gpgpu te richten dan op puur gaming.

Maar we zullen zien als het zo ver is

(en de consoles zullen ook ooit eens vervangen worden, zodat de gemiddelde game weer zwaarder en mooier word)
Opzich slim ja, maar hoe groot is die markt? en hoe groot gaat hij worden?
Ik vraag het me ook af. Wat ik wel weet is dat we waar ik werk een Tesla gaan aanschaffen, en nog wat CUDA kaarten om parallele berekeningen op te kunnen gaan doen. Dat is en duidelijk verschuiving van grote 16 en 32 core machines naar kleinere machines met CUDA hardware.
Het is IMO een grote gok van nVidia om zich meer op gpgpu te richten dan op puur gaming.
Waar komt dit rare sentiment vandaan? Fermi heeft meer dan twee keer de rekenkracht van G200! We weten inderdaad nog niets over de verdere graphics-gerelateerde aspecten van de chip, maar ik zie niet in waarom die niet ook fenomenaal zouden zijn. Alleen het feit dat NVIDIA op een GPGPU conferentie niet praat over graphics vind ik geen reden om om aan te nemen dat Fermi dus gehandicapt is op dat gebied. Ze zijn niet dom bij NVIDIA.
De verkoop van games op de PC is misschien stervende maar de games die gespeeld worden op de PC is niet stervende.

Er zijn veel gamers die hun games illegaal downloaden en toch spelen op hun gaming PC met snelle videokaarten.

Dat is aan de andere kant ook het voordeel geweest van de hardware fabrikanten, die hebben gewoon geprofiteerd van de illegale downloads.
Als de uitgevers geen PC-games meer maken, nieuwe of bestaande, wat heeft het bestaan/innoveren/ontwikkelen van een GPU-fabrikant voor de PC-markt dan voor nut?

Piraterij zal ALTIJD ook de hardware kant raken, uiteindelijk.
Neh, PC gaming is helemaal niet stervende. Het wordt al jaren geroepen maar het gebeurd niet. Ook gigant EA is het er niet mee eens:
http://www.joystiq.com/20...l-distribution-profits-d/
Als je naar de specificaties van de nieuwe nVidia kaart kijkt en de richting die nVidia wil uitslaan, kan ik me indenken dat introductieprijzen hoog in de 600 euro (mits geen 700 euro) zeker geen verassing zijn.

Ik verwacht eerder 20% prestatiewinst voor 35% hogere prijs. Niet verwonderlijk, maar het gevolg is wel dat de 5870(x2) in de gaming sector een groter marktaandeel zal krijgen. Dat is mijn verwachting.

We zullen zien! Interessante tijden.

[Reactie gewijzigd door Yokozuna op 1 oktober 2009 20:20]

hij word sneller als een hd5870. maar zeker niet sneller als een hd5870x2.
hij word ook iets goedkoper als een hd5870x2, maar gezien de grote van de chip niet zo heel veel. in ieder geval gekeken naar de productie kosten. de uiteindelijke prijs hangt natuurlijk af van hoe veel winst (of hoe weinig eigenlijk) nvidia wil hebben.

ik denk dat nvidia weer het zelfde probleem heeft als bij de gt200. ATI kon een veel betere prijs prestatie verhouding bieden. daardoor moest nvidia de prijs van de gt200 zo ver verlagen om geen markt aandeel te verliezen dat ze bijna geen winst meer maakte.
eigenlijk kan Nvidia het zich dat niet nog een generatie lang veroorloven, maar dat is volgens mij precies wat er weer gaat gebeuren.
maar het probleem van nvidia is dit keer nog erger, ze hebben nu geen paar maanden gehad waarin ze de hoofdprijs voor hun kaarten konden vragen, dus de ontwikkelings kosten voor de gt300 terugwinnen zal moeilijk worden voor ze verwacht ik.

[Reactie gewijzigd door Countess op 1 oktober 2009 17:57]

eigenlijk kan Nvidia het zich dat niet nog een generatie lang veroorloven, maar dat is volgens mij precies wat er weer gaat gebeuren.
Kan iedereen een keer ophouden met dit soort onzin? Het was al ergerlijk toen iedereen zo sprak over AMD, het is nog erger bij NVIDIA. Als een bedrijf het echt zo slecht zou doen zouden de aandelen wel enorm kelderen. Dat deden ze bij AMD, maar NVIDIA aandelen doen het prima. Niet heel raar ook, want in heel 2008 heeft NVIDIA maar 70 miljoen verlies gemaakt. Dat is op een totale inkomstenstroom van 3,4 miljard, midden in de grootste recessie in decenia natuurlijk een schijntje. NVIDIA kan het zo nog jaren volhouden.

Prima als alle technisch onderlegde mensen hier over technologie praten, maar ga even geen rare dingen over financieen zeggen als je er geen verstand van hebt.

EDIT: Excuus, Countess, ik reageerde wat overdreven. Ik denk inderdaad dat je gelijk hebt wat je onderstaande uitleg betreft. Fermi moet het goed gaan doen anders verliest NVIDIA marktaandeel en dan zullen er veranderingen nodig zijn.

[Reactie gewijzigd door Snoitkever op 3 oktober 2009 09:18]

ik bedoel niet dat Nvidia gaat verdwijnen of failliet gaat, maar dat ze deze situatie het niet meer kunnen verkopen aan hun investeerders. er moet ook winst gemaakt worden namelijk. nvidia zal het niet meer aan hun investeerders kunnen verkopen dat hun dure high-end chips voor bijna kostprijs over de toonbank gaan. dat was de enige reden waarom nvidia geen marktaandeel is verloren aan de hd4xxx serie.
bij de hd5xxx serie kan het bijna niet uit blijven dat ATI nu een groter marktaandeel krijgt.
Tot noch toe zijn de X2 top kaarten van beide fabrikanten altijd sneller geweest dan single kaarten van de concurrent. Ik zie dat ook niet zo snel veranderen.
Ziet er zeer interresant uit, had niet verwacht dat Nvidia binnen deze korte tijd al een tegenantwoord had voor de HD5000 series van ATI.

De grote vraag is of de prijs goed in verhouding gaat staan met de prestaties. ATI is op dit punt Nvidia altijd de baas geweest, alhoewel ik toch Nvidia koop voor de naar mijn mening goede driversupport.
Het is nog maar een aankondiging met de specs. Het gaat nog lang duren voor je er een kan kopen. Reken maar op Q1 2010.
Dat weet ik, dat is namelijk ook vermeldt in het artikel zelf. Toch had ik eerder Q2 verwacht. Maar goed, hopen dat ze deze kaart niet gaan rushen en alles goed in orde maken vr de release
Tegenantwoord? :?

Het duurt 3 jaar om een gpu te ontwikkelen. Dus ze kunnen niet zomaar eventjes antwoorden... Ze kunnen alleen laten zien wat ze momenteel (al lang) in ontwikkeling hebben. Dat ze niet meer kunnen laten zien dan wat specs (die na 2 jaar ontwikkeltijd echt wel vast liggen) , betekent dat ze nog heel ver wegzitten van een daadwerkelijke lancering op de markt.

Nog wonderlijker is dat ze eigenlijk helemaal geen consumenten kaart/architectuur laten zien... en qua technologien volkomen aan DX11 voorbij gaan... Terwijl ze in het verleden toch een paar hele mooie DX11 demo's hebben gemaakt. Dat ging voornamelijk om compute shaders, (=gpgpu), en dus enigzins cuda gerelateerd.
Zouden ze daadwerkelijk niets op het gebied van tesselation kunnen laten zien? Dan zouden ze wel eens heel erg in de problemen kunnen komen in de nabije toekomst...
Nog wonderlijker is dat ze eigenlijk helemaal geen consumenten kaart/architectuur laten zien... en qua technologien volkomen aan DX11 voorbij gaan...
Vind je het gek? Dit is een aankondiging op een conferentie over GPGPU. Er zitten daar geen gamers, en de meerderheid van de aanwezigen maakt het geen bal uit hoe snel Crysis gaat draaien op Fermi. De aanwezigen maakt het uit dat Fermi C++ gaat ondersteunen, dat er 16 SIMD cores op de chip zitten, dat er ECC ondersteuning is. Iets over doelgroepen enzo :)
Ziet er zeer interresant uit, had niet verwacht dat Nvidia binnen deze korte tijd al een tegenantwoord had voor de HD5000 series van ATI.
Of het het tegenantwoord is wil ik niet zeggen. Lijkt alsof ze een andere markt als hoofd target hebben en de games markt daarbij willen pakken
Als hij maar sneller is dan de HD5870 zie ik niet wat het probleem is. Al had ik een chip in m'n PC die origineel bedoeld was voor een maanlanding, dan nog maakt het me niet uit, zolang het maar de snelste GPU is :P
Eindelijk komt Nvidia weer terug, maar ben benieuwd hoe deze kaart het tegen de ATI 5870X2 zal doen :*) ben ook benieuwd hoe duur dit weer gaat worden.... Nvidia is altijd duur 8)7

De 8800 Ultra koste 700-800 euro toen die uitkwam belachelijk 8)7


Ik hoop dat Nvidia zo snel mogelijk deze kaart uitbrengt. En hopelijk komt ati dan met de 5890 :)

[Reactie gewijzigd door Kurac1989 op 1 oktober 2009 15:09]

Doordat bedrijven als Nvidia hun topproducten voor zulke hoge prijzen hebben kunnen verkopen hebben ze nu de middelen om nog innovatiefere producten te ontwikkelen.

Moeten ze maar met minder genoegen nemen omdat jij graag een 8800 Ultra in je systeem wilt hebben?

Er moet toch geld binnenkomen om nieuwe dingen te blijven ontwikkelen?

Je moet dat soort bedrijven niet afschilderen als geldwolven, dat zijn eerder de olie maatschappijen die al 100 jaar lang dezelfde kwaliteit benzine blijven produceren...
Tja, wat noem jij innovatief. AMD krijgt het blijkbaar wl voor een lagere prijs voor elkaar. Ik zie bij nVidia eigenlijk niet bijster veel innovatie de laatste jaren, behalve dan welke nieuwe naam ze nu weer aan een vijf jaar oude kaart kunnen geven.
Dus omdat ze niet de snelste kaarten hebben uitgebracht zijn ze niet innovatief?

Sorry hoor maar begrijp je niet dat er maar 1 de snelste kan zijn? Nvidia is dat nog steeds met de GTX295, dat ze duurder zijn ok maar dat verandert niets aan de snelheid van de kaart en de 5870 is nog niet in de winkels dus die telt voorlopig niet mee.

Daarnaast heeft Nvidia ook nog Tegra en Ion die meerwaarde bieden in hun segment.

Nvidia staat in het algemeen ook bekend om hun goede driver support vooral in de Linux community, dat zijn allemaal dingen die je onder de noemer innovatief kunt scharen.

Veel van die dingen heeft ATI nog niet gedaan en dat zeg ik als AMD sympathisant.

En over dat relabelen, wat boeit het of Nvidia zijn kaarten elke keer nieuwe namen geeft?

Zo lang ze kunnen concurreren met hun directe concurrent maakt dat toch niets uit?
Nvidia staat in het algemeen ook bekend om hun goede driver support vooral in de Linux community, dat zijn allemaal dingen die je onder de noemer innovatief kunt scharen.
Hun binairy drivers zijn beter ja, maar ATI heeft zijn documentatie grotendeels open gegeven. Dat betekend dat we over niet al te lange tijd betere open source drivers kunnen verwachten. Bovendien denk ik aan supercomputers meestal een machines met veel CPUs en een eenvoudige grafische kaart.
ik help het je hopen, maar ik heb er een hard hoofd in. De ontwikkeling gaat hard, dat ben ik met je eens, maar het komt nog niet in de buurt van een bruikbare oplossing.

Het is toch jammer om mooie nieuwe hardware te kopen en dan tot de conclusie te komen dat het minder dan de helft van de performance haalt van een vergelijkbare kaart van de concurrent, omdat de linux drivers zo brak zijn.

De kwaliteit van de linux drivers van Nvidia is voor mij de doorslaggevende faktor geweest om in mijn nieuwe pc een gts250 te zetten ipv een 4850, omdat onder linux de nvidia gewoon beter is.
hmmm... volgens mij heb jij de tijd nog niet meegemaakt toen voodoo met videokaarten aan kwam zetten. Toen betaalde je voor een topkaart ook zoveel, of zelfs meer. Momenteel mogen nvidia en ATI geen prijsafspraken meer maken en zijn derhalve de prijzen van videokaarten omlaag gegaan. Maar ook relatief. Plus de nogal enorme performance vooruitgang van midrange modellen lijkt het net alsof een 8800 Ultra echt veel te veel geld kostte.

Ps. ik heb voor een asus 8800 GTX vlak na de launch ook 450 euro neergelegd |:(
Oei, ziet er erg goed uit. Grote vooruitgang sinds de vorige serie. Eindelijk een echte goede toekomstige concurrent voor de HD5870

Rond welke prijs zou het dan ongeveer komen? De GTX 295 is volgens mij 480,- euro ongeveer, dus deze word dan nog een stukje duurder? (of heb ik het dan over iets heel anders?)
De focus licht bij Fermi op Cuda en de architectuur lijkt vooral gericht op gebruik in supercomputers.

De verwachting was dat Fermi het antwoord zou worden op AMD's ATI Radeon HD 5000-introductie, maar het enige wat Nvidia met betrekking tot gaming liet weten was dat de architectuur DirectX 11 ondersteunt en dat de videokaart op basis van Fermi sneller zal worden dan de HD 5870. De presentatie van Nvidia concentreerde zich dan ook op de betekenis van de Fermi-architectuur voor de Tesla-kaarten die in supercomputers gebruikt kunnen worden.
ik weet niet of dit een directe concurrent gaat worden voor de 5870 op dekstop gebied. Sterker nog, ik betwijfel het. Ik vermoed zelf dat Nvidia met een afgezwakte versie hiervan naar de desktop markt komt. Dit is gebaseerd op een aantal redenaties:

De zwaarste GTX van het moment is al erg duur, deze nieuwe architectuur kan bijna niet goedkoper zijn, dus worden de kaarten extreem duur. Als je 500 euro moet vragen voor een videokaart, loop je het gros van de gebruikers mis, die vervolgens je oude product blijven kopen, of erger nog, naar AMD gaan.

Daarnaast is de specsheet van dit ding best indrukwekkend, net zoals het stroomverbruik waarschijnlijk. Een voeding van 1000 watt in je pc is niet greenpeace compatibel, zeg maar. Een afgezwakte versie van de kaart kan nog steeds goed presteren, maar zallicht zuiniger zijn en vooral goedkoper.


Just my thoughts;)
Ik vraag me af of dat er wel van komt. Een half jaar is een lange tijd. Ik vrees dat ATI dan al een antwoord heeft klaar liggen in de vorm van een 5890. Ik had liever gezien dat ze gelijk op zouden gaan, dan waren de prijzen wat lager gehouden.
nVidia heeft het zelf over de introductieprijs voor de consumenten markt van 100-200 usd...
Lijkt me sterk voor de top kaart.
ik heb gehoord dat ze misschien eerst of tegelijk mid to low end modellen gaan introduceren. daar zullen ze het misschien over hebben.
wat het ook word, de gt300 met 512 shaders gaat GEEN 200 dollar kosten. waarschijnlijk zelfs ~3 keer zo veel (400 euro, (480euro met BTW)).

[Reactie gewijzigd door Countess op 1 oktober 2009 19:47]

Ik dacht dat NVIDIA zich meer zou richten op kleine chips, maar het is weer zo'n enorm bakbeest (weliswaar geen 576mm^2 als de GT200 maar goed). Dit is niet goed voor de yields, en zorgt er alleen maar voor dat ATI de komende vier maanden in ieder geval de gehele markt voor zichzelf heeft:

Onder €50:
Radeon HD4650

Onder €80:
Radeon HD4770/4850

Onder €120:
Radeon HD4870

Onder €150:
Radeon HD4890

Onder €200
Radeon HD5850

Onder €300:
Radeon HD5870/4870X2

Alleen onder 500 euro kun je het beste een GTX295 kopen nu, maar je hebt dan bijna genoeg geld voor 2x 5870. Bovendien ben je dan minder future proof zonder de DirectX 11-ondersteuning. De enige reden om NVIDIA-kaarten te kopen, is als je jezelf een vendor lockin wil creeeren om CUDA te gebruiken, of omdat je een *nix-gebruiker bent.

Ik heb altijd NVIDIA-kaarten gehad, maar nu hebben ze echt zitten slapen.

[Reactie gewijzigd door DCK op 1 oktober 2009 15:44]

Naar mijn mening zit je boven de 400 euro (en dus ook boven de 500) beter met twee HD5850's in crossfire, maar goed.
Hehe nice, scherp opgemerkt.

Hier: reviews: AMD laat ATI HD 5870 met DirectX 11 los laten ze wel zien wat een twee 5870 in crossfire doen, maar zetten ze dat niet af tegen een GTX 295. Misschien dat 2 keer 5850 het ook goed doet, tegen een GTX 295.
Waarschijnlijk wel. De GPU's op een GTX295 zitten qua prestaties in tussen die van de GTX260 en de GTX275. Een GPU's van de HD5850 gaat daar makkelijk overheen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True