Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 83 reacties

De specificaties rondom Nvidia's nieuwe gpu, de GT212, zijn uitgelekt. De gpu, die volgens het 40nm-procedé wordt gemaakt, zou 384 streamprocessors aan boord hebben en geen Directx 10.1 ondersteunen.

Nvidia logo, zwartDe GT212 is de opvolger van de GT200b, die nog op 55nm gebakken wordt. Volgens Hardware-infos zal de GT212 beschikken over 384 streamprocessors: 60 procent meer dan zijn voorganger, de GTX280, die het met 240 stuks moet doen. Als ook de kloksnelheid van de streamprocessors hoger ligt, wat zeker denkbaar is, kan de toename van de rekenkracht hoger dan 60 procent uitvallen.

De 384 streamprocessors van de GT212 worden opgebouwd uit 12 blokken die elk over 32 processors beschikken, in plaats van de 10 blokken met elk 24 rekeneenheden van de GTX280. Aangezien Nvidia al lange tijd vasthoudt aan 8 tmu's per streamprocessor-blok, zal de GT212 waarschijnlijk een totaal van 96 tmu's krijgen. Verder zou de gpu niet langer een 512bit-geheugenbus hebben, maar wordt deze gehalveerd tot 256bit. Door gebruik te maken van Hynix 7Gbps gddr5-geheugen moet de uiteindelijke bandbreedte minstens even hoog worden als die van zijn voorganger. Het aantal rops staat bij Nvidia altijd in verhouding met de geheugenbus; aangezien die gehalveerd is, is de verwachting dat het aantal rops ook gehalveerd wordt - en wel van 32 naar 16.

De grote toename van het aantal streamprocessors zou ervoor zorgen dat de gpu uit 1800 miljoen transistoren gaat bestaan, tegenover 1400 miljoen transistoren op de GT200 en GT200b. Door het nieuwe 40nm-procede wordt verwacht dat het chipoppervlak slechts 300 mm² zal beslaan. Hierdoor wordt het voor Nvidia mogelijk om meer chips uit een wafer te halen, waardoor de productiekosten lager uitvallen. Door de minder brede geheugenbus zal de pcb minder complex worden, zodat ook hier op kosten kan worden bespaard. Voor het overige zal de architectuur van de gpu waarschijnlijk niet aangepast worden, en blijft Directx 10.1-ondersteuning achterwege. Gegevens over kloksnelheden en het energieverbruik laten vooralsnog op zich wachten.

GT200GT200bGT212
Productieproces65nm55nm40nm
Chipoppervlak576mm²470mm²<300mm²
Transistoren1400 miljoen1400 miljoen<1800 miljoen
Streamprocessors240240384
TMUs808096
Geheugenbus512 Bit512 Bit256 Bit
GeheugentypeGDDR3GDDR3GDDR5
ReleasedateQ2 2008Q4 2008Q2 2009
Moderatie-faq Wijzig weergave

Reacties (83)

Dat beloofd voor het 40nm procedé: 400 miljoen extra transistors, en toch slechts half zo veel oppervlakte als de GT200 op 65nm! Aangezien Ati ook zijn 40nm bij TSMC koopt, kan je vanuit die kant ook nog wat moois zien aankomen en ziet de toekomst er wel goed uit voor beide kanten :).
Verder is het ook nog goed nieuws dat GDDR5 op gang komt, concurrentie kunnen de consumenten alleen maar toejuichen (zolang de geheugenmarkt maar niet instort zoals met DDR2 gebeurt is).
Wat ik wel raar vindt is dat nu Nvidia de geheugenbus halveert (wat heel logisch is ivm complexiteit van het PCB en de doorvoersnelheid icm GDDR5), dat ze de rops ook halveren, en dus de kracht van de processor op zich halveren. Natuurlijk wordt dit gecompenseerd door de 60% extra shader processors, maar voor een high end kaart kan je toch wel een kaart maken met alle toeters en bellen?
Verder is het ook nog raar dat ze weigeren om DirectX 10.1 ondersteuning toe te voegen (niet zo zeer voor de features, maar voor marketing voor de high end kaart).

[Reactie gewijzigd door Malantur op 5 januari 2009 20:01]

Misschien wordt dit wel niet het nieuwe High-End product maar een soort van ATI HD4870 klasse.. waar er later nog heel mooi 2 op 1 kaart gegooit kunnen worden als High-End kaart zonder al te veel stroom te slurpen en zonder al te veel hitte te produceren..

Misschien hebben ze goed naar ATI gekeken..
chipfabrikanten kunnen helemaal niet zo goed naar concurenten kijken hoor, de 3 jaar ontwikkeltijd klopt idd wel:

http://www.anandtech.com/video/showdoc.aspx?i=3469

verhaal over het ontstaan van de RV770 (chip van de HD48x0 serie) lees vooral het gedeelte waarin ATI GDDR5 ging gebruiken op een chip wat nog door niemand geproduceerd werd in 2005 en waarvan de prestaties voor 2008 nog niet te voorspellen waren. was een enorme gok die nu zeer goed uitpakt.

trouwens, nvidia kwam eerst met de 7950GX2 en ATI had pas 2 generaties later met de 3870x2 een vergelijkbaar ontwerp met 2 grafische chips.
Dat denk ik niet... het duurt ongeveer 3 jaar om een chip te ontwerpen tot de productie er van.
Nee, als je het nieuws op Tweakers.net goed gevolgd hebt, dan weet je dat de GTX 295 hun nieuwe High-End kaart is, met 2 GPU's
Nee. De GTX 295 si slechts een "tussenpaus" totdat nVidia deze nieuwe generatie op de markt brengt. De GTX295 is gebaseerd op GT200b, deze GT212 is daar een opvolger van.

Ze komen met die tussenpaus (wat vooral een die-shrink is) omdat ze de hete adem van AMD voelen. Met GT200 hadden ze geen wapen tegen AMD, de GT200b is wel zo'n wapen. De kaarten op basis van de GT212 en verwanten zullen al in Q2 volgen.
Die rops halvering is puur speculaas. Wat boven op dit gerucht komt. Want de bit breedte wordt gehalveerd maar daarbij de mem snelheid verhoogd. Minder Rops minder fillrate terwijl je toch de bandbreedte hebt. Of nV meent dat het opeens van conservatieve Fillrate afhankelijke games naar shader heavy games gaat.
Wat MS en ATI eigenlijk pushen.
Verder is het ook nog goed nieuws dat GDDR5 op gang komt, concurrentie kunnen de consumenten alleen maar toejuichen (zolang de geheugenmarkt maar niet instort zoals met DDR2 gebeurt is).
En waarom mag die markt geen prijskelderingen kennen?

Het is mede dankzij het kelderen van de prijzen voor low-end geheugen dat de ontwikkeling van het DDR3-geheugen en de SSD-drives in een stroomversnelling zijn gekomen!
Kan iemand mij uitleggen waarom deze kaarten niet (gewoon) Dx10.1 (en dus SM4.1) ondersteunen? Is hier een speciale reden voor, of is het kostenbesparing?
De typische DX10.1 features, zoals continuous tesselation, zijn zaken waar ATI al heel veel ervaring mee heeft, en ook al regelmatig hardwarematig geimplementeerd heeft. (Al in de Radeon 8500 begonnen!!)

NVidia is op dat punt onervaren, en zal wanneer ze het nu nog snel implementeren, vrijwel zeker langzamer zijn dan de ATI gpu's. Daarom is het voor NVidia veel gunstiger om te zorgen dat DX10.1 een doodgeboren kindje is, (door in ieder geval te zorgen dat geen enkele TWIMTBP game het heeft), dan het ook te gaan implementeren.

Ben benieuwd hoe DX11 voor NVidia zal uitvallen, want die versie kunnen ze simpelweg niet negeren, en dan zullen ze echt met de billen bloot moeten wat betreft tesselation....
omdat aan het uit van het jaar Dx11 komt met de introductie van windows 7, dus het heeft geen zin om 10.1 te gaan ondersteunen.

bron: hardware.info video "vooruitblik"
Het heeft wel zin om te upgraden naar directx 10.1. Directx bouwt gewoon elke keer verder. Directx 11 bouwt verder op directx 10.1 waardoor ATI hun oudere directx 10.1 kaarten een voordeel krijgen in directx11 op de oudere NVIDIA directx 10 kaarten gezien die bepaalde dingen wel ondersteunen.

Indien je nu een nieuwe grafische kaart koopt van ATI, koop je een beter presterende kaart voor toekomstige directx11 applicaties. Dit voorziet de ATI kaarten van een langere levensduur dan de NVIDIA kaarten.

Ook moet NVIDIA ook nog nog alle directx 10.1 verbeteringen sowieso invoeren gezien ze ook in dx 11 zitten. Dit doen ze nu niet wss wegens de hevige concurrentie op het ogenblik en de kostprijs waarmee dat gepaard gaat terwijl er nog geen snelheidswinst mee behaalt kan worden(tenzij spellen dx 10.1 worden, maar die worden tegenwoordig een beetje onderdrukt, zie assasins creed met dx 10.1 die op ATI kaarten een prestatiewinst gaven, maar niet op NVIDIA)
Dit doen ze nu niet wss wegens de hevige concurrentie op het ogenblik en de kostprijs waarmee dat gepaard gaat terwijl er nog geen snelheidswinst mee behaalt kan worden
DX 10.1 biedt inderdaad zeer weinig extra's ten opzichte van de zeer korte levenduur van die DX versie om de kostprijs van ontwikkeling er uit te kunnen halen.

Het is jammer dat nVidia die rekensom heeft gemaakt t.o.v. een AMD wat het wel gewoon support.
(tenzij spellen dx 10.1 worden, maar die worden tegenwoordig een beetje onderdrukt, zie assasins creed met dx 10.1 die op ATI kaarten een prestatiewinst gaven, maar niet op NVIDIA)
En dat is natuurlijk ook de enige game tot nog toe die van DX10.1 gebruik maakte. Waarvan niet eens vaststaat dat de implementatie echt efficiënter was door het gebruik van DX10.1 of misschien door efficiënter gebruik te maken van shader passes.

Hoe dan ook. Ook voor game ontwikkelaars is het duidelijk niet rendabel om ook voor 10.1 te ontwikkelen. De kaarten die er echt van gebruik kunnen maken, niet i.v.m. compatabiliteit maar vooral i.v.m. rekenkracht, zijn in verhouding schaars. Terwijl ze al met twee DX versies rekening moeten houden bij het ontwikkelen: DX10 en DX 9, een derde is vooral voor game ontwikkelaars niet rendabel.

Waarschijnlijk krijgen we straks na introductie van DX11 voor Windows 7 en Vista zelfs helemaal geen DX10/10.1 games meer, maar enkel DX 11 en DX 9. Ontwikkelen voor DX9 zullen ontwikkelaars vaak sowieso, vooral omdat die DX versie door bijvoorbeeld de Xbox 360 gebruikt wordt. En DX11 wordt ondersteund door beide recentste Windows versies. Het nut van ontwikkelen voor DX10/10.1 vervalt dan volledig.

Hoe je dan zit met een DX10/10.1 kaart is mij niet helemaal duidelijk. Misschien val je terug naar DX9, omdat de kaarten daar volledig compatable mee zijn, of misschien kan je enkel gebruik maken van die onderdelen uit DX11 die ook gebruikt kunnen worden in DX10/10.1. Als het het tweede wordt dan zou DX11 de eerste DX versie zijn iirc die het toestaat slechts enkele onderdelen ervan te gebruiken. Niet echt waarschijnlijk imho, maar je mag er op hopen.

[edit.]
Ik persoonlijk upgrade toch elk jaar in Q2 de videokaart in 't gamesysteempje hier thuis. Aangezien DX11 toch pas van belang zal zijn in 2010 zit daar dus nog een upgrade tussen. En aangezien support voor DX10.1 nergens te bespeuren valt bepaalt dat in geen geval m'n keuze voor een videokaart. Mocht nVidia's single GPU performance op dat moment sterker zijn dan die van AMD dan wordt het toch weer nVidia.

[Reactie gewijzigd door houseparty op 6 januari 2009 09:59]

Volgens mij is DX11 backwards compatible zelfs sommige DX9 hardware, in tegen stelling tot DX10 wat toch een VISTA vereiste was. Dit zal niet voor Windows 7 gelden. DX 11 komt ook met servicepack voor VISTA uit.
het zal er backwards compatible mee zijn in die zin dat de processor bepaalde taken zal moeten uitvoeren die anders door de cpu worden gedaan, en of je daar zo voor moet staan te springen is een andere vraag, want tegenwoordig weet men deze in games met voldoende andere dingen te belasten, dat je geen gpu-taken meer er extra bij wilt nemen
Naar mijn weten moet er dan aan de architectuur gesleuteld worden. Wat nvidia nu vooral doet, is meer van hetzelfde op de gpu plaatsen, zonder hun unified shader architectuur echt aan te passen.
Omdat NVIDIA nog genoeg macht op de markt heeft dat DX10.1 niet te ondersteunen voor hun een netto voordeel bied. Als ze het met hun nieuwe hardware zouden ondersteunen dan zou nog steeds een groter deel van de ATI line up dat doen dan die van NVIDIA ... de marginale extra winst die ze zouden kunnen halen met hun nieuwe hardware maakt dat het niet waard.
Het lijkt erop alsof ze ATI een beetje achterna lopen door hun strategie deels over te nemen.
Dat is altijd zo, ook in andere chipmarkten. Dit soort producten lijkt zoveel op elkaar dat het heel vaak overkomt alsof bedrijven elkaars strategie overnemen. Gezien het lange ontwikkeltraject van dit soort chips (enkele jaren) zou ik er echter niet teveel op rekenen.
valt niemand de naamgeving meer op?

ik volg het niet meer, meestal werk je met je series omhoog, maar nvidia gaat

8xxx>9xxx omhoog
9xxx>260/280 omlaag
280>212 omlaag


volgt iemand het nog?
vergelijk het met AMD:
de productfamilie heet de HD4xxx serie, en daar zit een RV770 chip op.

of zoals een intel core i7 920 (productnaam) een nehalam chip is (ontwerpnaam)

en voor de duidelijkheid: de GTX280 (productnaam) heeft een GT200 chip, de voorloper van de GT200b en de GT212

ik ben het met je eens dat nvidia heel slecht is in naamgeving van zijn producten, maar niet om dezelfde reden als jij nu aangeeft.
GT212 is de "codenaam", hij wordt niet onder die naam op de markt gebracht.
9xxx>260/280 omlaag
Volgens mij was dat gewoon een kwestie van 'vereenvoudigingen': het is gemakkelijker om over een bv GTX280 te spreken in plaats van een een GeForce 10880 GTX oid.

Ik hou me vast voor de naam van de volgende serie, een GeForce 1xxx zou vrij verwarrend zijn voor de consument.

[Reactie gewijzigd door Malantur op 5 januari 2009 19:41]

Ze gaan niet omlaag.. ze gaan van GT200 naar GT212. Wat de naam wordt die uiteindelijk op het doosje komt te staan, dat is weer iets heel anders. :)
Ze gaan niet omlaag.. ze gaan van GT200 naar GT212. Wat de naam wordt die uiteindelijk op het doosje komt te staan, dat is weer iets heel anders. :)
Kan wel zijn, maar dan mag Tweakers het artikel wel even aanpassen, want ik lees toch echt:
Volgens Hardware-infos zal de GT212 beschikken over 384 streamprocessors: 60 procent meer dan zijn voorganger, de GTX280,
Ik snap nu wel weer wat er bedoeld wordt, maar duidelijk is anders.
GT212 is de naam van de chip niet van de videokaart.

Ziet er goed uit, maar de rops op 16 denk niet dat dat gebeurd.
70/80% sneller moet te doen zijn dus, we gaan weer interessante tijden tegemoet :)
9xxx>260/280 ?! Hier zijn ze gewoon overgestapt op volledig nieuwe naamgeving

Alle huidige / nieuwe kaarten worden overgezet naar de 1xx en 2xx serie

280->212 is niet omlaag
het moet zijn:
200 -> 200B -> 212 dus steeds omhoog.
280 heeft nog geen opvolger.

Als je wat roept, lees dan op zijn minst het artikel een beetje, het staat zelfs nog in de tabel. Ook was er een paar dagen geleden nog een uitgebreid artikel over nieuwe naamgeving van nvidia.
Ehm de 280 heeft al opvolgers in aankomst. Tevens zoals hierboven al staat is het de chipcodename en niet de consument naam,...
als je dit artikel even leest dan weet je gelijk waarom je het fout hebt:

http://www.tomshardware.com/reviews/opengl-directx,2019.html

we kunnen ook wel allemaal onze persoonlijke mening gaan geven waarom OpenGL het beste is of waarom DirectX de markt veroverd. Uiteindelijk zijn het de bedrijven die het voor ons gaan beslissen en daar hebben we barweinig over te zeggen.

nvidia en amd besteden het meeste tijd aan de windows drivers omdat de performance van hun high end kaarten in een windows omgeving te zien is op alle review sites. daar kijken mensen naar en dat is marketing. verder zijn de meeste gamers gewoon op windows aan het gamen. daar luisteren ze dus naar de markt maar dit zal echt niet snel veranderen.

dan heb je ook nog de gamestudios. die gewoon meerdere jaren games willen produceren, en dan voor DirectX kiezen, weer omdat iedereen op windows zit te gamen, maar ook omdat microsoft duidelijk progressie toont in de ontwikkeling van DirectX en als single point of contact kan dienen wat voor de programmeurs zeer handig kan zijn.

en kijk, zo onderbouw je een statement.
Vandaar dat niemand het doet.
Vandaar dat zelfs John Carmack groot voorstander van OpenGL zelfs afvraagd of ze het voor Rage nog zullen implementeren.
De lui achter OpenGL hebben niet goed geluisterd naar de mensen die het gebruiken want ze zijn er absoluut niet tevreden mee. Vooral de trage acceptatie van nieuwe functies is een heel groot punt.

Wat dat betreft doet MS het een heel stuk beter met DirectX door te luisteren naar AMD en Nvidia voor nieuwe functies.
Met met over 10 versies lijkt het me juist dan MS nooit goed geweten heeft hoe DirectX echt zou moeten werken.

openGL is op versie 1.X, betekend dus een hele goede kernel die heel stabiel is.
gelukkig vinden we OpenGL dan ook meer in de Medische en technische wereld (CAD).

Ik zie de mensen achter Catia zich al met DirectX rommelen, hahaha.. Dat is lachen.

Ries
Ze mogen dan wel misschien een hele stabiele kern hebben, maar als opengl niet meer gebruikt wordt voor games dan heb je weinig aan een stabiele kern.. het probleem van OpenGL is helaas ook dat je specifiek voor bepaalde kaarten een eigen path moet schrijven, wat inmiddels met DirectX amper nog nodig is..
MS heeft juist heel goed geluisterd en gereageerd op de wensen van ontwikkelaars/hardwareproducenten, daarom wint DirectX ook steeds meer en meer aan populariteit onder developers.. OpenGL heeft gewoon jaren lang stil gestaan en is nog steeds met de nieuwe versie..
overigens loop je behoorlijk achter als je denkt dat OpenGL nog op 1.x zit, we zitten inmiddels al op v3.0
de features van DX hebben zich ontwikkelt naarmate er meer transistors beschikbaar kwamen in gpu's om te ze te kunnen gebruiken in overleg met de makers van die GPU's
hardware en software die dus hand in hand ontwikkeld werden. mooier kan bijna niet zou je zeggen.

begrijp me niet verkeerd ik zou graag zien dat er meer met openGL gedaan zou worden maar als het voor games interessant wil blijven (en dat lijkt maar de vraag of ze dat willen gezien versie 3.0) moeten ze iets drastische veranderen aan hun ontwikkelings model en toekomstvisie.
Wat is het verband tussen een laag versie nummer en stabiliteit? Zoals SuperDre al zegt zijn ze ten eerste al verder. Ten tweede zegt een versie nummer niet per se iets over stabiliteit. Als ze een flinke dosis nieuwe functies toevoegen terwijl het allemaal mooi stabiel blijft/stabieler word en er ook een hoger versienummer aan wordt geplakt dan zal het dus volgens jou alsnog slechter zijn.
helaas denken de game ontwerpers daar anders over... wil ook fatsoenlijk onder linux kunnen gamen...
Ofwel, wat ze hier doen is een GPU maken die speciaal bedoeld is om snel te zijn, maar niet om interessant. Ik zit nog steeds met een 8800GTX en ik ga niet upgraden voor er een DX11 kaart is... Maar nVidia maakt gewoon nog steeds 2 jaar oude kaarten in een nieuw jasje...

nVidia is echt heeeeeeel erg triest bezig de laatste tijd...
Babies die alleen maar weer de snelste kaart willen hebben.
Nou nou nou, nu ga je wel heel hard van stapel hoor. Tot G80 is de NVIDIA architectuur ook maar een enkele keer echt overhoop gegooid. Meestal kunnen nieuwe features gewoon in bestaande ontwerpen geintegreerd worden. Nieuwe ontwerpen hadden gewoon meer pixel- en vertex shader pipelines, net zoals nieuwe ontwerpen nu meer SPs hebben.
G200 lijkt dan wel een beetje op G80, er zijn meer dan genoeg veranderingen geweest om te kunnen spreken van een nieuwe chip, en G200 is alles behalve G80 in een nieuw jasje. Bovendien, waarom zou NVIDIA een radicaal nieuwe architectuur gebruiken? G80 was slim, efficient en snel. Er is geen nieuwe functionaliteit die een nieuwe architectuur nodig maakt (wat bij G80 door oa unified shaders wel nodig was).

Als je kijkt naar AMD zie je precies hetzelfde verhaal. Ook daar was R600 (of eigenlijk Xenos) een radicaal nieuwe architectuur (net als G80), waar sindsdien bij RV670 en RV770 vooral kleine dingen aan veranderd zijn (net als G92/G200). Een van de belangrijkste aanpassingen is GDDR5, maar dat doet NVIDIA nu ook bij de chip die jij "G80 in een nieuw jasje" noemt.
Hopelijk komt er 2GB geheugen op de GT212. Dan kan ik eindelijk GTA IV met de hoogste instellingen op 1920x1200 spelen. Nu heb ik een 8800 GTS 512, maar 512MB is eigenlijk veel te weinig. Helaas zijn er momenteel geen goede upgrades, omdat ik liever wacht op een kaart met 2GB dan er nu een te kopen met 1GB.

De kaarten die nu te koop zijn met 2GB zijn geen snelheidsupgrade of met 2 GPU's (die wil ik niet).
Die kaarten met 2 gpu's en 2 gig aan geheugen hebben effectief maar 1 gig geheugen omdat elke core 1 gig aanspreekt en het geheugen van beide cores gelijk dient te zijn (ofzo exact weet ik het niet maar weet wel dat het zo is).

Word echt eens tijd dat ze het geheugen zo gaan maken dat twee cores het te gelijk aan kunnen spreken.
Dat het zo werkt weet ik, maar ik ging er van uit dat er 2x 2GB beschikbaar is. Dan kunnen we alleen nog maar meer hopen dat er kaarten met meer geheugen beschikbaar komen.
Ik denk niet dat je voor GTA IV meer dan 1gb aan geheugen nodig hebt. Voor een groot deel is het benodigde geheugen afhankelijk van de gebruike textures, en ik kan me bijna niet voorstellen dat GTA IV zulke high-res textures gebruikt, dat er meer dan 1gb aan geheugen nodig is.

Realiseer je dat zelfs de snelste videokaarten moeite hebben met GTA IV op de hoogste settings, en dat het spel voor een groot deel ook cpu-gelimiteerd is.
Dat denk je helaas fout. GTA 4 is echt een gigantische (video)geheugen opslurper. Mensen maken al berichten dat deze over de 1GB aan vmem gaat. Zeker die met erg hoge resoluties. Dan moet je truukjes uit halen om hem er onder te houden.

[Reactie gewijzigd door Reinman op 5 januari 2009 22:40]

Het is gewoon te zot voor woorden. Ze zijn tegenwoordig echt niet-efficiënt bezig (met verlies van nauwelijks kwaliteit).

Er zijn genoeg games, die er grafisch veel beter uit zien en mooiere textures gebruiken en veel minder van je grafischekaart en CPU vragen.

Ik kan me nog steeds niet voorstellen (vergeleken met nu) waarom daar ook zulke zware machines voor nodig zijn, is het allemaal zo onefficient geprogrammeerd en dergelijke? Ik noem eens unreal tournament met high texture pak: celeron 1 400mhz 128MB geheugen en een banshee (3dfx)kaart. Dan zouden games er nu echt op bepaalde fronten nog 10x beter uit moeten zien(die zijn er wel, maar gtaIV echt niet!)
Misschien heb je het gemist. Maargoed. Textures worden bij GTA4 niet zoveel of niet gecompressed. Dit betekent uiteindelijk dat de grootte van het ingenomen texture geheugen toeneemt. Dit merk ik keihard op mijn 4870, de 512MB versie is al niet meer genoeg om 2560x1600 te draaien. Heb dus nu ook een 1024MB versie besteld, welke eigenlijk nog steeds te weinig is. In het instellingen menu kom ik bij goede settings al op 1100+ MB. Ik wacht dus ook met smart op de 2048MB videokaarten (niet 2x1GB unshared)
Misschien mis je het punt van ToFast. Het is helemaal niet nuttig om de textures zo groot op te slaan. Ik ben zeker fan van crispy textures en misschien zie je verschil ook wel als je heel goed kijkt, maar als je vervolgens maar 5 fps overhoudt heeft het natuurlijk totaal geen zin. Het is van de zotte dat je meer dan 1GB nodig hebt aan videogeheugen, aangezien zo'n beetje alle high-end modellen met een maximum van 1GB zijn uitgerust (wat uitzonderingen daargelaten).

Ik herinner me Doom 3 nog, waarbij de Ultra modus nauwelijks anders was was dan giga textures die niet gecompressed werden. Je had meteen 2x zoveel videogeheugen nodig voor dezelfde framerate.

Ook bij GTA4 kunnen ze die dingen vast lossless compressed opslaan en een flinke brok geheugen besparen maar het lijkt wel of developpers steeds luier worden.

[Reactie gewijzigd door A Lurker op 6 januari 2009 12:38]

Ach, over een jaar zit er 1GB op de mainstream kaarten en 2GB+ op de high end kaarten. Dan kan iedereen GTA IV spelen.

Als we nu nog met dezelfde kwaliteit als Doom 3 speelden, dan had de vooruitgang goed stilgestaan. Probeer dit soort oude spellen maar eens in 1920x1200 te spelen en kom tot de conclusie dat de textures die er in 800x600 haarscherp uitzagen eigenlijk helemaal niet zo scherp zijn. De polygonen zijn ook flink beter geworden.

Kijk bijvoorbeeld hier eens voor het verschil tussen verschillende Unreal Tournament versies. Vergeet niet dat de Unreal 3 engine ook alweer ruim 2 jaar oud is.
niet geheel ontopic, maar wel handig: Link
Grappig een half jaar geleden was nVidia nog van plan geen DirectX 10.1 te gaan ondersteunen omdat ze het niet nodig vonden, maar nu ze de hete adem van ATi/AMD voelen gaan ze het in één keer toch maar wel ondersteunen.
Quote van half juli vorig jaar:
Al een tijdje heerste de vraag of nVidia DirectX 10.1 zou gaan gebruiken op hun nieuwe generatie grafische chips. Die hebben nu een kort maar duidelijk antwoordt gegeven: “nu niet, nooit niet”. nVidia slaat de DirectX 10.1 plannen over om zich zo volledig te focussen op DirectX 11, dat vermoedelijk volgend jaar geïntroduceerd gaat worden.
Zie ook: http://www.fudzilla.com/i...ask=view&id=8344&Itemid=1

@hieronder ik miste een woordje... :P

[Reactie gewijzigd door -The_Mask- op 5 januari 2009 19:25]

Blijft nogsteeds uit.
Er staat nog steeds dat ze dat niet van plan zijn hoor.
De specificaties rondom Nvidia's nieuwe gpu, de GT212, zijn uitgelekt. De gpu, die volgens het 40nm-procedé wordt gemaakt, zou 384 streamprocessors aan boord hebben en geen Directx 10.1 ondersteunen.
edit:
@Hierboven: Ik ken dat probleem :P

Ik vraag me trouwens af wat dit beestje gaat kosten, vast meer dan 400euro

[Reactie gewijzigd door Shal-Ziar op 5 januari 2009 19:29]

lees jij wel :?

Directx 10.1 wordt NIET ondersteund
Heb jij het artikel wel goed gelezen?
De gpu, die volgens het 40nm-procedé wordt gemaakt, zou 384 streamprocessors aan boord hebben en geen Directx 10.1 ondersteunen.
Nvidia maakt het mij met alle vermeerderingen en verminderingen al behoorlijk lastig om te bepalen wat beter is en wat niet, en die namen helpen mij ook niet.
GT212 klinkt mij toch echt veel slomer dan GTX280.
Eerst was het veel logischer, de Geforce 8400 was minder snel dan de 8600.
het wordt alleen een beetje lastig om te kiezen tussen een 9600 en een 8800.
De 9600 is van een generatie na de 8, dus kan sneller, kan slomer zijn, daar kan je alleen met benchmarks of misschien met vergelijken van kloksnelheden achter komen.
Maar nu worden de namen en de snelheden allebei wel erg ingewikkeld.
Zonder benchmarks zijn we nu helemaal niks meer, of je moet je zo erg irriteren dat je toch voor ATi kiest (heb ik al gedaan omdat de HD4870 veel bang voor de buck gaf, maar niet vanwege de namen).

[Reactie gewijzigd door Amanoo op 5 januari 2009 20:01]

Je kan ervan uit gaan dat deze sneller gaat. Hij heeft meer transistors en door het kleinere procedé kunnen ze hogere kloksnelheden instellen. Maar inderdaad, benchmarks blijven essentieel om de snelheid van een videokaart te weten te komen.

Over de naamgeving: zoals hierboven al vermeld is de GTX280 gebaseerd op de GT200 core. De GT212 is een nieuwe core, de naam van de kaart zelf is nog niet bekend.
Aangezien er ook al een GTX295 bestaat vermoed ik dat de kaart GTX3xx zal noemen. Het blijft echter nog afwachten tot het tweede kwartaal van dit jaar voordat we daadwerkelijk zeker zullen zijn.
maar aangezien dit niet een volledig nieuw ontwerp is, zou het aan de andere kant wel logischer zijn om nog in de 200 serie te blijven, een GTX 290 bijvoorbeeld (295 voor de dual kaart, die hier net boven komt, en deze boven de 280)
tja, nvidia en logische naamgeving.

de 8800GSO is hetzelfde als de 9600GSO,

de 9800GTX is een overgeklokte 8800GTS512

de 8800GTS512 is sneller dan de 8800GTS640

een 9800GTX en een 9800GTX+

verwacht maar dat deze serie in de GTX3xx komt. de verkleining nu van het procede stopt de hoogste getallen in de 200 reeks al vol
GTX285, GTX295 komen binnenkort al uit en zijn op 55nm gebakken. dit gaat om de 40nm versie die nog flink wat sneller moet gaan worden.
Zoals hierboven en in eerder berichten al vermeld is, je moet (interne) chipnamen niet verwarren met daadwerkelijke modelnamen van de kaarten die je uiteindelijk in de winkel koopt.

Dit is een praktijk die nVidia (en ook ATi) al langer doen, de chipnamen zijn vaak te verwarrend.

[Reactie gewijzigd door knirfie244 op 6 januari 2009 09:10]

Een opluchting voor mij en ik gok zo vele anderen hier.
Voor consumenten is het een stuk makkelijker gemaakt.

Tweakers.net is echter een website opgericht door ICT freaks voor ICT freaks, met veel technisch nieuws. Het kan dan ook wel eens voorkomen dat een stuk geschreven wordt zonder rekening te houden met bezoekers die wat minder bekend zijn op dat vlak/onderdeel van het begrip ICT.
Ik doe anders hard mijn best om het voor iedereen duidelijk te maken :) De vergelijking met de gtx280 is misschien verwarrend, daarentegen wordt gt212 in de eerste zin voorgesteld als de opvolger van de gt200b.

Maar volgens mij is het nu voor iedereen duidelijk dat de gt212 slechts een codenaam is. Te verwachten valt dat de nieuwe gpu's in de winkel komen te staan als gtx3x0, of iets dergelijks.
Het klinkt misschien als mierenneukerij maar ik vind het raar dat het "kleiner dan" teken ( < ) gebruikt wordt bij het aangeven van het geschatte aantal transistoren op de GT212. Eenvoudige rekenkunde zegt dat er ontelbare getallen kleiner zijn dan 1800 miljoen. Beter had men een teken als +- gebruikt, een range ( 1400>....<1800 ) of een woordje als ca. Nu kunnen het er ook 1401 miljoen zijn, of maar 1 :|

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True