Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 143 reacties
Submitter: ffb

Op het forum van Vr-zone.com zouden de eerste specificaties van de GeForce 9800GTX, codenaam G100, zijn verschenen. Volgens de speculaties zou de nieuwe videokaart van 2GB geheugen zijn voorzien.

GeForce-logoDe gpu, die typenummer D9E zou meekrijgen, is volgens de onofficiële bronnen op basis van 65nm-architectuur gebakken en beschikt over 256 shader processors. Voor de kloksnelheid wordt 780MHz opgegeven. De tdp van de videokaart zou 15 tot 25 procent lager liggen dan een GeForce 8800GTS. Ook zou de gpu DirectX 10.1 ondersteunen.

Opmerkelijk is de grote hoeveelheid videogeheugen die wordt genoemd: 2GB, verdeeld over acht gddr5-modules met een kloksnelheid van 3,2GHz en een geheugeninterface van 512-bit. In hoeverre de speculaties op waarheid berusten, is de vraag. Ook is nog onbekend wanneer nVidia met zijn nieuwe generatie videokaarten op de markt wil komen.

Moderatie-faq Wijzig weergave

Reacties (143)

Complete bullsh*t. Dit is gewoon niet haalbaar op dit moment. Er staat ook onder aan de post dat dit persoonlijk inschattingen zijn. Nogal kansloos dat het zo klakkeloos door nieuwssites wordt overgenomen.

Redenen waarom dit haast geen G100 kan zijn:
- G100 is tot nu toe altijd nog de naam geweest voor de volgende compleet nieuwe architectuur van NVIDIA (zoals G80 ook compleet nieuw was en G9X een refresh).
- G100 heeft altijd in de planning gestaan voor 2009/2010
- G100 zou volgens de geruchten een DX11 kaart worden.
- NVIDIA is wel gek als ze niet eerst gewoon een 65nm G9X refresh van de 8800GTX/GTS maken, dat is een stuk goedkoper
- Er is nog totaal geen concurrentie van ATI te zien die het nodig zou maken nu al de nieuwe architectuur op de markt te brengen.

Redenen waarom de specs bull zijn:
- 256 SP op een chip neemt, zelfs op 65nm, veel te veel ruimte in. De G80 die was al erg groot, ik verwacht niet dat ze die nog groter gaan maken (hoge kosten, slechte yields)
- Zelfs als er 256 SPs op een die passen krijg je een flink hitteprobleem. G80 chips worden al makkelijk 90 tot 100 graden en hadden en enorme koeler nodig, dit wordt vast nog erger.
- Mochten al die problemen overkomen zijn, dan nog kan deze chip gewoon niet minder stroom verbruiken dan een oude 8800GTS. Ga eens kijken wat de G92 GPU's verbruiken, en verdubbel dan het aantal SP's. Hoe kan je dan ooit minder stroom gaan gebruiken?
- GDDR5 wordt pas in de loop van 2008 in massaproductie genomen
- 2 gig videoram is ziek. Echt, niet normaal, overkill, niemand gebruikt het, waardeloos. Meer dan 1 gig wordt er al echt niet gebruikt, zelfs niet door een spel als Crysis. Sterker nog, ik denk dat er bijna geen spellen zijn die meer dan de 768mb van de 8800GTX gebruiken.
- 2 gig GDDR5 is duur. Misschien dat het maar een paar procent van de uiteindelijk kosten van de kaart is, als niemand het gebruikt zijn fabrikanten maar al te blij dat ze wat extra winst maken (of de kaart goedkoper kunnen maken)
- 2 gig videoram geeft problemen met windows. Met zo'n kaart in je kast heb je 64bit windows nodig om uberhaupt volledig gebruik te kunnen maken van 2 gig geheugen, laat staan meer.

En tot slot, als dit de nieuwe high-end kaart wordt, waar is dan de displayport aansluiting?
Tweakers redactie, doe jezelf een plezier en haal dit nieuws snel van je website, het is een belediging voor jullie journalistieke vaardigheden.
- G100 heeft altijd in de planning gestaan voor 2009/2010
En waar haal jij je zogenaamde info vandaan? De G100 is als het goed is de D9E, welke in 2008 komt.
- G100 zou volgens de geruchten een DX11 kaart worden.
-DX11 bestaat nog niet.
- 256 SP op een chip neemt, zelfs op 65nm, veel te veel ruimte in. De G80 die was al erg groot, ik verwacht niet dat ze die nog groter gaan maken (hoge kosten, slechte yields)
nVidia past misschien we de architectuur aan waardoor het WEL mogelijk is zonder problemen.
- 2 gig videoram is ziek. Echt, niet normaal, overkill, niemand gebruikt het, waardeloos. Meer dan 1 gig wordt er al echt niet gebruikt, zelfs niet door een spel als Crysis. Sterker nog, ik denk dat er bijna geen spellen zijn die meer dan de 768mb van de 8800GTX gebruiken.
- 2 gig GDDR5 is duur. Misschien dat het maar een paar procent van de uiteindelijk kosten van de kaart is, als niemand het gebruikt zijn fabrikanten maar al te blij dat ze wat extra winst maken (of de kaart goedkoper kunnen maken)
- 2 gig videoram geeft problemen met windows. Met zo'n kaart in je kast heb je 64bit windows nodig om uberhaupt volledig gebruik te kunnen maken van 2 gig geheugen, laat staan meer.
Er komt echt geen 2 gig RAM op de kaarten. Dat zal ongetwijfeld 1 gig GDDR4 gaan worden. 2GB is idd overkill, en slaat nergens op. Ook wordt de kaart dan te duur. Zelfs voor het Enthousiast segment.
- Mochten al die problemen overkomen zijn, dan nog kan deze chip gewoon niet minder stroom verbruiken dan een oude 8800GTS. Ga eens kijken wat de G92 GPU's verbruiken, en verdubbel dan het aantal SP's. Hoe kan je dan ooit minder stroom gaan gebruiken?
Aanpassen architectuur...
- NVIDIA is wel gek als ze niet eerst gewoon een 65nm G9X refresh van de 8800GTX/GTS maken, dat is een stuk goedkoper
Wakker worden. De G92 (8800GT en 8800GTS 512) is 65nm.
- Er is nog totaal geen concurrentie van ATI te zien die het nodig zou maken nu al de nieuwe architectuur op de markt te brengen.
Die komt er in januari; een dual RV670. ;)

Edit:

http://www.google.nl/sear...d9e+g100&btnG=Zoeken&meta=

http://www.google.nl/sear...l&q=d9e+&btnG=Zoeken&meta=

[Reactie gewijzigd door Format-C op 30 december 2007 16:44]

En waar haal jij je zogenaamde info vandaan? De G100 is als het goed is de D9E, welke in 2008 komt.
Nee, na de G8X (D8X) komt de G9X, en daar zijn de eerste kaarten nu pas van op de markt. NVIDIA zou wel heel raar bezig zijn als ze na alle researchkosten die gemaakt zijn voor G9X nu maar twee kaarten met G9X chipsop de markt brengen (8800GT en 8800GTS), om vervolgens al meteen hun volgende generatie architectuur op de markt te zetten. Beetje weggegooid geld niet?
Bovendien, als de eerste G9X chips pas afgelopen november op de markt kwamen, denk je dan echt dat hun volgende generatie architectuur nu al af is?

Maar de info krijg ik onder andere van het lezen van sites als Beyond3D.com. Natuurlijk weet je het bij NVIDIA nooit zeker, ze lijken er plezier in te hebben iedereen in het ongewisse te laten en op het verkeerde been te zetten, maar over het algemeen is G100 in discussies, geleakte roadmaps en insider informatie tot nu toe aangegeven als de nieuwe architectuur, terwijl G9X de 65nm refresh is van G80. Uiteraard kunnen ze de nieuwe kaart wel G100 noemen, maar dan is het een kwestie van de naam die veranderd is, en het is nogal onwaarschijnlijk (zie bovenstaande argumenten) dat het dan al meteen de nieuwe generatie is. :)
-DX11 bestaat nog niet.
Nee, en dat komt straks opeens zomaar uit de lucht vallen. Microsoft gaat een dagje om de tafel zitten met ATI en NVIDIA mensen en aan het eind van de dag is de DX11 spec af. Vervolgens tekenen de experts de volgende dag op een bierviltje een diagrammetje hoe de chip er uit moet zien, die gaat naar TSMC en de week daarna liggen de DX11 kaarten in de winkel :P
Kom nou, dat proces duurt jaren, dus reken maar dat nu al lang de grote lijnen van DX11 bekend zijn bij degenen die er mee bezig zijn. Anders kunnen er toch ook geen DX11 kaarten in de winkel liggen op het moment dat het gereleased wordt?
Aanpassen architectuur...
Ja, en als ze nu twee maanden na de G92 chips opeens zo het energieverbruik zo enorm naar beneden kunnen brengen, waarom hebben ze dan niet heel eventjes gewacht zodat ze van de 8800GT en GTS ook ware monsters hadden kunnen maken?
Wakker worden. De G92 (8800GT en 8800GTS 512) is 65nm.
Zijn dat high-end kaarten dan? De 8800GTS kun je zien als een refresh van de oude GTS, maar zelfs dat lijkt me sterk. Ik zou rekenen op een nieuwe 9800GTS dit voorjaar, in een hogere performance- en prijsklasse. (net als de originele 8800GTS)
Die komt er in januari; een dual RV670.
R680 is haast een wanhoopsoplossing te noemen. Wellicht dat de kaart de 8800 serie voorbij gaat, maar gezien de grootte van de kaart, het feit dat er enorm veel geheugen op moet en omdat er 2 RV670 chips op moeten vraag ik me af wat de marges daarop gaan worden.
Maar wat ik bedoelde te zeggen is dat R680 geen reden is om G100 nu al uit de kast te trekken. Een refresh van G80 met wat meer SP's, TMU's en ROPs op een kleiner procedee en met hogere clocksnelheden is echt meer dan genoeg.

[Reactie gewijzigd door Snoitkever op 30 december 2007 18:04]

GPU's zijn er niet alleen voor spelletjes meer

Wanneer deze speculatieve kaart in SLI set-up gebruikt gaat worden voor wetenschappelijke studies hoeft de 2GB helemaal geen overkill te zijn, integendeel.
Verder is de 64 bits voor HPC sowieso wenselijk om de minimaal nauwkeurigheid van wetenschappelijke berekeningen te behalen.
Gecombineerd met een goed algoritme dat Sparse linear systemen van vergelijkingen oplost blaas je dan in potentie bijna ieder huidig bestaand systeem van de weg, waaronder enkele eenvoudige super computers.

Voor volle matrix berekingen hebben GPU's direct al hun voordeel t.o.v. CPU's (bijv. Fourier transforms)

In tal van universiteiten en bedrijven is GPGPU (zie bijv. www.gpgpu.org en/of Nividia CUDA project http://developer.nvidia.com/object/cuda.html) op dit moment een hot-item.
Zelf weet ik niet of je met 2GB ram persee een 64 bits OS nodig hebt, videoRam wel te verstaan, ik denk zelf dat de GPU alles zelf wel netjes regelt, en dat het dus niet direct door het OS wordt geregeld, maar hierin kan ik er uiteraard naast zitten.

Daarnaast als het zo is dat je een 64bits os moet hebben, dat is toch niet zo erg? Zelf draai ik nu al een jaar op volle tevredenheid op een 64bits OS, 32bits apps en games draaien er ook prima op.

Driver ondersteuning is even goed als voor een 32bits OS tenzij je een printer van 20 jaar oud hebt ofzo.

Maar voor alle nieuwe apparaten die worden uitgebracht is er wel 64bits ondersteuning.

-----

Daarnaast zegt iedereen aan het begin altijd overkill dit overkill dat, totdat het zover is dat je zelf de nieuwste Need For speed van mijn part er niet meer op kan spelen met meer dan 20FPS op very low.

Van bijvoorbeeld een geforce 5800 ofzo werd vast in het begin ook van gezecht, wat een overkill, er is geen 1 game die deze kaart niet kan spelen. En nu kan die kaart ongeveer geen 1 spel meer spelen (bij wijze van spreken)

---

Zolang Nvidea zelf niet met de speceficaties naar buiten komt blijft het allemaal speculatie. Dus iedereen kan nu wel hoog en laag schreeuwen van dit klopt niet, of dit klopt wel. Maar dat KAN je nu gewoon nog niet weten.
Zelf weet ik niet of je met 2GB ram persee een 64 bits OS nodig hebt, videoRam wel te verstaan, ik denk zelf dat de GPU alles zelf wel netjes regelt, en dat het dus niet direct door het OS wordt geregeld, maar hierin kan ik er uiteraard naast zitten.
Dit heeft te maken met DMA, een uitgebreide uitleg kun je hier vinden.
Daarnaast als het zo is dat je een 64bits os moet hebben, dat is toch niet zo erg? Zelf draai ik nu al een jaar op volle tevredenheid op een 64bits OS, 32bits apps en games draaien er ook prima op.
En hoeveel gamers ken je die zo even de overstap willen maken naar een nieuw OS? Bij mijn weten is Vista het eerste windows OS waarbij 64bit ongeveer even stabiel is als 32bit. XP64 is voor zover ik het weet vrij instabiel. En tja, hoeveel gamers willen overstappen naar Vista?
Daarnaast zegt iedereen aan het begin altijd overkill dit overkill dat, totdat het zover is dat je zelf de nieuwste Need For speed van mijn part er niet meer op kan spelen met meer dan 20FPS op very low.
Het gaat niet om overkill, het gaat om kosten in relatie tot gebruik. Als niemand meer dan een gig gebruikt voor z'n spellen, waarom zouden de fabrikanten hun kaarten dan onnodig veel duurder maken? Deze kaart wordt sowieso al duur genoeg.
Zolang Nvidea zelf niet met de speceficaties naar buiten komt blijft het allemaal speculatie. Dus iedereen kan nu wel hoog en laag schreeuwen van dit klopt niet, of dit klopt wel. Maar dat KAN je nu gewoon nog niet weten.
En of je dat kan weten. Het is namelijk onmogelijk om dit soort specs op een consumentenkaart te zetten. Alleen al niet zonder de prijs ontzettend hoog te maken. Bovendien kan het absoluut niet kloppen met de 10-15% lagere TDP.

[Reactie gewijzigd door Snoitkever op 30 december 2007 14:40]

En hoeveel gamers ken je die zo even de overstap willen maken naar een nieuw OS? Bij mijn weten is Vista het eerste windows OS waarbij 64bit ongeveer even stabiel is als 32bit. XP64 is voor zover ik het weet vrij instabiel. En tja, hoeveel gamers willen overstappen naar Vista?

Gamers die over zullen/willen stappen naar Vista zullen dit heus niet doen voor de performance en/of stabiliteit van de OS maar om de DX10(.1) effecten die er zo geweldig uitzien vergeleken met DX9 (*ahum* *ahum*). :+ Na het zelf uitgeprobeerd te hebben thuis, DX9 tov DX10, kan ik je meedelen dat ik alles behalve een 'WOW-moment" heb beleefd.

Als je naar de specs gaat kijken is eigenlijk het enige wat zeer ongeloofwaardig overkomt het GDDR5 geheugen en niet zozeer de hoeveelheid MB's/GB's dat erop de videokaart gepropt gaat worden, kijk maar naar ATI die hebben ook een relatief goedkope 1GB kaart. Lijkt me niet dat Nvidia GDDR4 overslaat.
heb je XP x64 al eens gebruikt? Het is net zo stabiel als XP. Alleen heb je hetzelfde probleem als Vista: Geen drivers te vinden.
niet 256 shaders. lees maar eens goed. het zijn 128 echte shaders.

een G80 word helemaal niet makkelijk 90-100 graden. hij krijgt het al moeilijk met het artifactvrij weergeven als hij rond de 75 graden celcius zit bij flink wat G80 kaarten, zoals mijn 8800GTX. Ondanks dat loopt die van mij probleemloos 675/1720/2160

anyway. ik zeg niet dat die kaart met die specs komen maar jouw eigen verhaal zit mede doordat je niet goed leest zelf vol gaten.

die kaart zou best kunnen en meer performance bij een lagere TDP heet gewoon een beter ontwerp.
Dan moet er wel iets heel bijzonders met het ontwerp gebeuren, dat kan je toch met me eens zijn. Laten we eens de "feiten" op een rijtje zetten:

G92 <> G100 = beide 65nm
G100 > 100% grotere bus (512 vs 256)
G100 > 100% (of meer) meer transistors
G100 > ruim twee maal zoveel geheugen

Waarom is het zo raar te veronderstellen dat de TDP van de G100 wel hoger moet zijn :?

Simpelweg hierom: het ontwerp van de G100 zou dan meer dan 100% efficienter moeten zijn om dat haalbaar te maken. Iets, wat volgens mij, Snotkever en vele anderen nu, met de huidige stand der techniek, gewoonweg niet mogelijk is.
erg leuk bedacht en:

je gaat de fout in waar je zegt dat die vermeende g100 dan wel meer dan 100% efficienter zou moeten zijn. leg eens uit?

128 shader processors
780MHz core clock
512-bit memory width
Supports DX 10.1, VP3
gddr5

dus die hogere clock, dx10.1, vp3 support en virtual shaders zouden alleen kunnen met een lagere TDP als hij meer dan 100% efficienter is?

buiten dat het GPU ontwerp hier en daar efficienter kan, zijn er ook andere uiterst goed gedocumenteerde manieren om minder te lekken met een lagere TDP als gevolg. verfijningen in het productieproces kunnen ook zorgen voor betere specs op dat vlak.

ik zie in deze specs geen reden voor een enorme toename van het verbruik.
tel daar nog eens bij op dat gddr5 ram minder verstookt dan gddr3 ram?

[Reactie gewijzigd door bozotheclown op 31 december 2007 09:47]

128 shader processors
Zoals ik hierboven ook al gezegd heb in een reactie op je post is het hele idee van virtuele SPs compleet gestoord. Stel nu dat er een HT achtige technologie wordt gebruikt, wat toch zo ongeveer de enige manier zou kunnen zijn om te kunnen spreken van virtuele SPs. Zelfs bij Intel's HT is er in selecte situaties een winst van 30 procent behaald, en in andere situaties is het zelfs langzamer dan geen HT. Dit zou betekenen dat er voor elke SP op de kaart alle registers moeten worden verdubbeld, voor beide virtuele threads. Dit betekent dat het complete ontwerp op de schop moet, omdat de oude layout van de SPs hier geen ruimte voor heeft. Hierdoor wordt de chip alsnog een heel stuk groter, er moet veel en veel meer getest worden want het ontwerp is verschillend, drivers moeten helemaal opnieuw geschreven worden om uberhaupt gebruik te kunnen maken van de nieuwe virtuele SPs, enzovoort.
Aan de andere kant staat de mogelijkheid om gewoon een aantal extra cluster SPs op de kaart te zetten. De techniek is bekend, het ontwerp hoeft veel minder aangepast te worden, er hoeft minder getest te worden want het is bekend hoe de clusters werken, de drivers hoeven alleen zodanig aangepast te worden dat de nieuwe clusters ook aangesproken worden.
Tot slot, het verschil in performance loopt bij elk cluster gegarandeerd met elk cluster met 12,5 procent op ten opzichte van de G80/G92 architectuur. In tegenstelling werkt de HT-achtige SP alleen als er toevallig een cache miss of IO operatie moet gebeuren. Dit gebeurt echter wel in clusters, dus het is de vraag of een enkele SP uberhaupt wel kan overstappen naar de andere thread, of dat meteen het complete cluster die stap moet maken. (Als je bedenkt dat G80 een branching granularity heeft van 16 SPs is het redelijk om aan te nemen dat dit het geval is) In het tweede geval is dit iets dat je ook in een driver zo zou kunnen programmeren (en wat wellicht allang gebeurt) dat in dat geval automatisch een tweede set threads aan het werk gezet zal worden, het enige dat wat tijd scheelt is dat de registers niet opgeslagen en opnieuw geladen hoeven te worden.
Wat zou jij nou kiezen? HT-achtige problemen met als resultaat een magere winst van een paar procent, of een aantal extra clusters met een zekere winst van X procent meer rekenkracht?
ik zie in deze specs geen reden voor een enorme toename van het verbruik.
tel daar nog eens bij op dat gddr5 ram minder verstookt dan gddr3 ram?
Ook als je vier keer zoveel geheugen op de kaart zet?
In verband met die vooropgestelde 2GB aan geheugen zou men in het achterhoofd moeten houden dat meer en meer PC gebruikers/gamers overstappen naar LCD TV schermen, die een veel hogere resolutie hebben, zeker wanneer men over HDTV/BlueRay spreekt.

We weten allemaal dat de prestaties van, bijvoorbeeld, de eerste serie GTS-kaarten met slechts 320MB geheugen, bijna niet moesten onderdoen voor de GTX en Ultra.

Behalve in hogere resoluties... Wanneer men naar een dichtheid van meer dan 3000x2000 pixels zou gaan, is 2GB geheugen aan boord echt geen overdreven luxe.

Over de rest ga ik me niet uitlaten, aangezien mijn verdere technische kennis ontoereikend is.


JJ
LCD Tv's hogere resolutie :+

1600x1200=1920000
1920*1080=2073600

Niet echt veel, zeg. Als je zo'n kaart aanschaft vewrwacht ik trouwens ook wel een 24" of hoger scherm, eigenlijk wel een 30". Dat zijn pas resoluties, in plaats van de totale onzin die je post hier mee begint.

HDDVD/Blu-Ray is helemaal niet zo hoog voor PC's. Voor TV's wel.
Zelfs als je 3000x2000 pixels hebt en je gebruikt HDR, dan heb je maar 94 gig nodig voor de framebuffer. Zonder HDR is dat maar 23,5. Geheugengebruik wordt vooral steeds groter omdat textures steeds meer detail krijgen en dus meer ruimte innemen, niet omdat de resoluties hoger worden :)
De reden dat GTS320 het aflegde tegen GTS640 is dat er daar nog wel gebruik werd gemaakt van het extra geheugen. Veel games gebruiken op het hoogste detail meer dan 320mb, waardoor de 640mb kaart in die gevallen toch net iets beter presteerde. Bij 2gig gaat dat de eerste tijd echter nog zeker niet gebruikt worden.
Maar in het nieuwsbericht staat dat er 'gespeculeerd word' dus wat je hier boven schrijft kan menigt Tweaker ook wel bedenken
Als ik de reacties zo lees zie ik er anders genoeg die hier vrolijk over verder praten alsof het uberhaupt mogelijk is.
Als redactie van een website of krant of ander nieuwsmedium met enige journalistieke pretenties heb je toch de plicht om na te gaan of het nieuws dat je plaatst uberhaupt waar kan zijn? Iedereen die ook maar een beetje kennis heeft van GPUs en hun werking kan weten dat deze speculatie nergens op gestoeld is en compleet onhaalbare kaart is! Journalistiek is feiten checken, en zelfs als je niet direct verstand hebt van de materie ga je niet zomaar klakkeloos eigen meningen op een forum overschrijven. |:(

Bovendien, klinkt dit alsof er gespeculeerd wordt?
Op het forum van Vr-zone.com zouden de eerste specificaties van de GeForce 9800GTX, codenaam G100, zijn verschenen.
Voor mij klinkt het meer als een bericht dat onzeker is maar in ieder geval waar kan zijn, niet als iemand die z'n mening heeft gegeven op een forum.

Als tweakers.net graag speculatie over GPUs op hun website zet weet ik alvast een leuke website voor ze, beyond3d.com. Daar discussieren mensen nu al over wat er in (de echte) G100 en R700, en zelfs daarna zal komen, en zelfs dat is een stuk realistischer dan wat in dit bericht geplaatst is. Misschien dat de redactie daar ook vast wat van wil kopieren, als ze toch zo graag speculatie op hun website willen zetten :(
@ hierboven

Niet om het één of ander, maar ik lees toch echt dat het om virtuele shaders gaat. Dit blijven er dus gewoon 128, enkel wordt er nog een stel virtueel aangesproken, vraag me niet hoe...

Dit maakt toch wel een groot verschil t.o.v. het stroomverbruik. Daarnaast -mocht- dit waar zijn, dan praten we over een -onbekende- release periode. Dus wie zijn wij om nu al te roepen dat dit tegen die tijd niet mogenlijk is?

Begrijp me niet verkeerd, blijft een vaag bericht...
Niet om het één of ander, maar ik lees toch echt dat het om virtuele shaders gaat.
Sorry, maar ik heb nog nergens gelezen dat het om virtuele stream processors (shader is de naam voor de code die je er op draait, ze heten stream processors) gaat. Lijkt me ook erg sterk, want ik zou bij god niet weten waar ze ze vandaan zouden halen of hoe ze virtueel zouden kunnen zijn.
Daarnaast -mocht- dit waar zijn, dan praten we over een -onbekende- release periode.
Ten eerste is het niet waar, want het is persoonlijke speculatie van een random iemand op een forum (he bah, mijn speculatie-posts komen nou nooit op de tweaker frontpage ;)).
Daarnaast praten we niet over een onbekende release, want de poster heeft het over 9800GTX en D9E. Dit is een refresh van de uitgefaseerde 8800GTX, en NVIDIA is er al laat mee. Ze gaan er echt niet nog langer mee wachten, want een groot deel van de high-end kopers had afgelopen november al een high-end refresh verwacht, dus ze zijn winst en goodwill van de kopers aan het weggooien.
Verder lijken alle geruchten te wijzen op een release van D9E in Q1 dit jaar. Lijkt me sterk dat NVIDIA nog veel langer zonder high-end model wil zitten.
Tot slot blijft het stroomverbruik sowieso hetzelfde als het een 65nm chip is, wat ook in de originele post staat. Misschien dat een lager TDP mogelijk is op kleinere procedees, maar daar heeft het bericht het niet over, dus is het niet mogelijk.
Sorry, maar ik heb nog nergens gelezen dat het om virtuele stream processors (shader is de naam voor de code die je er op draait, ze heten stream processors) gaat. Lijkt me ook erg sterk, want ik zou bij god niet weten waar ze ze vandaan zouden halen of hoe ze virtueel zouden kunnen zijn.
http://www.google.com/tra...air=zh%7Cen&hl=en&ie=UTF8
SP unit 256 (using virtual technology, the actual remains 128)
Neemt niet weg dat je punten valide zijn, echter kan je het natuurlijk altijd van 2 kanten bekijken...

Blijf bij: Eerst zien, dan geloven ;)
als je dat nergens gelezen hebt dan zou ik als ik jou was de goede vertaling maar eens lezen:)

mensen mensen, wat is over dit onderwerp een enorme hoop ongeinformeerde onzin opgeschreven.

nogmaals. ik zeg niet dat deze kaart komt maar je kan heel goed meer performance hebben bij een lagere TDP. dat heet, nogmaals, een beter ontwerp!
nogmaals. ik zeg niet dat deze kaart komt maar je kan heel goed meer performance hebben bij een lagere TDP. dat heet, nogmaals, een beter ontwerp!
Dat je je TDP omlaag krijgt bij gelijk performance wil er bij mij best in. Als je echter ziet dat het energieverbruik tussen de G80 en G92 chips niet heel veel verschilt lukt het je niet om met de dubbele hoeveelheid SPs, een extra cluster TMU's en ROPs en een hogere core clock op hetzelfde procedee 10 tot 15 procent minder TDP te krijgen. Of G80 zou een rommeltje moeten zijn geweest, wat er bij mij ook niet in wil.
het is niet het dubbele aantal SPs, lees maar goed en ik geloof best dat de G80 de markt op gejaagd is en dat ze een veel zuinigere G80 hadden kunnen produceren.
Dat van de virtuele SPs is wel het meest onzinnige dat ik in het hele bericht heb gelezen. Als we de komende generatie 'virtuele' stream processors op een videokaart krijgen (ik vraag me af hoe je uberhaupt een virtuele processor kan hebben, zelfs HT kun je niet zo noemen) eet ik m'n schoen op.
Dat G80 energie verspilde zou best kunnen, maar het lijkt me dan wel dat ze dat hebben aangepakt in G92, en niet dat ze daar nu twee maand later mee aankomen.
neej joh, die g92 is een die shrink en een klein beetje feature addon.
bekijk maar eens hoeveel een GTS512 verbruikt

[Reactie gewijzigd door bozotheclown op 31 december 2007 13:14]

Dat virtueel aanspreken, lijkt dat niet op Intel´s HT technologie, dat is toch hetzelfde principe?
Ja en nee. HT gaat uit van een beperkt aantal onafhankelijke threads, en wanneer een van de twee threads tijdelijk uitvalt (cache miss, IO, etc), dan neemt de andere thread het over. De CPU verschilt echter flink van de GPU. Een GPU heeft duizenden threads tegelijk, die allemaal gelijk met elkaar moeten lopen op een cluster SPs (de SPs op de G80 zijn erg 'dom', in dat opzicht).
Het grote verschil tussen de twee is dat de shadercode in een GPU erg makkelijk te voorspellen is. Je kan van te voren al zien welk pad door de shader code genomen gaat worden, waardoor de driver al ontzettend veel kan optimaliseren, en kan zien wanneer er gewacht moet worden op het geheugen. Aan de andere kant staat de CPU waarbij compleet onduidelijk is welk pad door de code gevolgd gaat worden. Daarom zijn zaken als out-of-order execution en branch prediction belangrijk. Daarom werkt hyper threading, want niemand weet wanneer er een cache-miss of IO operatie moet gebeuren.
Als je het originele bericht gaat bekijken (in het chinees) dan staat er op de laatste regel onderaan:
Dit is gebaseerd op persoonlijke speculaties.
Geen harde bewijzen dus.

Bovendien zie ik hier geen logica in.
Van 756mb ineens naar 2000mb geheugen?

Nou maar hopen dat ze hem toch op de CES gaan introduceren :9~

[Reactie gewijzigd door justifire op 30 december 2007 13:17]

Bovendien zie ik hier geen logica in.
Van 756mb ineens naar 2000mb geheugen?

Nou maar hopen dat ze hem toch op de CES gaan introduceren :9~
Gezien het feit dat je om crysis in de hoogste settings te draaien minstens 2 GTx'en in SLI moet knallen wil 't een beetje lopen, lijkt het me niet vreemd om zoveel geheugen ter beschikking stellen? (Vooral niet icm een 512-bits bus...da's 200GiB/s 8)7 ) Met 256 streamproc's@700+ mhz is een zo'n kaart even snel als 't eerder genoemde SLI-setje die ieder de helft aan procs on board heeft.


* Rey Nemaattori heeft iig een goede opvolger voor zijn 7950GT gevonden...nu nog sparen :+
Waarom zou je 2 gig geheugen nodig hebben terwijl 2 GTX'en in SLI het net op high kunnen? Als videokaarten in SLI staan dan wordt wel het rekenvermogen opgetelt (minus 20 ~ 40% ongeveer) maar het geheugen niet! Dit is omdat in omdat elke videokaart hetzelfde in zijn geheugen op moet slaan (als je dat verhaal wilt weten waarom enzo moet je maar even googlen).

Denk dat 1 gig wel meer dan genoeg is, vooral met die enorme bandbreedte die ze hiermee moeten krijgen.

Edit @ hieronder: Ow heb je dat verderop gelezen? Stond er niet iets in mijn bericht over dat je rekenkracht wel mag optellen maar het geheugen niet bij elkaar op mag tellen?

[Reactie gewijzigd door SRI op 1 januari 2008 12:06]

2 GTX'n in SLI hebben anders wel 1536MB om de 256 streamprocessors te voeden. 2048MB voor een enkele GPU met 256 streamprocessors is dus niet zo extreem als je daar stelt.

Het is anders gezien natuurlijk wel waar dat de opgetrokken geheugenbandbreedte wel iets zal kunnen opvangen, maar als je geheugen nodig hebt omdat je graag AA en AF zo hoog mogelijk zet, dan kun je dat niet compenseren met hogere geheugen kloksnelheden.

edit: oh, hieronder net gelezen dat bij SLI elke kaart het geheugen van alle kaarten in de SLI array in zijn eigen geheugen moet hebben zitten. Dan gaat mijn verhaal natuurlijk niet op.

[Reactie gewijzigd door IveGotARuddyGun op 31 december 2007 12:44]

mischien is dit wel de kaart die Crysis @ ultra-high kan spelen.. (@ 30fps +) alleen denk ik wel dat 2gb geheugen overdreven is.. eerder 1 gb..

[Reactie gewijzigd door Kwastie op 30 december 2007 13:25]

Van 768MB naar 2048MB bedoel je :) En zo'n lager TDP terwijl ie 2x zoveel shaders heeft en 2 GB RAM .. nehhh, beetje "wishful thinking" vermoed ik. Dat het een monster wordt lijkt me echter wel duidelijk ...

Een 512bits geheugenbus klinkt wel logisch, een goedkoper model zal dan b.v. een 256bits bus krijgen met 128/192 shaders en 512/1024MB RAM.
Hoe is dit nu mogelijk?
15% minder TDP dan op een 65nm gebakken 8800GTS?
je hebt dubbel zoveel shaders + een dubbel zo grote geheugencontroller, de grootte van deze chip gaat dus echt enorm zijn moest dit waar zijn. toch zeker 1.5 - 2.0 keer zo groot als de huidige 8800GTS en toch gaat deze chip minder verbruiken?
=> FAKE
bovendien past die logic misschien zelfs niet meer op 65nm. Er zijn toch grenzen aan de die-size ook. En ze zitten nu reeds op 600miljoen transistors.

nee, ik geloof er ook niet alles van, want een dubbel zo brede memory-bus kost ontzettend veel transistors. ATi is met z'n 3870 ook teruggekeerd van de 512bit brede bus op de 2900xt die massas verbruikt.

vergeet ook niet dat elke IO-pin die moet gestuurd worden ook verbruikt. niet alleen de core van de chip verbruikt stroom.

dus ik zou eerder vermoeden dat het een 45nm chip wordt.
45nm is riskant omdat ze daar nog geen ervaring mee hebben, je laat bijna altijd eerst de budget chips op een lager proces geproduceerd worden om zo ervaring op te doen.
een high end chip op een volledig nieuw proces is nogal risky
55nm is darentegen makkelijk haalbaar omdat die een zogenaamd half-node proces is.
Het zou natuurlijk ook kunnen dat de shaders iets anders aangestuurd gaan worden, zodat ze eigenlijk nooit allemaal tegelijk gebruikt worden. Dan neemt wat dat betreft het verbruik niet echt toe, hooguit door de extra buffers die dan nodig zijn.
Ik weet ook niet of de geheugeninterface van gddr4 meer verbruikt dan die van de gddr5, maar daar zou eventueel nog wat verschil in kunnen zitten.
TDP = thermal design power

de max dat de chip ooit kan verbruiken
ze kunnen mss, met de dingen die jij voorstelt, het gemiddelde stroomverbruik omlaag halen, maar het TDP niet.
ze kunnen mss, met de dingen die jij voorstelt, het gemiddelde stroomverbruik omlaag halen, maar het TDP niet.
Ik zou zeggen lees dan dit artikel eens door.
Daarin staat oa. dat bijv Intel kijkt naar de hoogste belasting die in de praktijk gehaald kan worden.
welja, de hoogste belasting die in praktijk gehaald wordt... dus als alle shaders gebruikt worden door een game e?
dus wat ik zei klopt nog steeds
dus wat ik zei klopt nog steeds
Nee, lees dat artikel maar eens.
Daarin wordt als voorbeeld genoemd dat de processoren gewoon niet snel genoeg data kunnen verplaatsen om alle onderdelen tegelijk te gebruiken.
Dus de max warmte die verstookt wordt is heel waarschijnlijk lager dan wat je zou verwachten bij een verdubbeling van het aantal sub-processoren, puur door bandbreedte beperkingen, of andere problemen waar je als processor tegenaan loopt, zodat het in de praktijk dus niet eens mogelijk is om alle shaders tegelijk te gebruiken.
Lees jij het artikel nog maar eens 8)7

door bandbreedte beperking kan je dus je cpu niet ten volle laten werken? ook iets nieuw.
en het gaat hier wel om GPU's niet CPU's. Deze zijn totaal verschillend. Een gpu werkt vooral parallel en met immens veel threads in vergelijking met een CPU.
Bij een GPU is het veel makkelijker om alles te benutten hoor...
Mss nog wat meer lezen eer je onzin begint uit te kramen?

Trouwens dan geldt dezelfde vergelijking bij jouw fantasie TDP ook voor de huidige GTS en is het dus onmogelijk om daar onder te gaan met dubbel zoveel shaders en een dubbele geheugeninterface
je hebt speciale stress test programma's waar mee dat wel kan. en dan staat ie ook de hele test op de volle 100%. vr CPus in ieder geval. zal dan met gpu ook kunnen
Het zou natuurlijk ook kunnen dat de shaders iets anders aangestuurd gaan worden, zodat ze eigenlijk nooit allemaal tegelijk gebruikt worden.
Als ze nooit allemaal tegelijk gebruikt worden is het verspilling van ruimte om ze uberhaupt op de chip te zetten. Grotere chips zijn duurder en hebben lager yields, dus ze zijn niet gek.
Als ze nooit allemaal tegelijk gebruikt worden is het verspilling van ruimte om ze uberhaupt op de chip te zetten. Grotere chips zijn duurder en hebben lager yields, dus ze zijn niet gek.
Dat ze nooit tegelijk actief zijn, wil niet zeggen dat het geen snelheidswinst kan opleveren. Ik kan mij namelijk voorstellen dat zo'n shader niet elke tik een volledige berekening doet, maar dat het een pipeline is van een aantal rekenstappen. Zo kan het zijn dat niet elke stap evenveel energie vraagt, dus als je dan bijvoorbeeld de even shaders 1 stap (of iets meer stappen) "achter" laat lopen op de oneven shaders, dat het gemiddeld verbruikte vermogen dan een stuk lager is.
Grotere chips zijn wel duurder inderdaad en hebben ook lagere yields, maar als je verschillende versies uitbrengt, dan kun je een chip met een paar niet goed functionerende shaders bijvoorbeeld ook verkopen als een low-end model.
Het procèdé zegt niet alles, maar ik ben met je eens dat dit wel heel optimistisch klinkt. :)
als je op hetzelfde procede blijft als je vorige chip maar je hebt 2 keer zoveel logica gaat je chip wel enorm groot worden en dus zeker meer verbruiken
het is niet het dubbele aantal shaders. het zijn 256 virtual shaders en 128 echte.
verder is het heel goed mogelijk om meer power minder watts te laten verbruiken.

dat wil natuurlijk niet zeggen dat dat hele verhaal waar is. dat zien we wel.

[Reactie gewijzigd door bozotheclown op 30 december 2007 20:19]

Hoe kan het dat Nvidia opeens zó hoog gaat stijgen met het geheugen en de kloksnelheid? Volgens mij zijn zulke ontwikkelingen in een jaar nog nooit zo erg omhoog gegaan, en zou deze kaart niet veel sneller zijn dan de huidige generatie kaarten? Het zal me niks verbazen als deze meer dan ¤750 zal kosten.
Idd zeker als je kijkt naar de r600 die bleek aan 512bit op 1600mhz al veel teveel te hebben en dan heeft deze ineens de dubbele bandbreedte. Lijkt me niet waarschijnlijk.

De hoeveelheid lijkt me ook vreemd gddr5 zal wel duur zijn in het begin en om er dan meteen 2 GB van op te doen :-S

1GB gddr4 met een 512 bit bus of 1GB gddr5 met een 3xx bit bus lijkt me veel waarschijnlijker.

[Reactie gewijzigd door martijnve op 30 december 2007 13:07]

gddr5 is gewoojn belachelijk. het is gddr4.
( als dat al klopt. )
2gb is overkill. 1 gb is logischer.
512 bit bus geloof ik wel in. je wilt meer bandbreedte en de hd2900 had er ook al zo een dus dat zal niet misstaan bij een generatie later.
zeker als de mid range een 256 bit bus gaat krijgen.
( wat waarschijnlijk gaat gebeuren)

al met al vind ik het twijfelachtig. vooral gddr5 en lager tdp..
maar 256 sp's en 512bit brede bus geloof ik wel in .
maar ik geloof dat iedereen een leuke educated guess had kunnen maken en een bericht posten met: kijk mij ik heb da specs...
Hoezo is GDDR5 nou weer belachelijk? Het bestaat gewoon.. Ze zijn alweer bezig met GDDR6 te ontwikkelen
GDDR4 is min of meer al afgeschreven voor high en kaarten, nvidia heeft dat niet eens op hun 8800 serie geplakt en Ati wel op hun serie's, die langzamer zijn.

[Reactie gewijzigd door KappeNou op 30 december 2007 18:11]

Hoezo is GDDR5 nou weer belachelijk? Het bestaat gewoon..
Omdat het pas in de loop van 2008 in massa-productie gaat. De eerste kaarten met GDDR5 zullen waarschijnlijk pas in de tweede helft van het jaar komen, op z'n vroegst
Dus gaan we voor de paperlaunch van nVidia's G100 totdat de kaart eindelijk in Q3 2008 leverbaar is?
De geruchten machine zal wel een belangrijk detail zijn vergeten dat die heoveelheid juist voor de proffesionele versie zal gelden.
de prijs zal eerder rond de ¤600 zijn denk ik kijk maar naar de prijs van de 7950gx2 en de 8800gtx bij introductie.
Dat is wel heftig zeg: die specs. alleen ik vraag me af wat dat wel niet moet gaan kosten. Als je kijkt naar wat een 8800GTX bij de introductie koste, en dan dit er tegenover zet denk ik dat je toch zeker een goed gevulde portomonee mag hebben.
Ik hoop dat AMD dit nog kan bijbenen als ze zo heftig moeten gaan vechten op 2 fronten zullen ze er een harde dobber aan gaan krijgen.
Dat zal allemaal wel niet zo'n vaart lopen vermoed ik, integendeel:

De highend markt heeft ATI al een behoorlijke poos niet meer in handen. De G92 8800GT en GTS zijn door ATI zonder meer al nauwelijks bij te benen.

Maar daar gaat het niet om, de high-end cards bepalen maar een kleine fractie van de omzet en winst van de bedrijven.

Op de mainstream markt doet ATI het nog helemaal zo slecht. De futloze 2X00 serie zie je in tal van budget systemen en op het midden gebied hebben ze met de 3850 een fantastisch produkt in handen. Als je de pre-order prijs van sommige bedrijven als referentie neemt , komt peak binnenkort met een 3850 voor rond de 130 euro. Deze is rapper dan de 8600 GT# series en wordt slechts bedreigt door de 8800 series van NVidia die een kleine 100 euro duurder is.

Bovendien komt ATI zeer binnenkort met 3 nieuwe value kaarten:
http://core.tweakers.net/...radeons-gesignaleerd.html

Last but certainly not least: Hybrid crossfire. Twee goedkopere ATI kaarten kunnen in potentie sneller werken dan een duurdere Nvidia kaart, maar op het moment alleen als de applicaties crossfire voldoende ondersteunen. Dit euvel van niet geoptimaliseerde applicaties (deels) ondervangen worden met de HybridCrossfire techniek een combinatie van een nieuwe RS780 chipset met 2 crossfire kaarten (vanaf 34XX series) die een winst van 40 tot 70% zou moeten opleveren.
(zie ook :
[a] nieuws: AMD onthult details over hybride Crossfire-techniek
[b] http://www.anandtech.com/video/showdoc.aspx?i=3178 )
Bovendien lijkt ATI's crossfire beter te schalen dan Nvidia's SLI.

Kortom: ja de top voor enkelvoudige GPU's is ATI kwijt, maar in het lage en midden segment staan ze er technisch gezien helemaal zo niet beroerd voor en als het op multi-GPU's aankomt lijken ze een tandje voor te hebben.

[Reactie gewijzigd door vladimirN op 31 december 2007 02:08]

ATI heeft zijn eigen experts voor hun GPU en ze hebben geen tot weinig invloed op de x86 processors.
Ik neem aan dat ze wel de financien moeten delen. Dat zou wel eens een probleem kunnen zijn.
[mierenneuk] zware dobber [/mierenneuk] ;)

Maar idd zal AMD weer even flink wat werk moeten gaan verzetten.
Het zou natuurlijk best kunnen dat AMD al lang bezig is met een nieuw model

Word de DDR4 standaard dan nu overgeslagen door nVidia?
Want op de ATI kaarten zit alleen DDR4 toch?
iets te heftig zelfs.
geen kleiner process, meer shaders hogere clocksnelheid en toch een lager TDP?
ik neem deze specs in ieder geval met een flinke korrel (zak?) zout.

edit : justifire hieronder heeft het blijkbaar vertaald en de laatste zin van de bron luid
"Dit is gebaseerd op persoonlijke speculaties."
snap dus niet dat tweakers.net dit post. het is bijna net zo erg als het nieuws item over die screenshots van 3dmark08 die ze laatst even op de frontpage stond maar ze snel weer hadden weggehaald nadat bleek dat ze fake waren, wat ze met iets meer zoeken zelf al hadden kunnen weten.

edit 2 @ newinca : nieuws kopiëren van andere (min of meer) betrouwbare bronnen is toch wel iets heel anders als het posten van een random Chinese forum-posters natte-droom.

[Reactie gewijzigd door Countess op 31 december 2007 17:43]

"Dit is gebaseerd op persoonlijke speculaties."
snap dus niet dat tweakers.net dit post.

Is dat niet in 95% van de gevallen de modus operandi van deze site? Het is verduidelijk dat tweakers geen exclusieve mollen heeft in de industrie. De enige manier van 'nieuwsgaring' is dan het copieren van andere sites. Nu zijn er massa's anderen die net hetzelfde doen, niets mis mee, alleen merkt tweakers dit soort berichten meestal ook nog eens 3 dagen later dan al de rest...
Meestal het geval met high end kaarten toch? Ben vooral zeer te spreken over de TDP (mocht dit ook echt zo zijn). Daarnaast goed om te horen dat ie met een 512 bit bus komt, mag ook wel voor de 2gb GDDR5 :P

Zal iig vast een big step up zijn vanuit de huidige 8800GTX...
Op zich is het wel logisch dat als de specs kloppen, dat hij minder gaat vebruiken. GDDR5 onder andere heeft maar 1.5v nodig (20% minder dan GDDR3*) En ze zeggen niet dat het verbruik lager ligt dan die van de 8800 GTS 512 dus in dat geval maken ze ook gebruik van een zuiniger procedé (65nm vs 90nm).

*bron: http://core.tweakers.net/...-met-gddr5-productie.html
Het geheugen gebruikt niet het meeste stroom van de kaart. Daarnaast kan het stroomverbruik niet lager liggen dan een GTS512, want dat is al een 65nm chip. Al ze dan het aantal SPs gaan verdubbelen is het gewoon onmogelijk dat ze minder stroom gaan verbruiken.
Lekstromen verminderen?
Als ze binnen twee maand een kaart uit kunnen brengen die minder dan de helft aan stroom verbruikt, denk je dan niet dat ze even hadden gewacht met de 8800GT en GTS, zodat ze diezelfde technieken daar ook in konden gebruiken?
Natuurlijk niet. Nvidia heeft aan de bovenkant zo ongeveer een monopoliepositie. Waarom zouden ze die klanten niet helemaal uitmelken?
Ik vind dat ze daar al mee begonnen zijn met de 8800GTS 512MB, maar dat is mijn mening.
Natuurlijk niet. Nvidia heeft aan de bovenkant zo ongeveer een monopoliepositie. Waarom zouden ze die klanten niet helemaal uitmelken?
Omdat ze nu nog concurrentie hebben van ATI. Stel je voor dat je de keuze hebt als NVIDIA management. Je weet dat ATI met de HD3870 en HD3850 komt. Ze kunnen niet op tegen je eigen 8800GT, maar ze zijn goedkoper, dus er zijn vast veel mensen die zo'n kaart gaan kopen. Nu heb jij dus de 8800GT en GTS klaar liggen. Dit zijn de kaarten zoals ze nu ook in de winkel liggen. Je hebt echter ook een geweldig coole technologie voor februari, waarmee je opeens de TDP kan halveren, en dus de clocksnelheid ontzettend veel hoger kan leggen. Als je dat gebruikt krijg je een 8800GT die gehakt maakt van de 8800Ultra, je moet alleen even een paar maanden later releasen. Wat ga je dan doen? Ga je gewoon die kaarten uitbrengen terwijl je weet dat ATI een goeie concurrerende kaart biedt? Of wacht je even totdat je voor een zelfde prijs een kaart uit kan brengen die ATI helemaal de klop geeft? Lijkt mij toch het laatste.
De 2GB zal wel maximaal zijn. Er zijn ook Series 8 kaarten te vinden met 1GB geheugen.

Dus er zullen echt wel 256MB, 512MB en andere geheugen varianten komen, maar de specificaties laten gewoon een maximum van 2GB toe.

Je moederbord specificaties melden ook het maximale geheugen wat het aankan.
2gb gddr5? yeah right, je ziet nu al wat een problemen er zijn met gddr4.
je gaat mij niet vertellen dat ze op elke kaart 2gb gddr5 plakken. zo en zo op wat voor resolutie wil je draaien om de 2 gig vol te krijgen?

nee dit klinkt echt niet aannemelijk.
zo en zo op wat voor resolutie wil je draaien om de 2 gig vol te krijgen?
Beetje 24" scherm heeft al een native resolutie van 1900*1200? Om daar een beetje dx10 spel in te rammen heb je zo je mem vol.... en dat zijn spellen van nu, misschien dat over een jaar als dit ding uitkomt spellen wel veel méér geheugen in beslag nemen...
Ja, want 1900*1200*16bits per pixel (HDR) is ook wel 35 hele megabytes. Ik zie inderdaad meteen de noodzaak om 2gig op de kaart te zetten.
Ik zie inderdaad meteen de noodzaak voor een basiscursus 3D rendering.

Elk object dat je ziet op je scherm heeft een 3D model. (Denk aan een wireframe) Dan worden alle zijden opgevuld met een textuur. De 3D modellen zelf zijn niet zo groot maar die texturen wel. Daar komt die enorme hoeveelheid geheugen van pas. Die 35MB waar jij het over hebt is de laatste stap als de GPU klaar is met renderen en alles doorstuurt naar je scherm.

[Reactie gewijzigd door VTOLfreak op 31 december 2007 00:28]

Ik ben game programmeur en in mijn vrije tijd mag ik graag shadercode schrijven, dus ik weet waar ik heb over heb. Ik ging er alleen van uit dat Rey hierboven bedoelde dat je op hoge resoluties meer framebuffer gebruikte en daarom wel 2 gig nodig zou hebben, niet dat hij hogere resolutie textures bedoelde.
Ja, want 1900*1200*16bits per pixel (HDR) is ook wel 35 hele megabytes. Ik zie inderdaad meteen de noodzaak om 2gig op de kaart te zetten.
Als je op die resoluties gaat spelen, neemt de noodzaak van high-res textures ook wel toe, dus dan zit je al snel richting enkele MB's/texture, als bepaalde objecten op een gegeven moment bijna beeldvullend in beeld komen.

Verder kan ik mij goed voorstellen als je zo ongelooflijk veel shaders aan het werk wilt houden, dat je bepaalde data op hetzelfde moment op meerdere plekken in het geheugen (in meerdere chips) moet plaatsen, puur om het tempo erin te houden.
Als je op die resoluties gaat spelen, neemt de noodzaak van high-res textures ook wel toe
Dat klopt, daar had ik zo niet aan gedacht.
Verder kan ik mij goed voorstellen als je zo ongelooflijk veel shaders aan het werk wilt houden, dat je bepaalde data op hetzelfde moment op meerdere plekken in het geheugen (in meerdere chips) moet plaatsen, puur om het tempo erin te houden.
Nou, dat is lastig omdat shaders niet naar het geheugen kunnen schrijven. Data wordt altijd gestreamd van draw call naar vertex naar pixel shader, tot het uiteindelijk in de framebuffer terecht komt. :)
Nietzozeer voor de resolutie maar voor 'n grote veelzijdigheid aan HQ textures op hoge reso is dat wel goed te gebruiken.
Daarnaast zou SLI een reden kunnen zijn om meer geheugen op een enkele kaart te plakken. Gezien iedere kaart hetzelfde in het geheugen heeft....

Heb je op deze manier de mogenlijkheid om een TRI-SLI systeem neer te zetten wat 2gb kan gebruiken...

Maar blijf er bij:
Eerst zien, dan geloven... :P
Daarnaast zou SLI een reden kunnen zijn om meer geheugen op een enkele kaart te plakken. Gezien iedere kaart hetzelfde in het geheugen heeft....

Heb je op deze manier de mogenlijkheid om een TRI-SLI systeem neer te zetten wat 2gb kan gebruiken...

Maar blijf er bij:
Eerst zien, dan geloven...
Als deze kaarten al ooit gemaakt gaan worden (wat niet het geval is, want het is een persoonlijke inschatting op een forum), dan gaan de kosten echt ver over de 600 euro heen, wellicht zelfs 700 tot 800 euro. Leuke rekening wordt dat dan, voor SLI :P

Dan nog blijft het overkill om 2 gig op een kaart te zetten. Of je ze nou in SLI zet of niet, niemand gebruikt 2 gig.
Ach bij de vorige serie was 768 vast vette overkill, en de serie daarvoor was 512 veel te veel, en die daarvoor 256.. enz enz enz :)

Overkill is snelheid in welke vorm in een computer NOOIT.

Hoe sneller hoe beter, het is wel zo dat een ander apparaat het mischien niet meer kan bijbenen, maar ja, dan moet je daar ook maar een snellere variant voor halen.
Ach bij de vorige serie was 768 vast vette overkill, en de serie daarvoor was 512 veel te veel, en die daarvoor 256.. enz enz enz
768 was geen overkill, want Doom3 (2004) had al 512mb kaarten nodig om op het hoogste detail te draaien. Misschien dat de volgende stap 1 gig is, maar ik durf te wedden dat het nog nooit in de geschiedenis van GPUs gebeurt is dat de hoeveelheid ram tussen twee generaties high-end kaarten verdriedubbelde. De mid-range kaarten van nu hebben nu sinds de 8800GT zo'n beetje standaard 512mb geheugen, en dan zou dat opeens verviervoudigen? Kom op zeg.
Bovendien, wie zou er ooit gebruik van maken? Het duurt gemiddeld twee tot vier jaar om een spel te ontwikkelen, en ontwikkelaars extrapoleren de huidige trends een beetje om de high-end tegen release tijd in te kunnen schatten. Niemand houdt rekening met 2 gig, dus het duurt dan nog minstens een jaar voor er uberhaupt games op de markt komen die het gebruiken. Onzin dus.

[Reactie gewijzigd door Snoitkever op 30 december 2007 14:47]

Snoitkever, ik weet anders nog heel goed dat ik overstapte van een 12mb Monster 3DII kaart, naar een Geforce (1) kaart met: jawel, 32mb. Dat is dus precies even veel als de overstap van 768mb naar 2048mb. Dat ter informatie. Verder denk ik eerlijk gezegd niet dat er veel van de specificaties klopt, maar hopen doe ik natuurlijk wel! ;)
Bij die voodoo 2 zat waarschijnlijk ook nog een 2D kaartje met eigen geheugen, dus de vergelijking van die 12MB voor een 3D accelerator vs de 32MB voor een all-in-one grafische kaart gaat niet helemaal op. ;)
Das dus gewoon de pricerange van de Ultra, niet zo bijzonder dus ;)

En tsja, die 2 gig overkill? Tis maar hoe je bekijkt... Maar das een eindeloze discussie die al vele malen eerder is gevoerd...
26 jaar gelden zijden zo ook al 16kb dat gebruikt niemand das veel te veel geheugen en kijk nu eens en ik zeg gaat niet stoppen bij 2gig zeker weten
Heb je uberhaupt gelezen wat ik in de bovenstaande post zei? Tuurlijk komen we binnen de paar jaar op 2 gig videogeheugen, het is alleen nu niet nodig en te duur.
het gaat erom dat je met 2 gb geen performance winst heb tenopzichte van 1 gb. of 1.5 gb
dus is het overkill. zo moet je het zien
nou en, 700-800USD. Mijn 8800GTX heeft ook bijna ¤600 gekost.hij was nl net op de markt toen ik hem kocht. moet ik het even voor je uitrekenen? hoeveel 700-800USD in Euros is?

en bij voorbaat voor hen die pessimistisch zijn, die onzin van de prijs in USD is hier de prijs in EUR gaat in heel veel gevallen niet op. het is inmiddels vaak gewoon een nette omrekening.

[Reactie gewijzigd door bozotheclown op 30 december 2007 20:23]

nVidia zou de voorsprong op ATi/AMD flink vergroten als ze deze chip weten te produceren met ook nog eens een lagere TDP. Waarschijnlijk wordt dit wel de generatie waarop DirectX 10 games iets normaler te spelen zijn, want de preformance bij de huidige DX10 kaarten is nog niet echt top...
Dit gaat -als de specs waar mochten zijn- een behoorlijke dreun voor Ati worden. Hun R700 is uitgesteld naar eind 2008, of begin 2009. nVidia heeft dus zowat heel 2008 vrij spel op deze manier.
de r700 is niet uitgesteld. het platform waar de r700 bij hoord komt pas in 2009 uit.
de r700 zelf is nog gewoon op schema voor eerste helft 2008.
dat heb je zowieso nodig als je een topmodel in huis wilt hebben.
Maar verder leuke specificaties kan je wel aardig op gamen dacht ik zo :9 (rest van systeem moet ook snel zijn uiteraard)

edit: reactie op martijn00

[Reactie gewijzigd door rvdbee op 30 december 2007 13:07]

Tja als dit waar is wordt dit serieus de vervanger van mijn 8800 gtx(hoewel die nog steeds goed mee kan, behalve crysis) 15-25 procent lager stroomverbruik als de gts(die dus ook nog minder verbruikt als de gtx) is wel heel mooi. Dan kan die misschien single slot zijn. Alleen lijkt het te mooi om waar te zijn

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True