Beeldmateriaal GeForce 8800 Ultra duikt op

De mannen van The Inquirer hebben het eerste beeldmateriaal van de GeForce 8800 Ultra gepubliceerd. Deze kaart wordt het nieuwe topmodel van nVidia en zal volgende maand geïntroduceerd worden.

De GeForce 8800 Ultra maakt gebruik van een nieuwe revisie van de G80-chip die minder stroom verbruikt en op een hogere snelheid geklokt kan worden. De Ultra-editie krijgt 768MB gddr3-geheugen met een kloksnelheid van 2,35GHz terwijl de core op 675MHz geklokt zal worden. Ter vergelijking: de GTX-variant heeft het geheugen op 1,8GHz lopen en de core op 575MHz. De hogere kloksnelheden worden deels mogelijk gemaakt door de nieuwe koeler. Deze neemt de gehele lengte van de kaart in beslag en koelt nu ook het spanningsregulatie gedeelte van de kaart. Verwacht wordt dat de GeForce 8800 Ultra halverwege mei, ongeveer gelijktijdig met de Radeon HD 2900 XT, geïntroduceerd zal worden.

GeForce 8800 Ultra

Door Hielko van der Hoorn

26-04-2007 • 20:46

84

Bron: The Inquirer

Reacties (84)

84
83
30
0
0
43
Wijzig sortering
De kloksnelheid van het geheugen ligt anders wel 30% hoger en dat is toch een indrukwekkende boost.
Reken daarbij dat de core ook 18% sneller loopt en op de allerhoogste stand mag je denk ik rekenen op een 20% fps boost.

36 fps ipv 30 merk ik echt wel hoor. :)

Deze kaart lijkt mij interessant voor mensen die net een SLI 8800 in gedachten hadden.
Zo heb je minder stroomverbruik en zeker ook voldoende kracht voor de allerzwaarste games.
Knap, zeker als je bedenkt dat je hersenen slechts 28 beelden per seconde kunnen vrwerken ...
Daarom merken we ook geen groot verschil tusen 50 en 100 hertz :?
Als het nou constant 28 FPS was, dan klopt het. Gezien het feit dat dit in-games niet zo is, kunnen we het vanaf 43 FPS niet meer zien op een CRT-monitor. En vanaf 53 FPS niet meer op een TFT-monitor. Dit zeg ik uit eigen ervaring, en heb dus ook geen idee waarom ik meer FPS zie in een TFT-monitor.
Q3 voelt thans vlotter aan op 250fps dan op 50fps. Voorwaar.
Hoger als je refreshrate merk je sowieso niet, omdat hij dan gewoon niet meer beeldjes weergeeft.
Jammer voor jouw hersenen :P
wat is verwerken? en wat is opmerken? Je ogen kunnen rond de 100 a 120 fps waarnemen. De periferie van je netvlies kan dat zien. Je gele vlek kan maar 50 a 60 zien. Kort om ze kunnen 50 en 100 fps egt wel onderschijden. Maarja meer dan 50 frames is eigenlijk raar omdat je toch niet mer je periferie van je oog naar je beeldscherm kijkt bij games =).
@ peke:

hou je er wel rekening dat de minfps. een stuk langzamer omhoog gaat tvm de maxfps. ?
Procentueel gezien verandert er niets, de prestatiewinst zal ook op de min fps rond de 20% liggen.

Ik vind SLI ook maar niets want je haalt geen 100% winst door de extra overhead, daarom vind ik deze kaart zo interessant voor de mensen die SLI aan het overwegen zijn.
Ja tuurlijk, dat zal je merken in DX10 titles die zitten rond die FPS. als het zover is. Het meeste dX9 meuk wat uit is nu zit je al snel ver boven 60FPS bij gemiddelde Setups en monitoren.

SLI is meer iets voor 'n rijke stinkerd die Crysis op 'n 30" in volle native reso wil draaien.
De GeForce 8800 Ultra maakt gebruik van een nieuwe revisie van de G80-chip die minder stroom verbruikt
Ben dan wel benieuwd hoeveel minder stroom deze nieuwe G80 verbruikt?

Als deze in de buurt komen van de 7900 Serie dan hebben ze het goed gedaan.

Het ziet er naar uit dat Nvidia een stuk voor ligt op (AMD) ATi. Aangezien ATi nu pas met een nieuwe op de markt komt. En Nvidia nu alles uit de G80 haalt.
Ben dan wel benieuwd hoeveel minder stroom deze nieuwe G80 verbruikt?
Hier gaan we weer ... Stroomverbruik is in deze klasse van kaarten totaal niet relevant. Niemand die deze kaarten koopt is geinteresseerd in het stroomverbruik. Prestaties is alles wat telt voor een top of the high end kaart.
Minder stroomverbruik is anders weldegelijk een leuke extra. Én het is een hype sinds Gore zijn film heeft gelaunchet. =)
laat ze eerst maar eens meer als 1000 van deze dingen leveren. dit ruikt gewoon naar de ATI launch verpesten met een PE edition.

en nvidia haalt nu alles uit de g80, en ATI begint er net alles uit te halen, want daar zit nog een stuk meer in waarschijnlijk.

edit : die problemen kwamen voor de die shrink naar 65nm, erna zijn er geen negative berichten meer geweest over de yields.
de r600's zullen iniedergeval goed te krijgen zijn in de winkels, dat moet ik van deze kaart nog zien.

edit @ : ga je weer tegen me in aval0ne? vorige keer ging het ook niet erg goed. beetje misnoegd over de lage prijs van de XT? :P
falen r600? hij is laat ja maar met 40% meer FPS in oblivion voor een bijna gelijke prijs als een GTS is heeft hij zeker niet gefaald nu hij er eindelijk is.
ATI slaat gewoon even halve generatie over nu.
en die dx10 kaart van nvidia heeft nog niet eens in benchmarks kunnen laten zien dat hij ook daadwerkelijk goed is in DX10. leuk voor ze dat ze vroeg waren maar praktische heb je er nog niet veel aan.
Waarom is de XTX dan weer eens uitgesteld? De release vande XTX wordt een zoveelste paper launch.
maar waarschijnlijker is het gewoon de prijs en beschikbaarheid van gddr4.
de core is namelijk niet veel hoger geklokt en verder precies het zelfde.
Gezien het uitstel van de ATi kaarten lijkt het er eerder op dat ze oorspronkelijk niet tegen de G80 op konden. Door nog wat aanpasingen te doen op het gebied van die-shrink konden ze de kloksnelheden ver genoeg omhoog krijgen om toch de G80 te kunnen overtreffen. Het is echter maar de vraag of er echt nog zo veel rek zit in de R600.

Wat betreft het verpesten van de ATi launch: dat is wat ze noemen publiciteit en concurrentie. Andersom zou ATi hetzelfde hebben gedaan.
Countess: beetje misnoegd over het kompleet falen van de R600? Laat ATi maar eens een R600 kaart op de markt brengen voor je over NVIDIA begint, NVIDIA heeft immers al 6 maanden dx10 kaarten op markt en dan ga jij wat zeggen over PE edities.
Maar ik begrijp je ontgoocheling nu de R600 gewoon weggeblazen wordt door een G80.
de r600's zullen iniedergeval goed te krijgen zijn in de winkels
Waarom is de XTX dan weer eens uitgesteld? De release vande XTX wordt een zoveelste paper launch.
@aval0ne: eerste zien, dan wenen, niet?

Niemand hier heeft een glazen bol, dus het is futiel om te discussiëren over veronderstellingen. Een beta-benchmark is wel leuk, maar zegt zeker niet alles. Niet dat ik een bepaald merk wil afbreken of het andere merk wil toejuichen, ik vind gewoon dat je er niks over mag zeggen als je er niet zeker van bent.
Past hier ook een mini-ATX in?
Onder die cooler bedoel je? Daar passen met gemak 2 mini-atx bordjes ;)
het zijn inderdaad wel weer lompe gevallen... dat gaat nooit in mijn normale atx kast passen, dan mag ik er eerst mijn floppy en wat HD's uit smijten...
De GeForce 8800 Ultra maakt gebruik van een nieuwe revisie van de G80-chip die minder stroom verbruikt
Is minder stroom dan ook minder warmte productie?
Of gaat dat niet op door dat de Ultra weer hoger geklokt is?
een chip doet niks anders als goede stroom omzetten in nutteloze warmte, dat is het enige wat een chip doet in termen van energie.
dat er ondertussen nog een paar goed geordende signaal stroompjes uit komen is niet van belang.
dus ja minder stroom = minder warmte energie
en dat betekend weer meestal minder hoge temperaturen.
Verbruikt vermogen is (bij cpu's toch) evenredig met de clock en kwadratisch evenredig met de spanning die wordt gebruikt. Aangezien het als warmte uitgestraald vermogen zich ongeveer constant verhoudt tot het verbruikte elektrisch vermogen zal de warmte afscheiding dalen als het verbruik daalt, ja.
Damn wat een kaart koeler zeg.

Hij mag misschien alleen maar een beetje overclocked zijn tenopzichte van de GTX. Toch vind ik dat ze een goede kaart afleveren. Ze hebben zeer goed rekening gehouden met de GTX maken. Nu kan hij toch mee concureren en het kost haast niks meer.

[offtopic] Ben wel blij dat ik alleen nog maar css speel. Ik vind dat de kaarten toch echt dat de kaarten wel sprongen maken in performence. Aan de andere kant vind ik het altijd wel gaaf om te zien. Op naar volgende generatie
Photosjop anyone ? :P
Trouwens ook oud nieuws las op 19 maart er al over.
Of dit stukje van 7 April.
http://www.dailytech.com/...800+Ultra/article6826.htm
Als de enigste nieuwswaarde van dit artiekel het "vaage" plaatje is....
Hier nog een 8800 Ultra zonder koelblok.
http://tech.reesun.com/ha...007/0416/content_1175.htm
En zijn duidelijk 2 verschillende kaarten zie DVI-VGA.
Vind persoonlijk deze kaart meer op een ATI lijken :P

G80 Ultra beats R600XTX in 3Dmark 06
http://www.fudzilla.com/i...task=view&id=678&Itemid=1

Deze foto van "De Inq"komt trouwens van PCINLIFE een Chineese website, inq heeft aleen het logotje weggemod.
http://www.pcgameshardwar...e_id=651097&show=original
en nu echte benchmarks zonder standaard dik opgefokte GTX graag.
overklokken kunnen de bordmaken van de r600 straks ook namelijk.
Flauw, ze gebruiken een (zwaar) overclockte GTX, maar falen telkens wel dat te vermelden, zelfs in de titel. Objectiviteit--;
Eelders, heb ik ook deze foto's gezien, echter liep de core volgens hun op maar 650mhz en het geheugen op maar 2.13Ghz.

Linkje :Y)
http://www.vr-zone.com/?i=4930

Geloof eerder Vr-zone dan The Ing, maargoed is wel duidelijk dat we tussen de 650-675 mzh op de core mogen verwachten, en tussen de 2.13 en 2,35 Ghz op het geheugen, maar hoeveel op de shaders? 1.60Ghz? Maargoed lijkt me net genoeg boost om de R600 bij te kunnen houden op de stock clocks, met hopelijk lager stroomvebruik! :9
Een ultra is helemaal niet nodig, een gewone GTX veegt ook al de vloer aan met een R600 XTX
http://www.dailytech.com/...the+Start/article7052.htm
daar gebruiken ze een standaard flink overclokte GTX
van 575 naar 650 (even veel verschil in klok als er tussen de standaard gts en gtx zit).
Even ter info, de XTX van DailyTech is gewoon een OEM versie van XT met 1GB GDDR4... zie verdere info ATi topic @ GoT :)
Krijg je daar een stevige koffer met wieltjes bij om 'm te vervoeren? :P
nogsteeds het zelfde belachelijke koeler ontwerp, deze core kan zo veel beter gekoeld worden, met een standaard zalman vga koeler werd de 8800gts al koeler dan met de standaard koeler, terwijl de zalman niet eens de hele core besloeg...
dat mag wel zijn maar niet alleen de core wordt heet tijdens gestress van zo'n monster, zoals ook al bekend is bij de 1950 pro's van (voornamelijk) saphire is dat de VRM's nogal heet worden wat ook voor crashes zorgde, het probleem is alleen dat deze ook niet gekoeld worden door de zalman maar wel door de stock koeler. Tuurlijk de core zal dus wel koeler worden bij gebruik van de zalman, het punt is alleen dat dat tegenwoordig wel eens niet meer genoeg kan zijn omdat de rest van de kaart ook gewoon te heet wordt :r
Het is toch ongeloofelijk tegenwoordig. Nog even en je hebt straks alleen nog maar een videokaart nodig waar je, je hele pc op laat draaien. 1,8Ghz. kloksnelheid voor een videokaartje :7
DDR

Op dit item kan niet meer gereageerd worden.