Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 84 reacties
Bron: The Inquirer

De mannen van The Inquirer hebben het eerste beeldmateriaal van de GeForce 8800 Ultra gepubliceerd. Deze kaart wordt het nieuwe topmodel van nVidia en zal volgende maand ge´ntroduceerd worden.

De GeForce 8800 Ultra maakt gebruik van een nieuwe revisie van de G80-chip die minder stroom verbruikt en op een hogere snelheid geklokt kan worden. De Ultra-editie krijgt 768MB gddr3-geheugen met een kloksnelheid van 2,35GHz terwijl de core op 675MHz geklokt zal worden. Ter vergelijking: de GTX-variant heeft het geheugen op 1,8GHz lopen en de core op 575MHz. De hogere kloksnelheden worden deels mogelijk gemaakt door de nieuwe koeler. Deze neemt de gehele lengte van de kaart in beslag en koelt nu ook het spanningsregulatie gedeelte van de kaart. Verwacht wordt dat de GeForce 8800 Ultra halverwege mei, ongeveer gelijktijdig met de Radeon HD 2900 XT, ge´ntroduceerd zal worden.

GeForce 8800 Ultra
Moderatie-faq Wijzig weergave

Reacties (84)

De kloksnelheid van het geheugen ligt anders wel 30% hoger en dat is toch een indrukwekkende boost.
Reken daarbij dat de core ook 18% sneller loopt en op de allerhoogste stand mag je denk ik rekenen op een 20% fps boost.

36 fps ipv 30 merk ik echt wel hoor. :)

Deze kaart lijkt mij interessant voor mensen die net een SLI 8800 in gedachten hadden.
Zo heb je minder stroomverbruik en zeker ook voldoende kracht voor de allerzwaarste games.
Knap, zeker als je bedenkt dat je hersenen slechts 28 beelden per seconde kunnen vrwerken ...
Als het nou constant 28 FPS was, dan klopt het. Gezien het feit dat dit in-games niet zo is, kunnen we het vanaf 43 FPS niet meer zien op een CRT-monitor. En vanaf 53 FPS niet meer op een TFT-monitor. Dit zeg ik uit eigen ervaring, en heb dus ook geen idee waarom ik meer FPS zie in een TFT-monitor.
Q3 voelt thans vlotter aan op 250fps dan op 50fps. Voorwaar.
Hoger als je refreshrate merk je sowieso niet, omdat hij dan gewoon niet meer beeldjes weergeeft.
Daarom merken we ook geen groot verschil tusen 50 en 100 hertz :?
Jammer voor jouw hersenen :P
wat is verwerken? en wat is opmerken? Je ogen kunnen rond de 100 a 120 fps waarnemen. De periferie van je netvlies kan dat zien. Je gele vlek kan maar 50 a 60 zien. Kort om ze kunnen 50 en 100 fps egt wel onderschijden. Maarja meer dan 50 frames is eigenlijk raar omdat je toch niet mer je periferie van je oog naar je beeldscherm kijkt bij games =).
@ peke:

hou je er wel rekening dat de minfps. een stuk langzamer omhoog gaat tvm de maxfps. ?
Procentueel gezien verandert er niets, de prestatiewinst zal ook op de min fps rond de 20% liggen.

Ik vind SLI ook maar niets want je haalt geen 100% winst door de extra overhead, daarom vind ik deze kaart zo interessant voor de mensen die SLI aan het overwegen zijn.
Ja tuurlijk, dat zal je merken in DX10 titles die zitten rond die FPS. als het zover is. Het meeste dX9 meuk wat uit is nu zit je al snel ver boven 60FPS bij gemiddelde Setups en monitoren.

SLI is meer iets voor 'n rijke stinkerd die Crysis op 'n 30" in volle native reso wil draaien.
De GeForce 8800 Ultra maakt gebruik van een nieuwe revisie van de G80-chip die minder stroom verbruikt
Is minder stroom dan ook minder warmte productie?
Of gaat dat niet op door dat de Ultra weer hoger geklokt is?
een chip doet niks anders als goede stroom omzetten in nutteloze warmte, dat is het enige wat een chip doet in termen van energie.
dat er ondertussen nog een paar goed geordende signaal stroompjes uit komen is niet van belang.
dus ja minder stroom = minder warmte energie
en dat betekend weer meestal minder hoge temperaturen.
Verbruikt vermogen is (bij cpu's toch) evenredig met de clock en kwadratisch evenredig met de spanning die wordt gebruikt. Aangezien het als warmte uitgestraald vermogen zich ongeveer constant verhoudt tot het verbruikte elektrisch vermogen zal de warmte afscheiding dalen als het verbruik daalt, ja.
De GeForce 8800 Ultra maakt gebruik van een nieuwe revisie van de G80-chip die minder stroom verbruikt
Ben dan wel benieuwd hoeveel minder stroom deze nieuwe G80 verbruikt?

Als deze in de buurt komen van de 7900 Serie dan hebben ze het goed gedaan.

Het ziet er naar uit dat Nvidia een stuk voor ligt op (AMD) ATi. Aangezien ATi nu pas met een nieuwe op de markt komt. En Nvidia nu alles uit de G80 haalt.
Ben dan wel benieuwd hoeveel minder stroom deze nieuwe G80 verbruikt?
Hier gaan we weer ... Stroomverbruik is in deze klasse van kaarten totaal niet relevant. Niemand die deze kaarten koopt is geinteresseerd in het stroomverbruik. Prestaties is alles wat telt voor een top of the high end kaart.
Minder stroomverbruik is anders weldegelijk een leuke extra. ╔n het is een hype sinds Gore zijn film heeft gelaunchet. =)
laat ze eerst maar eens meer als 1000 van deze dingen leveren. dit ruikt gewoon naar de ATI launch verpesten met een PE edition.

en nvidia haalt nu alles uit de g80, en ATI begint er net alles uit te halen, want daar zit nog een stuk meer in waarschijnlijk.

edit : die problemen kwamen voor de die shrink naar 65nm, erna zijn er geen negative berichten meer geweest over de yields.
de r600's zullen iniedergeval goed te krijgen zijn in de winkels, dat moet ik van deze kaart nog zien.

edit @ : ga je weer tegen me in aval0ne? vorige keer ging het ook niet erg goed. beetje misnoegd over de lage prijs van de XT? :P
falen r600? hij is laat ja maar met 40% meer FPS in oblivion voor een bijna gelijke prijs als een GTS is heeft hij zeker niet gefaald nu hij er eindelijk is.
ATI slaat gewoon even halve generatie over nu.
en die dx10 kaart van nvidia heeft nog niet eens in benchmarks kunnen laten zien dat hij ook daadwerkelijk goed is in DX10. leuk voor ze dat ze vroeg waren maar praktische heb je er nog niet veel aan.
Waarom is de XTX dan weer eens uitgesteld? De release vande XTX wordt een zoveelste paper launch.
maar waarschijnlijker is het gewoon de prijs en beschikbaarheid van gddr4.
de core is namelijk niet veel hoger geklokt en verder precies het zelfde.
Countess: beetje misnoegd over het kompleet falen van de R600? Laat ATi maar eens een R600 kaart op de markt brengen voor je over NVIDIA begint, NVIDIA heeft immers al 6 maanden dx10 kaarten op markt en dan ga jij wat zeggen over PE edities.
Maar ik begrijp je ontgoocheling nu de R600 gewoon weggeblazen wordt door een G80.
de r600's zullen iniedergeval goed te krijgen zijn in de winkels
Waarom is de XTX dan weer eens uitgesteld? De release vande XTX wordt een zoveelste paper launch.
@aval0ne: eerste zien, dan wenen, niet?

Niemand hier heeft een glazen bol, dus het is futiel om te discussiŰren over veronderstellingen. Een beta-benchmark is wel leuk, maar zegt zeker niet alles. Niet dat ik een bepaald merk wil afbreken of het andere merk wil toejuichen, ik vind gewoon dat je er niks over mag zeggen als je er niet zeker van bent.
Gezien het uitstel van de ATi kaarten lijkt het er eerder op dat ze oorspronkelijk niet tegen de G80 op konden. Door nog wat aanpasingen te doen op het gebied van die-shrink konden ze de kloksnelheden ver genoeg omhoog krijgen om toch de G80 te kunnen overtreffen. Het is echter maar de vraag of er echt nog zo veel rek zit in de R600.

Wat betreft het verpesten van de ATi launch: dat is wat ze noemen publiciteit en concurrentie. Andersom zou ATi hetzelfde hebben gedaan.
Photosjop anyone ? :P
Trouwens ook oud nieuws las op 19 maart er al over.
Of dit stukje van 7 April.
http://www.dailytech.com/...800+Ultra/article6826.htm
Als de enigste nieuwswaarde van dit artiekel het "vaage" plaatje is....
Hier nog een 8800 Ultra zonder koelblok.
http://tech.reesun.com/ha...007/0416/content_1175.htm
En zijn duidelijk 2 verschillende kaarten zie DVI-VGA.
Vind persoonlijk deze kaart meer op een ATI lijken :P

G80 Ultra beats R600XTX in 3Dmark 06
http://www.fudzilla.com/i...task=view&id=678&Itemid=1

Deze foto van "De Inq"komt trouwens van PCINLIFE een Chineese website, inq heeft aleen het logotje weggemod.
http://www.pcgameshardwar...e_id=651097&show=original
en nu echte benchmarks zonder standaard dik opgefokte GTX graag.
overklokken kunnen de bordmaken van de r600 straks ook namelijk.
Flauw, ze gebruiken een (zwaar) overclockte GTX, maar falen telkens wel dat te vermelden, zelfs in de titel. Objectiviteit--;
Eelders, heb ik ook deze foto's gezien, echter liep de core volgens hun op maar 650mhz en het geheugen op maar 2.13Ghz.

Linkje :Y)
http://www.vr-zone.com/?i=4930

Geloof eerder Vr-zone dan The Ing, maargoed is wel duidelijk dat we tussen de 650-675 mzh op de core mogen verwachten, en tussen de 2.13 en 2,35 Ghz op het geheugen, maar hoeveel op de shaders? 1.60Ghz? Maargoed lijkt me net genoeg boost om de R600 bij te kunnen houden op de stock clocks, met hopelijk lager stroomvebruik! :9
Een ultra is helemaal niet nodig, een gewone GTX veegt ook al de vloer aan met een R600 XTX
http://www.dailytech.com/...the+Start/article7052.htm
daar gebruiken ze een standaard flink overclokte GTX
van 575 naar 650 (even veel verschil in klok als er tussen de standaard gts en gtx zit).
Even ter info, de XTX van DailyTech is gewoon een OEM versie van XT met 1GB GDDR4... zie verdere info ATi topic @ GoT :)
typich ATI/AMD pesten ! :(
hoezo ATI/AMD pesten? In mijn ogen heeft ATI nog wel wat in petto voor ze. Aangezien de HD 2900XT zich toch wel wat waagt aan een GTS/GTX.. Het is nu gewoon wachten op de HD 2900 XTX , kijken wat de prestaties zijn. Nog ff geduld }>
}> De XTX wordt gewoon onder de voet gelopen door een 6 maand oude GTX op 90nm, GDDR3 en slechts een 384bit bus.
http://www.dailytech.com/...the+Start/article7052.htm
EÚn review zegt niet alles. Het is anders ook wel dubieus dat de GF8800 de radeon's hier wÚl verslaat in Oblivion. Wachten dus op meer materiaal om daar een zo goed mogelijke eigen conclusie uit te kunnen trekken.

Wat jij doet is pure anti-ati propaganda rondstrooien als ware het "De Referentie" en "De Bron van Waerheid". Neem even een zetpil en stop met jezelf zo boos te maken op een merk. Het is vrij dwaas.

edit: en ik die dacht dat blind fanboyism iets was voor pubers. Ben ik even fout. =X

edit2: niet dat ik niet wil erkennen dat de Radeon in jouw link wordt verpletterd. Je blaast de significantie tov het geheel ervan wat op. Wat veel zelfs.
Past hier ook een mini-ATX in?
Onder die cooler bedoel je? Daar passen met gemak 2 mini-atx bordjes ;)
het zijn inderdaad wel weer lompe gevallen... dat gaat nooit in mijn normale atx kast passen, dan mag ik er eerst mijn floppy en wat HD's uit smijten...
Wat een ding zeg mijn hemel....

Ik denk dat ik deze als vervanger ga gebruiken van mijn hudige videokaart. Ben niet alleen opzoek naar DX10 snelheid maar ook naar de "looks" van de kaart. en deze ziet er echt wel erg kicke uit


}>
Het spijt me wel, maar volgens mij gaan we later op dezelfde manier terugkijken naar deze kaarten als naar bijv. de 5,25" floppy's. Hoe konden we ooit zulke grote, lompe dingen maken? ;)
Omdat de technologie het nog niet toestaat om ze kleiner te maken (met deze performance).
Leuke kaart, zal heus goede resultaten halen in de benches, laat er nu net 1 probleem zijn. Tegen de tijd dat ik deze kan betalen, ligt er weer een betere in de winkel.
Dan koop je toch gewoon die betere? |:(
Knap, zeker als je bedenkt dat je hersenen slechts 28 beelden per seconde kunnen vrwerken ...
Dit is niet helemaal waar. wij kunnen duidelijk onderscheid maken van beeld tot 28 f/ps. Maar aangezien onze hersenen "analoog" werken en niet 28f/ps als snapshots worden gemaakt zien wij wel verschil hoe vloeiend het beeld is. Zo kijkt 60 f/ps veel prettiger als 28 fp/s. Wij kunnen zelfs verschil waarnemen tot 100f/ps.
Dit kun je merken bv. wanneer je crt op 60 hz staat en het verschil met 100hz.
Sterker nog: zet je scherm op 120Hz en op 85Hz. Zet je mouserefreshrate zo hoog mogelijk indien je een optische muis hebt. tegen de 500Hz ofzo.

Vergelijk dan de vlotheid waarmee je cursor beweegt op 85Hz tov de 120Hz als je wat gecontroleerde cirkelbewegingkjes maakt. Inderdaad, the sky is the limit. :x

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True