Nvidia GeForce 8800 Ultra officieel geïntroduceerd

Nvidia heeft vandaag bekendgemaakt dat de GeForce 8800 Ultra vanaf 15 mei wereldwijd beschikbaar zal zijn. Dit is ongeveer op hetzelfde moment als AMD de R600 op de markt hoopt te brengen. De GeForce 8800 Ultra heeft een prijskaartje van 829 dollar meegekregen.

nVidia GeForce logo (nieuw)De nieuwe gpu is voorzien van evenveel streamprocessors en geheugen, respectievelijk 128 en 768MB, als zijn voorganger de GeForce 8800 GTX. Er is echter ook het een en ander gewijzigd aan de nieuwe kaart. Zo heeft de 8800 Ultra een geheugenbandbreedte van 103,7GB/s, de GTX had 86,4GB/s, en hebben de ontwerpers de texture fill rate opgekrikt van 36,8 naar 39,2 miljard pixels per seconde. De coreklok van de Ultra heeft een snelheid van 612MHz, waar dit voor de GTX nog 575MHz was. De shaderklok draait op 1500MHz, terwijl de GTX een snelheid van 1350MHz had. De geheugenfrequentie is met 180MHz toegenomen naar 1080MHz voor de 8800 Ultra.

Volgens Nvidia is de GeForce 8800 Ultra rond de tien tot vijftien procent sneller dan het huidige en reeds eerder genoemde topmodel, de GeForce 8800 GTX. Tests van onder meer Legit Reviews bevestigen dit beeld en ook andere sites die de kaart aan een grondige test hebben onderworpen zijn te spreken over de verbeterde prestaties van de 8800 Ultra. Minder is men te spreken over het energieverbruik van de kaart. Volgens Nvidia zou de nieuwe gpu minder energie verbuiken dan de 8800 GTX. Uit de tests van PC Perspective en Tech Report blijkt echter het tegengestelde: de 8800 Ultra verbruikt ongeveer tien procent meer. De prijs van de kaart, 829 dollar, vinden de meeste reviewers hoog, maar in lijn met reeds beschikbare producten, zoals de 8800 GTX en de 8800 GTS.

Nvidia GeForce 8800 Ultra

Reviews van de GeForce 8800 Ultra zijn onder andere te vinden bij:

Door Harm Hilvers

Freelance nieuwsposter

02-05-2007 • 20:41

109

Bron: Nvidia

Reacties (109)

109
109
30
0
0
75
Wijzig sortering
Als ik dat zo'n beetje lees, is men toch niet echt tevreden met deze nieuwe kaart.

HardOCP:
The Ultra is simply a marketing tool of NVIDIA.
Anandtech:
The NVIDIA GeForce 8800 Ultra is an utter waste of money.
Selectief quoten kan ik ook:

TR: The GeForce 8800 Ultra's clock speeds are a little bit higher than the 8800 GTX's, ... that's more than sufficient to make this the new Fastest Single Video Card on the Planet.

G3d: it's the fastest high-quality, high-performance, DirectX 9 and DirectX 10 ready graphics card on the market. Currently there's nothing out there that can beat it. The GeForce 8800 Ultra 768MB is a tremendously sexy product

PCPer: if you want the absolute fastest graphics card for your PC, you will be buying this card for the foreseeable future.

enz ...
Er is een verschil tussen het constateren van de feiten:
- het is de snelste kaart die je kunt kopen (jouw drie quotes)
en een mening geven over de kaart:
- het ding is z'n hoge prijs niet waard. (de andere twee quotes)

Wat betreft selectief quoten bewijs je dat je er zelf ook erg goed in bent. Want TR is helemaal niet zo tevreden over de kaart. Ondanks dat ze in jouw quote wel constateren dat het de snelste kaart is.
Ze vinden het ding gewoon te weinig extra bieden voor het geld:
TR: The holder of the graphics performance crown is rarely available for $88.88 at Wal-Mart, but the Ultra's value proposition is more suspect than usual for a top-end part—not because it breaks new ground in graphics card pricing, which it does, but because there are GTX cards already available with strikingly similar clock speeds for about $200 less. That fact tarnishes the performance crown this card wears, in my view. I expect the Ultra to make more sense as a flagship product once we see—if we see—"overclocked in the box" versions offering some nice clock speed boosts above the stock specs. GeForce 8800 Ultra cards may never be killer values, but at least then they might justifiably command their price premiums.
We'll be keeping an eye on this issue and hope to test some faster-clocked Ultras soon.
Een flagship kaart is nog nooit zijn prijs waard geweest dus dat is niets nieuws onder de zon. Ik beweer ook niet anders.
Dat klopt, maar wat wel nieuw is, is dat de review sites er zo massaal hun teleurstelling of zelfs onvrede over uitspreken.

In het verleden waren ze over het algemeen toch dol-enthousiast over de flagship kaarten.
Verder dan een aantekening dat het wellicht niet voor iedereen was weggelegd door de hoge prijs, kwamen ze meestal niet.
Anoniem: 201824 @aval0ne3 mei 2007 21:37
Dit zijn ook vrij simpele toezeggingen :D
Wat ik ook kan:
De duurste kaart die er zo'n beetje is, moèt wel de beste zijn :P
Je moet het goed interpreteren. De kaart op zich is subliem en supersnel maar de meerwaarde die je krijgt als consument t.o.v. een GTX rechtvaardigen niet het stroomverbruik en de véél hogere prijs.
Jammer dat ze er geen gig geheugen in hadden gegooid, hoewel bijnan utteloos qua performance, zou het de kaart meer elite status geven ipv een kaart wat met een beetje volt modden & overklokken overtroffen wordt...

(en 768 is gewoon een raar getal :P)
Dit komt door de memory interface.

De 8800GTX/Ultra heeft een memory interface van 384-bit (384x2 = 768mb), terwijl de 8800GTS een memory interface heeft van 320-bit (note de 320mb en 640mb versies).

De r600 heeft een memory interface van 512-bit, en wordt dienhalve ook uitgebracht in 512mb en 1024mb.
Leuk dat er dus gewoon geen moer van klopt... Je kunt gewoon het aantal geheugen op je databus aansluiten dat je zelf wilt. Wanneer geheugen < databus zullen een aantal lijnen van de databus niet worden gebruikt. In alle andere gevallen zal de hele databus worden gebruikt.

De ATi Radeon 9800 heeft ten slotte ook een 256bit databus en werd ook met 128MB uitgerust.

Haal A.U.B. bit niet in de war met MegaBit...
de breedte van de geheugen bus en de hoeveelheid geheugen die op een kaart zit heeft wel degenlijk met elkaar te maken maar heeft niks te maken met wat jullie tot nu toe hebben gepost

het zit zo.
elke geheugen chip heeft een 32bit interface
elke chip heeft zijn eigen geheugen lijnen naar de GPU of deelt die met 1 andere chip (maar dat gebeurt nu eigenlijk niet meer omdat de hoeveelheid chips dan te groot worden).
met een 320bit interface heb je dus dus 10 chips nodig.
met een 384bit interface heb je 12 chips nodig.
de hoeveelheid geheugen die je kunt gebruiken heeft dus te maken met hoeveel chips je minimaal moet gebruiken
maar natuurlijk ook met hoeveel geheugen elke chip opzich heeft.
de chips zullen nu elk 256Mbit aan data bevatten, wat precies klopt.
(320bit /32 = 10chips. 320MB * 8 = 2560Mbit
2560Mbit / 10chips = 256Mbit per chip)
en voor de 640 en 768MB versies worden waarschijnlijk 512Mbit chips gebruikt.

bij de 9800 werden chips met 128mbit aan ruimte gebruikt waarschijnlijk en daarom is de verhouding tussen bandbreedte en hoeveelheid geheugen zo anders.
(de som :
interfacebreedte-in-bit / 32 = hoeveelheid chips minimaal.
hoeveelheid geheugen in MB * 8 = hoeveelheid geheugen in bits.
hoeveelheid-geheugen-in-bit / hoeveelheidchips = hoeveel geheugen per chip in bits.
Ik haal niks in de war (onzinnige opmerking).

Zoals jezelf al aangeeft 256-bit bus met 128mb (is de helft) net als de een 384-bit bus met 768mb zit (dubbel) net als de 320/640mb uitvoeringen. Hetzelfde geldt voor de ati kaarten (dubbel, of 1:1)

Het komt er dus op neer dat de grootte van het geheugen van de videokaart afhankelijk is van de memorybus, zodat deze memory bus zijn werk het meest gunstig kan doen.
kom op zeg.. met een 384 bits lijn kun je 2^384 adressen adresseren in het meest optimale geval, das heel wat meer dan 1 GB Ze hebben het gewoon gedaan voor de snelheid. 512 bits lijnen (wat voor de snelheid weer erg leuk zou zijn) is waarschijnlijk nu nog te kostbaar.
Je haalt adresruimte en geheugen door mekaar. Met 32 bits adressen kun je al 4GB geheugen addresseren

Het uitlezen van geheugen (nadat je dus een 32 bits adres hebt aangebracht op de adrespinnen) kun je over meerdere bytes doen. Als je een 256 bit brede bus hebt dan lees je het geheugen per 32 bytes uit (16x16).

Een brede bus zorgt er dus voor dat je veel geheugen per clocktick kan uitlezen, maar zegt niet over de hoeveelheid geheugen die je kunt addresseren; die ligt vast door de hoeveelheid bits die je gebruikt om adressen te specificeren.
"Je haalt adresruimte en geheugen door mekaar. "

Ik weet er weinig van, maar het klinkt meer als het door elkaar halen van adres en data lijnen (wat jij geheugen noemt).

Een 384-bit adresbus bestaat natuurlijk niet (daar zou je 2^384 geheugenadressen mee kunnen aanspreken).

Een 384-bit databus klinkt mij wel normaal in de oren. En inderdaad, daar moet je dus banken die een veelvoud van 384 zijn op aansluiten, anders gaat het mis.
En om het volledig te maken: een doorsnee PC heeft een 64 bit databus in single channel en 128 bit in dual channel. Daarom zitten ze allen met 512 MB, 1024 MB, 2048 MB,... omdat dat veelvouden zijn van 128 bit (en dus van 64).
Dan had het meteen 1.5 GB moeten zijn, en was de kaart helemaal onbetaalbaar. Het moet een tegenstander zijn van de Radeon HD 1900 XT en/of XTX, die naar verluid niet te duur zullen zijn.
10% sneller is niet niets
Maar het prijskaartje is veels te hoog :o

Dus kan je best zelf overclocken :7
Anoniem: 38733 @filenox2 mei 2007 20:53
Dat hoge prijskaartje is te danken aan het feit dat de kaart geen concurrent heeft. De X2900XT van Ati zal z'n handen al vol hebben aan de 8800GTX.

Laten we met z'n allen dus niet hopen dat Ati/AMD stopt met high-end kaarten (of Nvidia, maar dat is minder waarschijnlijk), want de consequentie's zullen voor ons stukken minder zijn.
Geen concurrentie betekent een sky high prijs.
Ligt ook een grote verantwoordelijkheid bij de consument: als die blijft betalen is er weinig reden om de prijs omlaag te doen.

Indirect heb je als consument heel veel macht zonder een woord gesproken te moeten hebben, maar ja dat werkt alleen als de massa eraan meewerkt.

Bijvoorbeeld een goedkopere versie kopen als er maar 1 aanbieder is of uitstellen van een nieuwe aankoop. En het is niet eens zozeer het bedrijf zelf die een prijs bepaald (tenzij je Microsoft heet die nogal wat financiële klappen kan verdragen, ik noem Xbox) maar meer de economische "regels". Productie/onwikkelingskosten/winst/mogelijke afzet/omzet(consument! dus) etc. gaat in een formule en er komt een getal uit om het simpel te zeggen :P
De X2900XT is concurrent van de 8800GTS, de x2900XTX gaat de concurrentie aan met de 8800GTX/Ultra.
Zo werkt het niet, 1 kaart kan niet de concurrent van 2 andere zijn.

Dus:
XT vs GTX
XTX vs ultra
aval0n echt waar, heb jij een bord voor je kop?
maar goed, 3de keer :
een kaart kan makkelijk voor meerdere kaarten concurrentie zijn, en je kan ook kaarten hebben waar je geen concurrentie tegenover zetten.
en de grootste factor in wat concurrentie is voor wat is gewoon de prijs.
daar naar kijkend is de XT concurrentie voor de GTS.
en word de XTX waarschijnlijk de concurrentie voor de GTX en ze gaan gewoon geen phantom edition lanceren.

je kan gewoon niet zeggen dat de XT het tegen de GTX moet opnemen als de XT gewoon praktische de zelfde prijs heeft als de GTS.
countess: Je top of the line kaart staat altijd tegenover de top of the line kaart van de concurrent. De prijs heeft daar niets mee te maken want prijzen kunnen van de ene dag op de andere dag veranderen.
@aval0ne Natuurlijk hebben prijzen er wel wat mee te maken. Stel AMD maakt geen high-end kaart dan staat een mid-range zeker ook tegenover een 8800 Ultra? Dat slaat werkelijk nergens op. En ja prijzen veranderen maar de consument vergelijkt de prijzen van verschillende kaarten met elkaar en kijkt wat hij wil uitgeven en kijkt dan welke kaart het snelste is.
Je vergelijkt een Porsche Cayman ook niet met een Ferrari 612 Scaglietti omdat dat toevallig de op 1 na snelste auto's van die fabrikanten zijn. Het prijsverschil komt daar direct om de hoek kijken. Dat is de factor. En als de prijs verandert verandert kan ook de direct concurrent van een bepaalde kaart veranderen.

Overigens staat de XTX tegenover zowel de GTX als de Ultra. Want deze kaarten zijn qua hardware bijna identiek met slechts een verschil in clock-snelheid dat door overclocken bijna te niet gedaan kan worden. Dus je moet de GTX en de Ultra niet als 2 aparte producten zien.
Jaja en de intel GMA 3000 staat zeker tegenover de 8800gtx van nVidia omdat dit intel zijn topmodel is?
Je hebt niet voor niks budget, low-end, mid-end en high-end.
Als jij 300 eu in je pocket hebt zitten, kijk je toch naar wat jij kan halen voor die 300 eu? De GTX en Ultra vallen af...
Jullie begrijpen er ook niets van. Die intel kaart wordt ook niet als high end kaart geprofileerd. De 2900 kaarten wel. Zelfde klasse als de 8800 kaarten dus.
Ik denk dat jij het nog steeds niet door hebt.

Ja de 2900 serie word tegen over de 8800 serie gezet. Die zitten namelijk ongeveer in de zelfde prijs klasse. Daar word op geselecteerd. Als consument kan je maar een keer je vast gestelde budget uit geven.

De prijs van een XT is ongeveer aan een GTS, dus zijn dat logischerwijs elkaars directe concurenten.
De prijs van de XTX is ongeveer dat van een GTX, hier zijn ze ook elkaar directe concurenten.

In reviews zal je ze natuurlijk alle 5 tegen over elkaar hebben staan. )
Je ziet die 10 procent bijna niet in de uiteindelijke frames... en dat voor $300 meer. Waardeloze kaart dus. Ook volgens Anandtech.
bwah, misschien niet in de huidige games, maar over 2 jaar is 10% meer dan welkom, en dan al dat anti-aliasgeweld, hdr, Anisotropics, enz...
elk beetje meer is zijn geld waard bij een high-end
Anoniem: 197152 @1088863 mei 2007 00:43
Over 2 jaar koop je voor 300 euro wellicht een betere kaart...
wellicht? dat weet ik wel heel zeker eigenlijk.
dan zijn ze waarschijnlijk weer 2 generaties verder namelijk.
In niet GPU gelimiteerde scenarios zie je die 10% wel duidelijk.
10% is bij 20 fps maar 2fps meer.. dat zal toch echt geen wereld van verschil zijn, laat staan dat je daar $300 voor gaat lappen. En bij bijvoorbeeld 80fps win je maar liefst 8fps, maar als je al zo hoge fps hebt, zie je het verschil toch niet meer, dus alweer geen reden om daar een paar honderd euro extra neer te tellen..
Een oud ezelfsbruggetje is dat je minimaal 30% verschil in prestaties moet hebben voor je het ook zonder benchmarktools goed kunt merken.
En je punt is? Ik zeg dat die 10% hogere clock wel degelijk te zien is aan de frames. Of je dat nu in real life merkt of niet, is niet van tel.
Het punt is dat veel mensen geen kapitaal extra willen uitgeven voor een verbetering die ze in de praktijk toch niet kunnen merken tov de veel betaalbaarder 8800 GTX

Of je dat in real life wel of niet kunt merken is voor het merendeel van de kopers wel degelijk een heel belangrijk punt! Ook bij de high-end kaarten.

Niet voor niets zie je een trend komen naar 4 soorten kaarten ipv 3: low-end, mainstream, high-end, premium-price.
Nvidia en ATI hebben ook in de gaten dat die premium-price kaarten voornamelijk interessant is voor benchmarketing en niet voor de verkoop. En dat de high-end gamer echt niet compleet idioot is, en dus gaat voor een high-end kaart met een realistische prijs.
alsof de geforce 4 ti4600 zoveel sneller was dan de ti4400.... alsof de tnt2 ultra zoveel sneller was dan de vanilla tnt2 en alsof de xtx versies van ati zoveel sneller zijn dan de xt's......

kom op zeg, tis belachelijk ja maar de snelste heeft nou eenmaal altijd premium price. voor een ultra versie is het prestatieverschil oke ook al is het prijsverschil wel wat ruim bemeten.
De TNT2Ultra was wel degelijk een stuk sneller, en was niet idioot veel duurder.

Toen was het helemaal niet raar om het topmodel te kopen. Nu moet je een gaatje in je hoofd hebben lijkt het wel...
Wat kanttekeningen:

Deze kaart is idem geklokt als de standaard Asus versie 1 niveautje lager. Deze kaart is enkel uitgebracht om de aandacht af te leiden van AMD.
Anoniem: 77640 2 mei 2007 20:48
...en hebben de ontwerpers de texture fill rate opgekrikt van 36,8 naar 39,2 miljard pixels per seconde...
Dat is louter het gevolg van de hogere kloksnelheden. Bovendien gaat het hier om texels per seconde. Voor pixels per seconde moet je naar de ROP's kijken.
Anoniem: 165478 2 mei 2007 20:48
De snelste tot nu toe, klik hier.
wat een koeller zit daar op die 2de foto.

vergeet SLI maar.
Is dat niet een soort van silence versie? 2 keer 80mm fan lijken mij stiller als zown klein rot ding...

Als je SLI wil draaien maakt het je denk ik weinig uit hoeveel herrie het maakt..
Nee, die Calibre kaart heeft als het goed is peltierkoeling erop zitten en daarom is het koelblok ook zo groot. De koeler moet tenslotte de warmte van de peltier en de warmte van de 8800 afvoeren.
Anoniem: 169289 @TerminalNL3 mei 2007 08:00
Ik ben blij dat mijn 7900GTO's (SLI) weinig herrie maken, anders had ik ze ook nooit als set genomen :)
10-15% sneller??

AnandTech:
"Often, when reviewing hardware, it is difficult to draw a hard line and state with total confidence that our conclusions are the only logical ones that can be drawn from the facts. We try very hard to eliminate personal opinion from our reviews and provide readers with enough information to form their own educated opinions. We try to point out the downsides of the best products out there, as well as the niche uses for which otherwise disappointing hardware might shine. So often our job is about balance and temperance.

But not this time: The NVIDIA GeForce 8800 Ultra is an utter waste of money."
Daar kan ik me volledig bij aansluiten, lol. Meer dan $800, voor een overgeklokte kaart die, door de verhoogde vcore (of gcore, hoe je dat ook wil noemen) nog minder lang mee zal gaan ook.

Als we niet begrepen dat ze een beetje wind uit de zeilen willen halen van ATI, wanneer die hun R600 kaart officieel aankondigt, zou het eigenlijk een behoorlijk beschamende vertoning wezen om de Ultra met zoveel bravour te presenteren.
Anoniem: 172621 @albatross3 mei 2007 01:04
hoe lang hij meegaat is bij deze kaart voor de kopers nietzo belangrijk die gaan echt niet jaren deze kaart hebben, die willen over jaartje wel weer betere als het niet eerder is ;)
tot iemand de hoogste 3dm06 score neerzet en deze kaart als zoete broodjes (bij de rich bastards) over de toonbank gaat
Grappig dat iedereen reageert van dat hij te duur is enzo. Tuurlijk is dat en dat ben ik ook met jullie eens.

Maar denk eens na, ze maken de kaart heus niet omdat ze de lieve mensen aan een NOG betere kaart willen helpen.
Nee, ze willen gewoon belangstelling en dat de hele wereld naar ze kijkt zo van: "nVidia is echt een top merk!"
En: "Ga je gamen? koop dan een goede nVidia!"

Ik heb zelf de nVidia 7800gs agp in mijn pc zitten, en had daarvoor een Ati 9600se (ook agp).

de 7800gs is gewoon goed in games, maar in 2d vind ik hem echt te slecht. Internet pagina's worden vaak sloom opgebouwd als je wat sneller scroll door een pagina, foto's switchen snel achter elkaar loopt ook niet lekker vloeiend, en mijn oude 9600se kon dat wel altijd allemaal.

2e Voorbeeld: Een Tv op de oude geletulp aansluiten.
Met ati: Omzet blokje van S-Video naar video, aansluiten en je bent klaar.

nVidia: een hoop instellen en dan werkt het nog niet goed.

Natuurlijk zullen er veel mensen zijn die nVidia goed vinden en anderen weer Ati. Ik ga daar ook niks over zeggen, maar nVidia maakt gewoon veel reclame en prijst hun kaarten zo goed aan. Terwijl Ati dat minder doet terwijl die kaarten op 3d EN op 2d gewoon goed presteren. Ik denk dat daar ook naartoe moet gekeken worden voordat we allemaal om nVidia roepen
Anoniem: 103735 2 mei 2007 23:32
Zo te zien zitten ze met de lengte aan de max voor atx nu gaan ze de max atx breedte zoeken :-)

Op dit item kan niet meer gereageerd worden.