Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 109 reacties
Bron: Nvidia

Nvidia heeft vandaag bekendgemaakt dat de GeForce 8800 Ultra vanaf 15 mei wereldwijd beschikbaar zal zijn. Dit is ongeveer op hetzelfde moment als AMD de R600 op de markt hoopt te brengen. De GeForce 8800 Ultra heeft een prijskaartje van 829 dollar meegekregen.

nVidia GeForce logo (nieuw)De nieuwe gpu is voorzien van evenveel streamprocessors en geheugen, respectievelijk 128 en 768MB, als zijn voorganger de GeForce 8800 GTX. Er is echter ook het een en ander gewijzigd aan de nieuwe kaart. Zo heeft de 8800 Ultra een geheugenbandbreedte van 103,7GB/s, de GTX had 86,4GB/s, en hebben de ontwerpers de texture fill rate opgekrikt van 36,8 naar 39,2 miljard pixels per seconde. De coreklok van de Ultra heeft een snelheid van 612MHz, waar dit voor de GTX nog 575MHz was. De shaderklok draait op 1500MHz, terwijl de GTX een snelheid van 1350MHz had. De geheugenfrequentie is met 180MHz toegenomen naar 1080MHz voor de 8800 Ultra.

Volgens Nvidia is de GeForce 8800 Ultra rond de tien tot vijftien procent sneller dan het huidige en reeds eerder genoemde topmodel, de GeForce 8800 GTX. Tests van onder meer Legit Reviews bevestigen dit beeld en ook andere sites die de kaart aan een grondige test hebben onderworpen zijn te spreken over de verbeterde prestaties van de 8800 Ultra. Minder is men te spreken over het energieverbruik van de kaart. Volgens Nvidia zou de nieuwe gpu minder energie verbuiken dan de 8800 GTX. Uit de tests van PC Perspective en Tech Report blijkt echter het tegengestelde: de 8800 Ultra verbruikt ongeveer tien procent meer. De prijs van de kaart, 829 dollar, vinden de meeste reviewers hoog, maar in lijn met reeds beschikbare producten, zoals de 8800 GTX en de 8800 GTS.

Nvidia GeForce 8800 Ultra

Reviews van de GeForce 8800 Ultra zijn onder andere te vinden bij:

Moderatie-faq Wijzig weergave

Reacties (109)

10% sneller is niet niets
Maar het prijskaartje is veels te hoog :o

Dus kan je best zelf overclocken :7
Dat hoge prijskaartje is te danken aan het feit dat de kaart geen concurrent heeft. De X2900XT van Ati zal z'n handen al vol hebben aan de 8800GTX.

Laten we met z'n allen dus niet hopen dat Ati/AMD stopt met high-end kaarten (of Nvidia, maar dat is minder waarschijnlijk), want de consequentie's zullen voor ons stukken minder zijn.
Geen concurrentie betekent een sky high prijs.
De X2900XT is concurrent van de 8800GTS, de x2900XTX gaat de concurrentie aan met de 8800GTX/Ultra.
aval0n echt waar, heb jij een bord voor je kop?
maar goed, 3de keer :
een kaart kan makkelijk voor meerdere kaarten concurrentie zijn, en je kan ook kaarten hebben waar je geen concurrentie tegenover zetten.
en de grootste factor in wat concurrentie is voor wat is gewoon de prijs.
daar naar kijkend is de XT concurrentie voor de GTS.
en word de XTX waarschijnlijk de concurrentie voor de GTX en ze gaan gewoon geen phantom edition lanceren.

je kan gewoon niet zeggen dat de XT het tegen de GTX moet opnemen als de XT gewoon praktische de zelfde prijs heeft als de GTS.
countess: Je top of the line kaart staat altijd tegenover de top of the line kaart van de concurrent. De prijs heeft daar niets mee te maken want prijzen kunnen van de ene dag op de andere dag veranderen.
@aval0ne Natuurlijk hebben prijzen er wel wat mee te maken. Stel AMD maakt geen high-end kaart dan staat een mid-range zeker ook tegenover een 8800 Ultra? Dat slaat werkelijk nergens op. En ja prijzen veranderen maar de consument vergelijkt de prijzen van verschillende kaarten met elkaar en kijkt wat hij wil uitgeven en kijkt dan welke kaart het snelste is.
Je vergelijkt een Porsche Cayman ook niet met een Ferrari 612 Scaglietti omdat dat toevallig de op 1 na snelste auto's van die fabrikanten zijn. Het prijsverschil komt daar direct om de hoek kijken. Dat is de factor. En als de prijs verandert verandert kan ook de direct concurrent van een bepaalde kaart veranderen.

Overigens staat de XTX tegenover zowel de GTX als de Ultra. Want deze kaarten zijn qua hardware bijna identiek met slechts een verschil in clock-snelheid dat door overclocken bijna te niet gedaan kan worden. Dus je moet de GTX en de Ultra niet als 2 aparte producten zien.
Jaja en de intel GMA 3000 staat zeker tegenover de 8800gtx van nVidia omdat dit intel zijn topmodel is?
Je hebt niet voor niks budget, low-end, mid-end en high-end.
Als jij 300 eu in je pocket hebt zitten, kijk je toch naar wat jij kan halen voor die 300 eu? De GTX en Ultra vallen af...
Jullie begrijpen er ook niets van. Die intel kaart wordt ook niet als high end kaart geprofileerd. De 2900 kaarten wel. Zelfde klasse als de 8800 kaarten dus.
Ik denk dat jij het nog steeds niet door hebt.

Ja de 2900 serie word tegen over de 8800 serie gezet. Die zitten namelijk ongeveer in de zelfde prijs klasse. Daar word op geselecteerd. Als consument kan je maar een keer je vast gestelde budget uit geven.

De prijs van een XT is ongeveer aan een GTS, dus zijn dat logischerwijs elkaars directe concurenten.
De prijs van de XTX is ongeveer dat van een GTX, hier zijn ze ook elkaar directe concurenten.

In reviews zal je ze natuurlijk alle 5 tegen over elkaar hebben staan. )
Zo werkt het niet, 1 kaart kan niet de concurrent van 2 andere zijn.

Dus:
XT vs GTX
XTX vs ultra
Ligt ook een grote verantwoordelijkheid bij de consument: als die blijft betalen is er weinig reden om de prijs omlaag te doen.

Indirect heb je als consument heel veel macht zonder een woord gesproken te moeten hebben, maar ja dat werkt alleen als de massa eraan meewerkt.

Bijvoorbeeld een goedkopere versie kopen als er maar 1 aanbieder is of uitstellen van een nieuwe aankoop. En het is niet eens zozeer het bedrijf zelf die een prijs bepaald (tenzij je Microsoft heet die nogal wat financiële klappen kan verdragen, ik noem Xbox) maar meer de economische "regels". Productie/onwikkelingskosten/winst/mogelijke afzet/omzet(consument! dus) etc. gaat in een formule en er komt een getal uit om het simpel te zeggen :P
Je ziet die 10 procent bijna niet in de uiteindelijke frames... en dat voor $300 meer. Waardeloze kaart dus. Ook volgens Anandtech.
In niet GPU gelimiteerde scenarios zie je die 10% wel duidelijk.
10% is bij 20 fps maar 2fps meer.. dat zal toch echt geen wereld van verschil zijn, laat staan dat je daar $300 voor gaat lappen. En bij bijvoorbeeld 80fps win je maar liefst 8fps, maar als je al zo hoge fps hebt, zie je het verschil toch niet meer, dus alweer geen reden om daar een paar honderd euro extra neer te tellen..
Een oud ezelfsbruggetje is dat je minimaal 30% verschil in prestaties moet hebben voor je het ook zonder benchmarktools goed kunt merken.
En je punt is? Ik zeg dat die 10% hogere clock wel degelijk te zien is aan de frames. Of je dat nu in real life merkt of niet, is niet van tel.
Het punt is dat veel mensen geen kapitaal extra willen uitgeven voor een verbetering die ze in de praktijk toch niet kunnen merken tov de veel betaalbaarder 8800 GTX

Of je dat in real life wel of niet kunt merken is voor het merendeel van de kopers wel degelijk een heel belangrijk punt! Ook bij de high-end kaarten.

Niet voor niets zie je een trend komen naar 4 soorten kaarten ipv 3: low-end, mainstream, high-end, premium-price.
Nvidia en ATI hebben ook in de gaten dat die premium-price kaarten voornamelijk interessant is voor benchmarketing en niet voor de verkoop. En dat de high-end gamer echt niet compleet idioot is, en dus gaat voor een high-end kaart met een realistische prijs.
bwah, misschien niet in de huidige games, maar over 2 jaar is 10% meer dan welkom, en dan al dat anti-aliasgeweld, hdr, Anisotropics, enz...
elk beetje meer is zijn geld waard bij een high-end
Over 2 jaar koop je voor 300 euro wellicht een betere kaart...
wellicht? dat weet ik wel heel zeker eigenlijk.
dan zijn ze waarschijnlijk weer 2 generaties verder namelijk.
Wordt het eerst niet eens tijd om een stabiele driver voor Vista neer te zetten zodat ik profijt heb van m'n 8800GTX?
Volgens mij zijn er zijn mensen die hem stabiel hebben met vista.
Inderdaad de ingenieurs die het kaart ontwerp op zich nemen tikken immers in hun avond uurtjes ook de drivers in elkaar.
Gebruik gewoon XP want er zijn nog geen dx10 games.
Jammer dat ze er geen gig geheugen in hadden gegooid, hoewel bijnan utteloos qua performance, zou het de kaart meer elite status geven ipv een kaart wat met een beetje volt modden & overklokken overtroffen wordt...

(en 768 is gewoon een raar getal :P)
Dit komt door de memory interface.

De 8800GTX/Ultra heeft een memory interface van 384-bit (384x2 = 768mb), terwijl de 8800GTS een memory interface heeft van 320-bit (note de 320mb en 640mb versies).

De r600 heeft een memory interface van 512-bit, en wordt dienhalve ook uitgebracht in 512mb en 1024mb.
Leuk dat er dus gewoon geen moer van klopt... Je kunt gewoon het aantal geheugen op je databus aansluiten dat je zelf wilt. Wanneer geheugen < databus zullen een aantal lijnen van de databus niet worden gebruikt. In alle andere gevallen zal de hele databus worden gebruikt.

De ATi Radeon 9800 heeft ten slotte ook een 256bit databus en werd ook met 128MB uitgerust.

Haal A.U.B. bit niet in de war met MegaBit...
Ik haal niks in de war (onzinnige opmerking).

Zoals jezelf al aangeeft 256-bit bus met 128mb (is de helft) net als de een 384-bit bus met 768mb zit (dubbel) net als de 320/640mb uitvoeringen. Hetzelfde geldt voor de ati kaarten (dubbel, of 1:1)

Het komt er dus op neer dat de grootte van het geheugen van de videokaart afhankelijk is van de memorybus, zodat deze memory bus zijn werk het meest gunstig kan doen.
kom op zeg.. met een 384 bits lijn kun je 2^384 adressen adresseren in het meest optimale geval, das heel wat meer dan 1 GB Ze hebben het gewoon gedaan voor de snelheid. 512 bits lijnen (wat voor de snelheid weer erg leuk zou zijn) is waarschijnlijk nu nog te kostbaar.
Je haalt adresruimte en geheugen door mekaar. Met 32 bits adressen kun je al 4GB geheugen addresseren

Het uitlezen van geheugen (nadat je dus een 32 bits adres hebt aangebracht op de adrespinnen) kun je over meerdere bytes doen. Als je een 256 bit brede bus hebt dan lees je het geheugen per 32 bytes uit (16x16).

Een brede bus zorgt er dus voor dat je veel geheugen per clocktick kan uitlezen, maar zegt niet over de hoeveelheid geheugen die je kunt addresseren; die ligt vast door de hoeveelheid bits die je gebruikt om adressen te specificeren.
"Je haalt adresruimte en geheugen door mekaar. "

Ik weet er weinig van, maar het klinkt meer als het door elkaar halen van adres en data lijnen (wat jij geheugen noemt).

Een 384-bit adresbus bestaat natuurlijk niet (daar zou je 2^384 geheugenadressen mee kunnen aanspreken).

Een 384-bit databus klinkt mij wel normaal in de oren. En inderdaad, daar moet je dus banken die een veelvoud van 384 zijn op aansluiten, anders gaat het mis.
de breedte van de geheugen bus en de hoeveelheid geheugen die op een kaart zit heeft wel degenlijk met elkaar te maken maar heeft niks te maken met wat jullie tot nu toe hebben gepost

het zit zo.
elke geheugen chip heeft een 32bit interface
elke chip heeft zijn eigen geheugen lijnen naar de GPU of deelt die met 1 andere chip (maar dat gebeurt nu eigenlijk niet meer omdat de hoeveelheid chips dan te groot worden).
met een 320bit interface heb je dus dus 10 chips nodig.
met een 384bit interface heb je 12 chips nodig.
de hoeveelheid geheugen die je kunt gebruiken heeft dus te maken met hoeveel chips je minimaal moet gebruiken
maar natuurlijk ook met hoeveel geheugen elke chip opzich heeft.
de chips zullen nu elk 256Mbit aan data bevatten, wat precies klopt.
(320bit /32 = 10chips. 320MB * 8 = 2560Mbit
2560Mbit / 10chips = 256Mbit per chip)
en voor de 640 en 768MB versies worden waarschijnlijk 512Mbit chips gebruikt.

bij de 9800 werden chips met 128mbit aan ruimte gebruikt waarschijnlijk en daarom is de verhouding tussen bandbreedte en hoeveelheid geheugen zo anders.
(de som :
interfacebreedte-in-bit / 32 = hoeveelheid chips minimaal.
hoeveelheid geheugen in MB * 8 = hoeveelheid geheugen in bits.
hoeveelheid-geheugen-in-bit / hoeveelheidchips = hoeveel geheugen per chip in bits.
En om het volledig te maken: een doorsnee PC heeft een 64 bit databus in single channel en 128 bit in dual channel. Daarom zitten ze allen met 512 MB, 1024 MB, 2048 MB,... omdat dat veelvouden zijn van 128 bit (en dus van 64).
Dan had het meteen 1.5 GB moeten zijn, en was de kaart helemaal onbetaalbaar. Het moet een tegenstander zijn van de Radeon HD 1900 XT en/of XTX, die naar verluid niet te duur zullen zijn.
Als ik dat zo'n beetje lees, is men toch niet echt tevreden met deze nieuwe kaart.

HardOCP:
The Ultra is simply a marketing tool of NVIDIA.
Anandtech:
The NVIDIA GeForce 8800 Ultra is an utter waste of money.
Selectief quoten kan ik ook:

TR: The GeForce 8800 Ultra's clock speeds are a little bit higher than the 8800 GTX's, ... that's more than sufficient to make this the new Fastest Single Video Card on the Planet.

G3d: it's the fastest high-quality, high-performance, DirectX 9 and DirectX 10 ready graphics card on the market. Currently there's nothing out there that can beat it. The GeForce 8800 Ultra 768MB is a tremendously sexy product

PCPer: if you want the absolute fastest graphics card for your PC, you will be buying this card for the foreseeable future.

enz ...
Er is een verschil tussen het constateren van de feiten:
- het is de snelste kaart die je kunt kopen (jouw drie quotes)
en een mening geven over de kaart:
- het ding is z'n hoge prijs niet waard. (de andere twee quotes)

Wat betreft selectief quoten bewijs je dat je er zelf ook erg goed in bent. Want TR is helemaal niet zo tevreden over de kaart. Ondanks dat ze in jouw quote wel constateren dat het de snelste kaart is.
Ze vinden het ding gewoon te weinig extra bieden voor het geld:
TR: The holder of the graphics performance crown is rarely available for $88.88 at Wal-Mart, but the Ultra's value proposition is more suspect than usual for a top-end part—not because it breaks new ground in graphics card pricing, which it does, but because there are GTX cards already available with strikingly similar clock speeds for about $200 less. That fact tarnishes the performance crown this card wears, in my view. I expect the Ultra to make more sense as a flagship product once we see—if we see—"overclocked in the box" versions offering some nice clock speed boosts above the stock specs. GeForce 8800 Ultra cards may never be killer values, but at least then they might justifiably command their price premiums.
We'll be keeping an eye on this issue and hope to test some faster-clocked Ultras soon.
Een flagship kaart is nog nooit zijn prijs waard geweest dus dat is niets nieuws onder de zon. Ik beweer ook niet anders.
Dat klopt, maar wat wel nieuw is, is dat de review sites er zo massaal hun teleurstelling of zelfs onvrede over uitspreken.

In het verleden waren ze over het algemeen toch dol-enthousiast over de flagship kaarten.
Verder dan een aantekening dat het wellicht niet voor iedereen was weggelegd door de hoge prijs, kwamen ze meestal niet.
Dit zijn ook vrij simpele toezeggingen :D
Wat ik ook kan:
De duurste kaart die er zo'n beetje is, moèt wel de beste zijn :P
Je moet het goed interpreteren. De kaart op zich is subliem en supersnel maar de meerwaarde die je krijgt als consument t.o.v. een GTX rechtvaardigen niet het stroomverbruik en de véél hogere prijs.
10-15% sneller??

AnandTech:
"Often, when reviewing hardware, it is difficult to draw a hard line and state with total confidence that our conclusions are the only logical ones that can be drawn from the facts. We try very hard to eliminate personal opinion from our reviews and provide readers with enough information to form their own educated opinions. We try to point out the downsides of the best products out there, as well as the niche uses for which otherwise disappointing hardware might shine. So often our job is about balance and temperance.

But not this time: The NVIDIA GeForce 8800 Ultra is an utter waste of money."
Daar kan ik me volledig bij aansluiten, lol. Meer dan $800, voor een overgeklokte kaart die, door de verhoogde vcore (of gcore, hoe je dat ook wil noemen) nog minder lang mee zal gaan ook.

Als we niet begrepen dat ze een beetje wind uit de zeilen willen halen van ATI, wanneer die hun R600 kaart officieel aankondigt, zou het eigenlijk een behoorlijk beschamende vertoning wezen om de Ultra met zoveel bravour te presenteren.
hoe lang hij meegaat is bij deze kaart voor de kopers nietzo belangrijk die gaan echt niet jaren deze kaart hebben, die willen over jaartje wel weer betere als het niet eerder is ;)
tot iemand de hoogste 3dm06 score neerzet en deze kaart als zoete broodjes (bij de rich bastards) over de toonbank gaat
wat heeft het eigenlijk voor een nut om die 8800gtx (ultra) zo hard te laten lopen. De cpu is voor een standaar 8800gtx al een bottleneck... :?
in dx9 games wel ja, met dx10 word dat weer compleet anders.
daar moet de g80 core zich nog bewijzen, en daar zal de bottleneck weer verschuiven naar de GPU waarschijnlijk.
Een CPU is de bottleneck soms ja, maar met veel AA en hoge resoluties wordt op den duur de kaart toch de bottleneck,... maar als je een gewoon LCD schermpje a 19 inch ofzo hebt heb je hier niet veel aan,..

(denk alleen dat als je zo'n kaart koopt je vast wel minimaal een 22 inch hebt :P)
De snelste tot nu toe, klik hier.
wat een koeller zit daar op die 2de foto.

vergeet SLI maar.
Is dat niet een soort van silence versie? 2 keer 80mm fan lijken mij stiller als zown klein rot ding...

Als je SLI wil draaien maakt het je denk ik weinig uit hoeveel herrie het maakt..
Nee, die Calibre kaart heeft als het goed is peltierkoeling erop zitten en daarom is het koelblok ook zo groot. De koeler moet tenslotte de warmte van de peltier en de warmte van de 8800 afvoeren.
Ik ben blij dat mijn 7900GTO's (SLI) weinig herrie maken, anders had ik ze ook nooit als set genomen :)
|:( 829 dollar omfg!

In geen 829 jaar dat ik zoveel geld zou uitgeven aan een videochip die over een jaar hopeloos achterhaald is. Nouja als er idioten zijn die het er voor over hebben :z

Ben wel benieuwd wat zo'n kaartje doet in een benchmark als 3DMark2007 straks. Zal er wel heel :9~ uitzien.
Wie verplicht je van die kaart te kopen? Ik snap het gezeur over de prijs niet. Er zijn toch ook goedkopere kaarten?
Mensen hadden gehoopt dat dit ding de prijs van de 8800GTX omlaag zou drukken.

Maar aangezien deze Ultra ook Ultra-kostbaar wordt, zal ie de prijs van de GTX niet drukken.
En daarom zijn mensen dus teleurgesteld.

Aangezien jij al lang een GTX hebt, is dat voor jou uiteraard geen probleem.
De reden waarom de prijs van de GTX niet naar beneden gaat is omdat ATI geen volwaardige concurrent heeft. Blame ATI.
Dat is ook een heel belangrijke factor daarin, maar is geen antwoord op de vraag waarom mensen over de prijs van die Ultra zitten te zeuren.
Ik betwijfel of de prijzen van de GTS en GTX gaan dalen. Ik hoop het van harte, zodat ik een GTX ga nemen, maar, zeker als je naar de laatste regel van het artikel kijkt, acht ik de kans klein :(
Je zou versteld staan van wat er plots mogelijk is met wat concurrentie. ;) Bovendien heeft NVIDIA nu wel al zeer hoge yields voor de G80, en is GDDR3 op dit moment spotgoedkoop. Last but not least, NVIDIA heeft niet de eerste maand een antwoord op de Radeon HD 2900 XTX. Naar alle waarschijnlijkheid komt de Ultra nog 10-15% te kort. Dus de bijl zetten in de prijzen is hun enige optie.
De XTX verschijnt pas Q3 op de markt en de eerste benchmarks (dailytech) zijn duidelijk. De XTX komt zelfs niet in de buurt van de GTX.
die eerste XTX gebruikt nog helemaal geen vast geleged specs (staat ook in het artikal) en zegt dus nog totaal niks.
in Q3 kunnen ze al een hele nieuwe stepping hebben gemaakt.
het verschil tussen de XTX en de TX was ook zo klein dat ik niet zie waarom, als dat de echte specs zouden zijn, hem niet meteen kunnen lanceren.
daarbij was die GTX die ze in dat artikal gebruikte vanuit de fabriek ZWAAR overklokt tot OVER de snelheid van deze nieuwe ultra kaart.
En daar komt nog bij dat er misschien 1 a 2 frames prestatiewinst geboekt wordt in spellen. Echt geen reden voor iemand om ultra te kopen.

GTX + overclock should do the trick.
De prestatiewinst is er wel degelijk. Bekijk de reviews maar eens goed. Er is altijd een reden om de snelste kaart van de planeet te kopen, of zoals G3d het zegt:
Yet realistically there's always a market for products like these. Cards with an X-factor, the ooh-factor, filling a gap in your social life, bragging rights, e-peen (such a cool word to use don't you think?) this is the category called enthusiast product and each year it's getting more expensive and each year more people are buying high-end product.
Inderdaad zoals G3d het zegt: Er zijn een heleboel slechte redenen om deze kaart te kopen :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True