Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 60 reacties
Bron: Fudzilla, submitter: Atmosphere

Dell heeft per abuis de specificaties van nVidia's GeForce 8800 Ultra online gezet. De kaart, die oorspronkelijk afgelopen week op de markt had moeten komen, wordt momenteel tegen het einde van mei in de winkel verwacht.

nVidia GeForce-logoDe gegevens over nVidia's nieuwste grafische kaart werden gisteren per ongeluk online gezet. Hoewel de pagina binnen de kortste keren al weer verwijderd werd, zorgde de site Fudzilla voor een kopietje. Aan de hand daarvan is duidelijk geworden dat de gpu van de 8800 Ultra een kloksnelheid van 650MHz aangemeten heeft gekregen. Daarmee is de Ultra niet veel hoger geklokt dan de GTS- en GTX-modellen uit dezelfde serie, die op respectievelijk 500MHz en 575MHz draaien. Ook het geheugen van de Ultra is met 2160MHz niet extreem veel sneller dan de 8800 GTX, die van een geheugenklok van 1800MHz is voorzien. Het geheugen, dat net als op de GTX met een 384bits brede bus aan de grafische processor is geknoopt, is van het gddr3-type, waarmee eerdere geruchten over gddr4 zijn weerlegd. Verder zou de Ultra, net als de GTX, over 128 streamprocessors beschikken. Over de snelheid daarvan werd niets gezegd, maar volgens onbevestigde berichten zouden die op 1,8GHz draaien. Ook bleek dat er 768MB op de kaart geprikt zal worden, waarmee de gelijkenis met de GTX erg groot is.

EVGA GeForce 8800 GTX (klein) Van diverse kanten werd dan ook gesuggereerd dat de Ultra in feite niets meer dan een speedgrade van de GTX is, en niet eens een erg imposante: zo heeft XFX al sinds vorig jaar een 8800 GTX die over een coreklok van 630 MHz en een geheugenklok van 2GHz beschikt. Zeker wanneer er wat aan de koeling wordt verbeterd, lijkt een dergelijk product dan ook makkelijk naar Ultra-snelheden overgeklokt te kunnen worden. Toch wordt vrij algemeen vermoed dat de Ultra tot dertig procent sneller dan een gewone GTX zal presteren, waarbij het des te meer opvalt dat de Ultra vermoedelijk niet duurder dan de kleinere broer zal worden. Of deze geruchten bewaarheid worden, wordt duidelijk als Dell de kaart definitief in de verkoop gooit. Dell heeft weliswaar een geschiedenis van productversies die net iets lager geklokt zijn dan de hardware van de concurrentie, maar omdat deze kaart een rol in het highend XPS710-systeem moet vervullen lijkt dat ditmaal onwaarschijnlijk.

Moderatie-faq Wijzig weergave

Reacties (60)

30% sneller zijn dan een GTX met maar 12% meer kloksnelheid.... kan dat eigenlijk wel?
De 128 streamprocessors zijn mogelijk ook een stuk hoger geklokt, vandaar dat er meer winst is.
Nou Ik denk het niet dat hij dan 30% sneller kan zijn.

Want ze schalen alles intern op. Clockspeed met 12% omhoog maar daardoor gaan de shaders ook met 12% omhoog. ( Deze lopen wel bijna op dubbele snelheid )

Dus hij zou dan 12% sneller moeten zijn en meestal haal je dat niet eens.

Het zou wel zo kunnen zijn dat het geheugen de bottelnek was en doordat dat aanzienlijk versneld is je dus 30% krijgt. Maar ook daar geld dat dat dan 30% hoger geclockt moest zijn.

Dus het lijkt me heel erg sterk dat je met 12% hogere clockspeeds meer winst krijgt. Vaak heb je met bv 10% hogere snelheden 5% winst of zo.

Of ze hebben ook hele andere dingen verandert en niet alleen de clockspeeds.

Het zou misschien die Missing MULL kunnen zijn waar tweakers het al een tijdje over hebben. Er zou namelijk een extra MULL units in de G80 core zitten die nu niet gebruikt werden. Maar of het waar is .....

Edit:

Ik heb even wat onderzoek gedaan: Die 2e Mul hoort bij de SFU ( wat dat ook mag zijn ) Maar die heeft die 2e Mul Alu niet altijd nodig. En dan kan hij voor andere dingen gebruikt worden. Op dat moment zou je een MuL performance hebben van 1.15x ipv 1.0.

Maar dit geld ook gewoon voor de 8800 GTX en niet alleen voor de Ultra. Deze aanpassing is sinds kort in de drivers aanwezig. Mogelijk wordt in de nieuwe 15x.x drivers de efficiëntie van het inzetten van de 2e MUL ALU Verbetert.
Het zou misschien die Missing MULL kunnen zijn...
Vanwaar de tweede 'L'?
Die 2e Mul hoort bij de SFU ( wat dat ook mag zijn )
Special Function Unit. Deze berekent delingen, exponentiëlen, logaritmes, vierkantswortels, en geometrische functies. Er zitten een paar vermenigvuldigers in, waarvan ééntje ook bruikbaar zou zijn om te helpen bij de shaderberekeningen - indien beschikbaar. Het is dus zeker niet zo dat er een kant-en-klare vermenigvuldiger in zit die men opzettelijk nog onbenut liet. Het gebruik van de SFU voor een extra vermenigvuldiging brengt enige complicatie met zich.
30% lijkt me wel erg steil voor een schamele 75Mhz overclock. Dan kan je de shaders idd ook wat hoger klokken, maar zoveel rek zal er daar wel niet meer in zitten imo.
Als jij in 1 kloktik 2x zoveel instructies kunt uitvoeren of een operatie als delen / worteltrekken kost de helft minder kloktikken dan kun je bij gelijke snleheden zelfs stijgingen krijgen van 30%
Klink aannemelijk als reden waarom een AMD processor en eentje van Intel op gelijke clock het anders doen maar niet voor dezelfde core,... want dat die core zo effectief is geldt dan voor elke clocktik en niet voor alleen die er nu extra bijkomen,... Denk dat de winst hem toch meer zit in snellere shaders (zoals hieronder ook al over gepraat wordt).
Ik neem aan dat de snelheid ook nog afhankelijk is van andere factoren dan de kloksnelheid.
alom een grote teleurstelling als het waar zou zijn. als dit echt het obstakel is dat nvidia aan het opzetten is voor ati denk ik dat ze netjes van hun troon gestoten gaan worden (als de papieren specs van de X2900 ook wel degelijk goed hun werk doen tenminste) op vlak van snelste kaart. none the less blijven de 8800 kaartjes deftig presteren en denk ik dat nvidia gewoon een prijsverlaging moet invoeren om de X2900 te counteren. zal nu niet bepaald een groot probleem zijn daar de 8 reeks nu toch al wel een 6-8 maanden oud is
Hoezo? Als die Ultra dadelijk hetzelfe presteert als een R600, dan is het juist ATI die het nakijken heeft: want dan komt ATI dus met een kaart die niet eens sneller is dan het topmodel van nVidia -- en dan ook nog een 3/4 jaar te laat.
't Hangt er nog van af hoeveel de Ultra zal kosten. De HD 2900XT zal rond de 430-450¤ kosten, waarmee hij 50¤ goedkoper wordt dan de 8800GTX nu. De Ultra zal imo zeker niet goedkoper worden dan 550¤, aangezien men cores moet cherry-picken.
De 8800GTX clockt lekker over, ze hebben bij NVidia 6 maanden aan het ontwerp kunnen schaven voor deze Ultra, ik denk dat NVidia betere yields gaat halen dan ATI hoor, die nu pas de eerste DX10 PCB layout en masker klaar hebben dat klaar is voor massproductie ;)
Maar goed, ik zie het allemaal wel, als er iets komt dat redelijk energiezuinig is in idle stand koop ik die kaart, en aangezien de 8800GTX zuipt als ie in 2D modus staat, hoop ik dat ATI er wel in slaagt mij dat te bieden. Als je PC 90% van de tijd 2D draait is dat toch belangrijker dan de 10% dat er games op draaien :)
Ja, "oeps".

Sorry, maar ik geloof niet meer zo in het per ongeluk op je website zetten van informatie die nog niet bedoeld is om uit te lekken.

Zijn er genoeg die dit marketingtechnisch wel zo bedoeld hebben.
Tja, ik geloof ook niet zo in ongelukken. Het zijn gewoon allemaal aanslagen van een geheime organisatie die mensen van keukentrapjes laat vallen om duistere redenen. :Z

Iedereen kan wel zomaar wat geloven en denken. Wanneer je echter geen bewijzen hebt, is het IMO beter van het meest waarschijnlijke uit te gaan en dat is dat bedrijven ook wel eens een foutje maken.
Wanneer je echter geen bewijzen hebt, is het IMO beter van het meest waarschijnlijke uit te gaan en dat is dat bedrijven ook wel eens een foutje maken.
...vlak voor de lancering van elk nieuw high-end produkt dat sinds de eeuwwisseling gelanceerd is.

Oeps oeps oeps oeps....
Aangezien elke videokaartmaker en elke systeembouwer al lang de specs heeft en die al lang naar elke websiteonderhouder doorgegeven heeft, lijkt het me vrij onvermijdelijk dat iets uitlekt.
Slaat natuurlijk nergens op.

Ik ben het met Exorcist eens omdat

1) Dit ongelukje ineens toch veel publiciteit oplevert, had Dell natuuuurlijk niet gewild
2) ATI misschien denkt dat ze hun uit te brengen niet verder hoeven op te krikken, de ultra is immers toch niet veel sneller
3) Nvidia ook weer wat reclame heeft voor hun allernieuwste kaart.

Ik zie eigelijk geen nadelen aan dit nieuws, niet voor Dell noch Nvidia..
jij wel?
Ooit gehoord van content scheduling?

Datum invoeren vanaf een stuk tekst weergegeven mag worden op een site. Als je dan het stuk mist waarbij de kaart afgeblazen wordt...

Of je dacht nog steeds dat alle berichten daadwerkelijk om 12 uur 's nachts (bijvoorbeeld) ingevoerd werden?
Een 8800GTX @ 630/2000 haalt al zoveel met een QX6700
Daarmee bewijs je mooi dat het dus heel goed mogelijk is om 30% winst te halen met enkel snelheid verhogen. Ook geeft dit mooi weer dat de 8800 Ultra waarschijnlijk niet veel meer is dan een standaard overclockte 8800GTX.
De productnaam doet al vermoeden dat het niets meer is dan een hoger geklokte 8800GTX.
Als het meer was dan hadden ze hem echt wel een andere naam gegeven bijvoorbeeld 8850Ultra of 8900Ultra. Of als het echt nieuwe zou zijn dan zelfs 9800Ultra.
De echte vraag is natuurlijk of dit gewoon goed overklokbare, en (in goed Nederlands) "uit-gemaxte" 8800GTX-es waren, of dat dezen zelf ook gewoon weer over te klokken zijn.
30% blijft 30% he. Als de GTX in combi met de QX6700 14300 punten kan halen, dan zou de Ultra hier 18590 punten moeten kunnen halen.
niet echt,
3Dmark neemt de cpu score mee in de totaal score, als de 8800 Ultra 30% sneller is, dan moet enkel het videokaart gedeelte +30%, de QX6700 blijft dezelfde score houden
onder het motto eerst zien dan geloven, geloof ik niets van die 30%
En al zeker niet als de prijs zowat gelijk zal zijn met de GTX.
Waarom? De prijs van de GTX is al maandenlang torenhoog omdat er geen concurrentie is van ATI. Nu de Radeon HD 2900 op komst is kan NVIDIA de GTX in prijs doen dalen en de Ultra hetzelfde prijspunt in laten nemen. Ze gaan daar echt hun broek niet aan scheuren; het 90 nm proces zal intussen wel heel goede yields opleveren, en met DDR3 geheugen nemen ze ook geen risico.
Als de ATi Radeon HD 2900XT is naar zeggen sneller dan de 8800GTX. Als de 8800Ultra de 2900XT inhaalt heeft ATi altijd nog de 2900XTX achter de hand.

Maar jah 30% sneller...

ff een berekeningetje: 1,3x11000 puntjes= 14300 3dmark '06 puntjes voor de 8800Ultra ?

we w8 en af :)
als die nog komt
nieuws: ATi DirectX 10-videokaarten heten Radeon HD 2x00
2900XT schijnt de snelste te worden.
de XTX zou mogelijk niet komen omdat men gelijk voor een update wil gaan ipv energie in de XTX te steken.
hoewel dit natuurlijk altijd speculeren blijft :Y)
En de XT schijnt al 225 Watt te verbruiken. Dus tenzij ze een derde externe power connector aanleggen is dubbel zoveel geheugen van hetzelfde soort en procede eigenlijk al uitgesloten. Hogere clocksnelheden waar de XTX over zou beschikken gaan helemaal flink extra verbruik veroorzaken. 75Watt uit het mobo en 75Watt per PCI-E power connector is precies de 225 die de XT verbruikt. Ik hoop dat de refresh van ATI danwel NVidia tussen de 150-200W gaat verbruiken en ook de idle power consumption eens aanpakt, want dit gaat echt de verkeerde kant uit :(
De Shader clocksnelheid kan een grote invloed hebben op de prestaties, dit is al meerdere malen door eVGA uitgebracht. Als de Shaders daadwerkelijk geclockt zijn op 1.8GHz is die 30% niet zo heel gek.

Het grappige is wel, dat deze kaart dan sneller is dan de Radeon HD 2900XT, want die is op dit moment ongeveer 15% sneller dan de 8800GTX

Ik denk dat we ook nog 8600 Ultra's kunnen verwachten
Daarvoor houd ATI de HD2900XTX 1GB achter. Die neemt het dus op tegen de 8800U
Nou uh, 75Mhz hoger geklokt op een totaal van 575Mhz vind ik toch redelijk veel, en hetzelfde geld voor de 2160Mhz dat is 360Mhz meer.

Het is wel jammer dat er maar 768MB geheugen op zit, en geen GDDR4 en geen 512bits bus, misschien is dat wel helemaal niet nodig op dit moment, wat moet je met het ultieme monster als als processors het niet eens bij kunnen houden, of laat staan.. dat er spellen zijn die zoveel eisen.
Met meer dan 768MB ben je op dit moment toch niks, en dat zal nog wel even zo blijven. En de geheugenbus uitbreiden, tja, dat vergt ten eerste al een gewijzigd design (lees: geld), ook de kaart zelf kost dan een stuk meer, beide zaken zouden de kostprijs van de kaart zodanig opdrijven dat concurreren met de HD 2900 niet meer lukt. Zelfde verhaal voor GDDR4.

En 75 mhz is echt niks btw. De meeste G80's raken ongeveer wel op 630-650.
Zijn er eigenlijk 8800gtx biossen waarbij ook de shaders sneller worden? Zo ja, lijkt me leuk om te proberen :) :7
Je kunt met Nibitor ook zelf de shader clock aanpassen in een BIOS naar keuze, en die flashen.
Wel slim van nVidia om een tijdje niet meer de naam ultra te gebruiken na dat fiasco van de vorige keer,.. Hoop dat deze beter beschikbaar zal zijn,.. denk dat als nVidia dit keer het weer zo slecht gaat doen dat ze dan nooit meer de naam ultra kunnen gebruiken zonder gelijk te horen te krijgen dat die kaart nooit te krijgen zou zijn :P

Nou laten we hopen dat de prijzen van de 8800 gts en gtx dan maar ff snel gaan dalen ^^ (en de aankomende HD2900XTX lekker goedkoop wordt uitgebracht)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True