nVidia Crush performance info

De mannen van Digit-Life hebben van een 'betrouwbare bron' te horen gekregen hoe snel de Crush chipset van nVidia gaat worden. Volgens Digit-Life zal de 3D performance van de Crush 11 chipset (SDR) 30 procent lager liggen dan die van een GeForce2 MX, en de snelheid van de Crush 12 chipset (DDR) zal daar juist 10 procent boven liggen. Waarmee deze resultaten zijn gehaald wordt niet verteld.

Zoals het er nu uitziet gaat nVidia dus als eerste fabrikant een chipset maken met relatief goede geïntegreerde graphics. GeForce2 MX kaarten gaan tegenwoordig als warme broodjes over de toonbank, en als je moederbord sneller is dan zo’n kaart hoef je dus zelfs als tweaker zijnde geen aparte videokaart meer te kopen. En zoiets kan alleen maar goed zijn voor je portemonnee :

Door Hielko van der Hoorn

10-12-2000 • 01:25

25

Bron: Digit-Life

Reacties (25)

25
24
9
1
0
12
Wijzig sortering
Krijgt die Crush z'n eigen video RAM en een aparte bus daar naartoe, of wordt het main RAM gebruikt? In dat laatste geval zal de CPU performance afnemen als er flink gerendered wordt, zeker als je een CPU met een kleine cache hebt. nVidia's cores zijn niet bepaald zuinig wat geheugen bandbreedte betreft.
nee, gewoon apart ram, dat kan je ook wel LEZEN
(of heb je groep 3 geskipt ofsow)

en de Crush heeft dual-channel DDR-ram dus al zou die videokaart main geheugen gebruiken zou er toch nog wel genoeg bandbreedte overblijven
Anoniem: 3380 @MM10 december 2000 10:13
De dual versie zou misschien beter lopen op de geheugenbus:

128bit * 266 = 4256MB/s

de MX haalt 128bit * 166 = 2656MB/s

Er van uitgegaan dat de NV17 integrated core in de Crush 12 afgeleid is van de NV20 en dus ook HSR ondersteund(en ook weer beter in elkaar zit) dan zou ie met wat overclocken beter meoten presteren dan de GTS van dit moment. Dat zou natuurlijk niet slecht zijn voor een geintegreerde chipset. Maar nadeel is dan dat 128MB (dus 2 * 64) niet meer genoeg is. Je meot dan dus 2 * 128 gaan prikken en dat wordt wat prijzig
In mijn tijd heette dat nog de eerste klas ;)
Maar waar zie je dat dan staan? In de post en in het gelinkte artikel zie ik daar niets over.
Het zou leuk zijn als deze chipset in een laptop zou komen, kun je tenminste eens een keer fatsoenlijk gamen in de trein :P
Daar heb je ook lekker veel aan, quake 3 wordt 1 grote vlek op je tft |:(
Eèh, juist die TFT schermpies zijn de laatste jaren een stuk beter geworden :)
Je moet gewoon een laptop nemen met een dikke videochip (G-force@16
MB+) en je kan UT& als een zonnetje :)
zeg maar de Gforce-Go
Klinkt leuk, maar weet je wel hoe snel zoiets leeg is als je hem echt gebruikt ?
het zou welles kunnen dat het ERG snel op is met je stroom.. en gezien de kwaliteit van de NS atm, verwacht ik dat je je dan net zo erg irriteert :)
de Gforce go gebruikt maar 1.5 Watt ofzo
Eigelijks zouden ze alle laptop chippies met Silicon 28 moeten maken, vind ik best wel wat hebben.Dus wacht nog even tot de nieuwe generatie laptops eraan komen, es kijken hoe zuinig die zijn... nVidea kan daar ook wel van leren, snellere graphics op een hoog geklokte core, 500Mhz ofzo :)
Je gebruikt niet alleen je Gforce bij gamen hoor :)
Ik moet eerlijk zeggen, dat ik geen idee heb want een Gforce in watt's gebruikt. Ik weet wel dat een beetje computer (desktop) zo'n 200 watt bij 100% usage wel haalt. Wat zou dat van een laptop zijn ?? bij 100% usage ? Ervanuit gaande dat je met gamen een 100% belasting genereert
Met beeldscherm zal die dit wel gebruiken.
zo te horen heb ik er al meteen een "crush" voor :)
ook al val ik meestal niet zo op geïntegreerd.
Anoniem: 6104 @Leon10 december 2000 10:26
"en als je moederbord sneller is dan zo’n kaart hoef je dus zelfs als tweaker zijnde geen aparte videokaart meer te kopen"

hehehe, ik ken weinig tweaker is inderdaad een geintegreerde videokaart zouden kopen, ikke niet tenminste... als er iets kapot gaat met je mooi klaar. upgraden zit er meestal al helemaal niet bij. Tevens moet het moederboard waar het opzit wel goed zijn. Want dat is een vereiste om een mobo te komen... en niet de videokaart.. (of hij moet 200 piek zijn :P)
En wat ook zeer leuk is, is dat de Crush DDR Ram ondersteund. Alleen hoop ik niet dat er net zoals bij de videokaarten het geval is, elke week nieuwe drivers komen, dan blijf je je BIOS aan het flashen :)
Ja wanneer gaan ze nou starten met een leuke mobile gfx chip?

met dat supersilicon gebruik je practish geen energie, behalve voor HD en monitor.

En de NS moet stroomstekkerdoosjes gaan sporten :)
Een paar dagen terug stond er in de krant dat de NS z'n intercity gaat verbouwen tot treinstellen met airco's en leren bekleding EN in de eerste klas bij elke stoel een stopcontact voor laptops!
Hoeveel moet ik bijbetalen voor een 1e klas OV? :)
Zoals het er nu uitziet gaat nVidia dus als eerste fabrikant een chipset maken met relatief goede geïntegreerde graphics.
Ik meen me te herrinneren dat ATi ook met een north bridge bezig was, die on-board TnL zou hebben. Ofte wel: een North Bridge met Radeon technologie. Ik heb er al eeuwen niks meer van gehoord, maar ik weet wel dat ie eerder was aangekondigd dan de Crush van nVidia.

Klein detail ;)
Ja dat was met een of ander bedrijfje dat ze opgekocht hadden. Project hete ArtX of zoiets.
Zullen wel zien. maar volgnes mij hadden ze het in de koelkast gegooit
Zoiets staat mij ook iets van bij over de Radeon. Weet alleen niet meer waar ik het heb gelezen. Moeten ze alleen wel zorgen dat ze een beetje op tijd uit komen met deze chipsets. Om weer een jaar te wachten heb ik helemaal geen zin in.
Ging die Chrush chipset nou nog dual channel DDR ondersteunen?, in dat geval zal ik de bencmarks wel eens willen zien t.o.v. de P4Žs...
Ik vraag me af of hoeveel deze chipset duurder zal zijn dan die s3-via chipset, immers de 2d (!!!) kwaliteit van deze videochipset is tig maal beter (3D ook, is alleen wat l a n g z a m e r . . .)

Op dit item kan niet meer gereageerd worden.