Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties
Bron: Bron: N/A

Het zal je niet ontgaan zijn: nVidia heeft vandaag haar eerste chipset officieel geďntroduceerd. Dat is natuurlijk niet onopgemerkt voorbij gegaan bij de verschillende hardware sites en die hebben dan ook allemaal een stukje neergezet over de nForce. Zo kan je bij Digit-Life, Tom's Hardware, SocketA.com en nV News terecht als graag het fijne wilt weten van deze chipset.

Verder is er bij Penstar Systems een preview verschenen waar ook een paar benchmarks in te vinden zijn. De benchmarks komen van nVidia vandaan en laten indrukwekkende resultaten zien. In Stream D benchmark is de nForce chipset met een 64-bit interface naar het geheugen 20% sneller dan de AMD760 chipset en met een 128-bit interface is dit zelfs 75%. Logischerwijs zien de mannen van Penstar Systems deze chipset wel zitten :

NVIDIA is going to take over the world. So far reports on this chipset have been very positive in real world settings, and the overwhelming specs that NVIDIA included in this product are mind-boggling! This product is literally 2 years ahead of its time, and NVIDIA was able to complete it in slightly over a year. This is not bad for a company with no prior experience in the core logic market.

While I don’t have a board in my possession, nor have I seen any 3rd party numbers coming out of this board, I feel that it will perform up to expectations, and may in fact surpass these expectations. When I originally heard NVIDIA was going to develop a core logic chipset, I didn’t think they could pull it off, or at least be able to match the performance of other products at the time of release. Currently it looks as if the nForce will rule with an iron fist from top to bottom.

The extra bandwidth provided by the dual channel DDR memory controller, as well as that afforded by the HyperTransport protocol will not go unwasted. When all processors are working at full speed, that extra bandwidth will be needed and much appreciated. As digital content becomes more and more complex, older architectures will be left far behind when dealing with the huge overall bandwidth that this product has.
nForce StreamD benchmarks

Onze dank gaat uit naar EaS, FlipFlap, GiGNiC en tigger voor tips!

Moderatie-faq Wijzig weergave

Reacties (50)

Hij zou ook memory truckjes krijgen zoals een twin controler

De normale GFMX heeft SDR wel wat hoger geklokt maar de crush heeft DDR dat weer iets sneller is maar gedeeld en een paar interne truckjes

ben toch benieuwed hoe ie het doet in de wat hogere resoluties en bij reallife benchmarks
De normale GFMX heeft SDR wel wat hoger geklokt maar de crush heeft DDR dat weer iets sneller is maar gedeeld en een paar interne truckjes
Nee, de Crush gebruikt dual channel DDR-RAM net zoals de P4 dat met RDRAM gebruikt, daar komt ook de zin ...en met een 128-bit interface is dit zelfs 75%. vandaan (2 x 64bit).

De bandbreedte is dus veel hoger wat vooral leuk is voor de A4 aangezien die meer bandbreedte nodig heeft omdat hij hardware prefetching gebruikt.
Voor de duidelijk heid GF MX 166 tot 200MHZ 128bits SDR
tegen 2x 64bits op 133MHZ (2x)DDR

Ja dat zeg ik toch jij ook ik nu weer 'n keer.

De A4 heeft weinig aan die Dual DDR omdat zijn FSB maar 2100G/s net genoeg voor 'n enkele

Die dual channel DDR is er voor de geintergreerde GF2MX zodat ie evenredig presteerd met 'n lossekaart variant. wat op heden nog niet was door memory scharing met maar 64bit en vaak ook maar PC100/PC133

Als intel vriendjes kan worden met nvidia is dat wel 'n mogelijk heid om 'n P4 te gebruiken, maar dan moeten ze de geintergreerde GF2MX er uit halen dan krijgt de P4 'n bandbreedte van 4200Gb/s en z'n quadpumped 100Mhz FSB kan dan wat omhoog om zijn CPU bandbreedte goed te laten aansluiten op die Dual DDR maar nvidia heeft geen chipset lecentie van intel gekregen.
De A4 heeft weinig aan die Dual DDR omdat zijn FSB maar 2100G/s net genoeg voor 'n enkele.
Het zit toch anders, het is trouwens 2.1GB/s PEAK maw. in de praktijk haal je dit niet. Je cpu is niet het enige die gebruik maakt van het geheugen. Dus in real life zal de effectieve bandbreedte ongeveer 1GB/s zijn gemiddeld genomen. Neem een extra kanaal en heb je opeens 2GB/s wat net binnen de 2.1GB/s valt van de Athlon. Zeker geen slecht idee dus. En de 128 bit interface benchmark resultaten laten dan ook een winst van 75% zien. Hoe zou dat komen ?

Dat is eigelijk ook het revolutionaire aan deze chipset, nVidia heeft ervoor gezorgd dat alle componenten over voldoende bandbreedte kunnen bechikken. Twinbank is ook bedoeld om je overal systeem prestatie te verbeteren, en niet om je CPU alleen meer bandbreedte te geven.

Het enige waar ik bang voor ben is dat deze chipset vanwege de vele geintergreerde opties moeilijk te overklokken gaat worden, althans FSB overclock.
(hoop het niet uiteraard) Ik zou wel es willen weten wat voor stream benchmarks je op bijv. 150Mhz (300 DDR) zult zien.
mijn mx heeft ddr hoor :)
Kijk dit is goed!!! nVidia heeft het gewoon goed begrepen, eindelijke nieuwe technieken toegepast in de moederbordwereld!!! Dit maakt het nieuws van een paar maanden geleden over de samenwerking van AMD en nVidia in een klap zeer geloofwaardig.

Ik moest ook nog even kwijt dat dit mij nu eindelijk een beetje aan het Amiga tijdperk doet denken...
Offtopic, maar ik wil het toch weten. Wat bedoel je met'denken aan het amiga tijdperk' ?
Bij de Amiga werkte alles ook lekker goed samen... Ik heb nog steeds het gevoel dat de verschillende onderdelen van een PC niet op elkaar afgestemd zijn. EN de Amiga had een WOW-factor, die ik op de PC niet meer meegemaakt heb sinds de introductie van de Voodoo1...
Hypertransport, 128bit DDR, DD 5.1 realtime, geďntegreerde DASP, lan, GF2, modem, enz, enz. Kan iemand me knijpen.

Maar even serieus, die chipset is toch ontwikkeld met de X-BoX in het achterhoofd, die maakt toch gebruik van Intel, is het niet veel slimmer hier een AMD bij te proppen of zijn Microsoft en Intel daar gewoon te dikke maatjes voor.

edit:

Ik dacht dat nVidia deze technologie had ontwikkeld na aanleiding van het feit dat zij door Microsoft waren aangewezen als partij die de chipset en onboard features gingen ontwikkelen. Ik vind het dan ook onlogisch dat de eerste chipset die veel van deze technologie gebruikt er een voor AMD is. Of lul ik nu gewoon echt onzin (toch meer tweakers en minder andere nieuwssites dan).


Ik hoop trouwens dat nVidia ook processors gaan maken, dat zou wel eens een leuke concurrent kunnen zijn en dan weet ik tenminste zeker dat ik alles wat nu in mijn mobo zit in de prullenbak kan mieteren.

Even een vraagje m.b.t. de APU, er zit een hardware matige DirectX8 audio processor op. Betekent dit dat ik straks een nieuwe mobo moet kopen als DirectX9 uitkomt, of kan dit op een of andere manier dan bijgewerkt worden (http://www4.tomshardware....q2/0106041/nforce-07.html), want mijn huidige moederbord is nog niet zo oud, maar toch al zeker wel twee DirectX versies en ik heb er niet zoveel vertrouwen in dat de games straks zeggen 'normaal moet je DirectX10 hebben, maar als je een nForce hebt is het ook goed.'
Ik snap misschien niet helemaal wat je bedoelt met dat DirectX 'probleem', maar een geluidskaart die gebruik maakt van DirectX 8 functies werkt nog net zogoed met DirectX 9 en hoger. DirectX krijgt steeds MEER functies, de functies van DirectX 8 gaan dan niet ineens weg waardoor die soundprocessor niet meer zou gaan werken. Die zitten namelijk ook in DirectX 9, maar dan samen met nog weer meer nieuwere functies.

Een spel die bijvoorbeeld DirectX6 nodig had werkt toch ook nogsteeds met DirectX8, of wil je nou zeggen dat elke keer dat er een nieuwere DirectX uitkwam dat spel opnieuw geschreven moest worden omdat het anders niet zou werken? |:(
Een spel die bijvoorbeeld DirectX6 nodig had werkt toch ook nog steeds met DirectX8.
Dat is toch iets heel anders dan een moederbord met hardware DirectX8 ondersteunt ook DirectX10. In jouw geval heb je het over het backwards compatible zijn van software en ik refereer aan forward compatible zijn van de APU.

Maar als geen van de bestaande instructies ooit aangepast worden en er alleen nieuwe worden ontwikkeld dan kan het nog werken, alleen is dan een hogere DirectX versie vertragend in plaats van een verbetering, aangezien je niet meer van je APU gebruik maakt voor je nieuwe instructies.
Ehh, ik kan je even niet vatten. Ok ik vergeleek software met hardware.. misschien kan ik het nog iets duidelijker stellen!.

Een Geforce3 maakt gebruik van DirectX8 functies.
Allemaal leuke nieuwe snufjes, net als de GF2 met DirectX7 features.
Je zult er vast wel wat over gelezen hebben.
Dit bedoelen ze ook met deze soundprocessor in de nForce, deze maakt ook gebruik van DirectX8 functies net als de GF3, alleen dan op een ander vlak.
En aangezien diezelfde functies ook in DirectX9 zitten verandert er dus helemaal nix aan!, Het is dus niet zo dat het is "ontwikkelt voor directx8 en NIX anders", nee het maakt gebruik van de functies en zal ze uiteraard ook nodig hebben om te werken!

Dit wil toch helemaal niet zeggen dat het met DirectX9 ineens slechter zou performen of wat je dan ook maar suggereerd.
Dankjewel ;).

...oeps, verkeerde niveau. Aan BruT@LysT in ieder geval.
Maar even serieus, die chipset is toch ontwikkeld voor de X-BoX, die maakt toch gebruik van Intel, is het niet veel slimmer hier een AMD bij te proppen of zijn Microsoft en Intel daar gewoon te dikke maatjes voor.
LOL :) Het gaat hier om een chipset voor AMD CPU's :).
De Xbox zou in eerste instantie ook gebruik gaan maken van de Athlon.. nu heeft Intel echter die deal voor AMD haar neus weggekaapt met een "offer M$ couldn't refuse".
Dus wat betreft Nvidia, ze hebben het concept voor de Nforce met Intel GTL+ bus natuurlijk klaar liggen alleen geen license van Intel.
Ook leuk om te lezen was dat tijdens de presentatie ze Intel ook nog even lekker in de zeik zetten met hun "more is better Ghz P4 marketing...." tss "More is less" hehe

Quote: "NVIDIA's presentation of the chipset offered an interesting jab at Intel that went as follows: "NVIDIA's DASP technology dramatically enhances CPU performance well beyond other X86 architectures - even those with substantially higher 'published' core frequencies."

Dit is waar AMD en ja wie eigenlijk niet.. op zit te wachten. Ik stel m'n aankoop tot Tyan thunder toch maar efkes uit... ;)
*slik* dat ziet er wel heel mooi uit... zit ik hier met m'n KT266 :(

Maar dan, met zo'n snelle chipset vind ik het jammer dat er een geintregreerde GF2 MX opzit... dat is dan toch een ontzettende botleneck?? ik bedoel, er hoeft nix geintregreerd te worden, gewoon een AGP slot en we kiezen zelf wel 'n leuke vid. kaart voor erop..
Er zit ook nog een aparte AGP op, dus je kan later altijd nog een andere vid kaart erin knallen. Maar voor heel veel mensen is een Geforce2 MX méér dan zat!
Maar veel mensen hebben niks aan een 3D-kaart en moeten dus onnodig veel betalen voor een geďntegreerde Geforce 2 MX-chip. Ikzelf speel nooit games en zou dus genoeg hebben aan een goede 2D-kaart.
waarschijnlijk liggen de extra kosten van de geintergreerde gf2mx lager dan de kosten van een losse 2d kaart (te meer omdat de interne geen geheugen heeft, wat op een externe kaart wel nodig is, en deze duurder maakt)
En daarbij, dan kopen ze een andere geintergreerde chipset, VIA/SIS of ATI.. keuze genoeg, en ik dacht dat nu juist het fijne was van pc's, kunnen kiezen wat jij wilt hebben...
die dual channel is er voornamelijk alleen voor de geintergreerde GF2MX zodat ie goed blijft presteren als of ie dedecated ram had zoals op een losse AG kaart

De CPU heeft er niet zo veel aan die is dan FSB geremd
Mocht dit helemaal waar zijn zal het een hele leuke chipset worden, maar dan blijft nog de vraag of andere mobo fabrikanten het willen gebruiken en of het een stabiele chipset is!! (niet dat ze dalijk north en soutbridge bugs krijgen bijvoorbeeld :) )

ik wens ze in ieder geval veel suc6 hiermee,
hoop dat ze ook beetje betaalbaar worden :)
dan wordt het echt :9
Mocht dit helemaal waar zijn zal het een hele leuke chipset worden, maar dan blijft nog de vraag of andere mobo fabrikanten het willen gebruiken
MSI gaat hem gebruiken en dat is niet de minste, dus het vertrouwen is er zeker.
en of het een stabiele chipset is!! (niet dat ze dalijk north en soutbridge bugs krijgen bijvoorbeeld )
Niet om te flamen...maar de enigste die problemen heeft om stabiele chipsets te bakken is VIA. (De KT266 is ook niet al te snel en vrij van bugs (altans, zonder allerlei beta BIOS'sen te proberen).
Dat VIA de enige is is volgens mij een voorbarige conclusie. Er zijn nog niet veel ervaringen met de nVidia chips dus we zullen wel zien...
Ik kan me ook problemen herrineren met Intel (i820+SDR), AMD (Irongate + AGP), ALI (AGP) en SIS (slechte performace). VIA is dus zeker niet de enige, en waarschijnlijk zal nvidia ook nog wel een bugje (klein of groot) kennen..
Kwijl! nVidia marketing mannetjes hebben weer de aandacht van performance gericht nerddom naar zich gericht gekregen. Maar goed, dit is marketingspeak. Als deze resultaten ook in real life gehaald worden is er maar één vraag over:

Waarom bakken mobo-bakkers dit voorlopig alleen in microATX formaat? Dergelijke spectaculaire performance gains zullen de meeste mid/high end freaks interesseren die graag meer dan 3 PCI sloten ter beschikking willen hebben.

* 786562 dion_b
Waarom bakken mobo-bakkers dit voorlopig alleen in microATX formaat? Dergelijke spectaculaire performance gains zullen de meeste mid/high end freaks interesseren die graag meer dan 3 PCI sloten ter beschikking willen hebben.
Er komen heus wel full size mobo's uit hoor, alleen gaat nVidia geen extra kosten maken voor een mobo dat toch alleen maar voor demo's gebruikt wordt. nVidia gaat zelf helemaal geen mobo's bakken dus is het ontwerpen van een micro-ATX bordje veel goedkoper dan een full-size mobo te ontwerpen).

Verder hebben de meeste mensen aan 3 PCI sloten genoeg, alles zit toch al onboard (geluid, NIC en video).

Hetzelfde zie je bij Apple, die hebben nou ook niet bepaald veel PCI sloten maar die hebben ook al alles onboard zitten.
Er komen heus wel full size mobo's uit hoor, alleen gaat nVidia geen extra kosten maken voor een mobo dat toch alleen maar voor demo's gebruikt wordt. nVidia gaat zelf helemaal geen mobo's bakken dus is het ontwerpen van een micro-ATX bordje veel goedkoper dan een full-size mobo te ontwerpen).
Natuurlijk gaat nVidia de hort op met een microATX. Maar alle mobo's die ik tot nu toe gezien heb (MSI, ABIT etc.) waren ook microATX. Vandaar. Vergelijk het maar met de introductie van willekeurig welk AMD, VIA (muv de P/KM133) of Intel bord. Intel introduceerde zelfs de i810 destijds op een full ATX.
Eindelijk staat de volle tekst op Anandtech- ASUS gaat een full ATX bakken, de rest blijft gedurende de exclusieve periode micro.

* 786562 dion_b
Hopelijk gaan ze dat ding ook zonder ingebouwde GF2mx leveren :)

misschien is nVidia wel de chipset-ontwerper waar AMD zit op te wachten :)
(want de VIA KT266 valt toch wel wat tegen)
nee er komt geen nForce zonder GF2mx. In de toekomst komt er wel eentje met een GF3

Daarnaast komt er binnekort een nieuwe revisie uit van de VIA KT266 die beter zou moeten presteren.
In de toekomst komt er wel eentje met een GF3
Waar haal je deze wijze kennis vandaan? En kun je wellicht een URL geven met officiele confirmation?

Dat ze voor een geeltje of zo aan meerprijs hun instapmodel integreren is goede marketinglogica, maar het lijkt me een beetje eigen ruiten ingooien als ze hun top-of-the-line GPU op de chipset zetten.
Kan URL zo 123 niet meer vinden. Maar bij de bekend making van het chipset werd er gezegd dat deze over de benodigde schaalbaarheid beschikte EN dat deze in de toekomst met GF3 zou worden uitgerust.

Dat het komt lijkt me daarvan afgezien ook logisch echter kan het best zijn van dan de GF5 al lang mainstream is.
Wat kost een onboard GF2mx-je nou voor de producent zelf, dat moet erg goedkoop kunnen... Klinkt leuk verder hoor, wat ik tot nu toe ervan heb gezien en gelezen, maar laat dat ding nu eens stabiel zijn en ook nog 2 Athlons ondersteunen, dan wordt hij ECHT intressant... Doe mij maar een goedkope Dual Athlon oplossing :)

[edit]
En bij de weg, als ze nou echt slim doen gaan ze
hem dus ook met ingebouwde GF3's of iets dergelijks leveren... Intressant, lijkt me zo...

[edit2]
Op Tom's Hardware lees ik dat de vewachtte prijsverschillen met huidige mobo's op zo'n $12-$22 ligt oftewel, 50 tot 100 piekjes duurder dan borden met andere chipset, en daarvoor krijg je dus wel Dolby 5.1 sound, GF2mx en lan onboard...
$12-$22 ofterwijl 50 tot 100 piekjes? Bij het GWK langsgeweest ofzo? :)
Zoiets vertaald altijd naar dergelijke bedragen... Gewoon ruwe schatting... Zou wel fijn zijn als het prijsverschil inderdaad exact met de $-koers meeliep :)
Ongeveer 25-50 piekjes, denk het niet dus :-)
De prijs van bordjes met deze chipset zal wat hoger liggen dan die met een gewone KT266 chipset ofzo.

De support van moederbord makers is er al:

ABIT, MSI en ASUS hebben al borden laten zien, de eerste 2 alleen µATX, maar toch.

Dat is ook niet zo gek want heel veel zit geintegreerd dus je hebt aan 2/3 PCI sloten al genoeg.
Met zo'n bordje kan je dus een erg mooi LANsysteem bouwen :)

All met all Dash met Omo een mooie chipset met flink wat potenties, mits we dat MSI bord binnen een maand op de markt vinden.
Prijs hoger dan KT266?

Betwijfel ik ten zeerste. Dit is rechtstreekse concurrentie voor de KM133/266, dus verwacht ik prijzen in die richting. Het kost nVidia bijzonder weinig- het is allemaal technologie die ze van de X-Box development op de plank hebben liggen.

De vraag is alleen hoeveel lagen de mobo's moeten hebben, en wat dat met het prijskaartje doet.
edit:
Net op THG gelezen dat het met 4 lagen moet lukken - erg goed nieuws mbt de prijs
Dit is rechtstreekse concurrentie voor de KM133/266, dus verwacht ik prijzen in die richting.
en volgens mij is de KM266 duurder dan zijn broertje zonder geintergreerde video, dus is het niet gek dat de nForce duurder zal zijn als de KT266.
De benchmarks komen van nVidia vandaan en laten indrukwekkende resultaten zien.

Hallo, ze komen van nVidia, eerst REAL TIME zien en dan geloven.

[no flame intended] maar het is gewoon vaak zo dat de real life prestaties tegenvallen tegenover de door de fabrikant uitgebrachte benchmarks.
Klop het grafische geintergreerd propleem is opgelost maar ook alle onboard componenten sluiten goed op elkaar dus er zijn meerdere bottle neck weggehaald maar reallife bench's zeggen alles.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True