Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties
Bron: X-Bit Labs, submitter: XWB

Zoals al werd verwacht heeft ook nVidia chipsets die twee PCI Express x16-slots ondersteunen aangekondigd. Van de vooral voor gamers interessante nForce4 SLI x16-chipset wordt zowel een Intel- als een AMD 64-variant verwacht. Dit nieuws komt niet onverwacht: Dells XPS 600, waar we eerder over berichtten, zal met de nieuwe nVidia-telg worden uitgerust. De SLI x16-chipset beschikt over nVidia's nieuwe 'System Platform Processor' en 'Media and Communication Processor', die elk over 'minimaal' zestien PCI Express-lanes beschikken. Daarnaast zijn de chipsets uiteraad uitgerust met alle features waar eerdere versies ook al mee te koop liepen: RAID, Gbit ethernet met firewall, 3Gbit SATA en natuurlijk USB 2.0, FireWire, 8-kanaals AC'97 audio en natuurlijk een PCI-bus. Hoewel de Intel-variant dus op korte termijn via Dell uitgeleverd zal worden, is het nog niet duidelijk wanneer de chipsets voor andere fabrikanten beschikbaar zullen komen.

nVidia's nForce4 SLI x16-chipset, Intel-variant (thumb) nVidia's nForce4 SLI x16-chipset, AMD-variant (thumb)
nForce4 SLI x16-chipset layout (klik op afbeeldingen voor grotere versies)

De Intel Edition-versie kan met diverse Pentium 4-, Pentium D-, Pentium EE- en Celeron D-processors overweg; naast ondersteuning voor een 1066MHz FSB en 667MHz dual channel DDR2-geheugen zijn ook 4 PCIe x1-slots beschikbaar. De AMD-versie van de nieuwe nForce4 kan overweg met dual-coreprocessors en ondersteunt 1000MHz HyperTransport-bussen, maar moet het met slechts twee PCIe x1-lanes doen. Naast de voor de hand liggende toepassing met twee grafische kaarten in SLI-opstelling is het tweede PCIe x16-slot ook geschikt voor bijvoorbeeld dual tuner-kaarten en netwerkapparatuur die de extra bandbreedte weten te waarderen. Toch blijven gamers de belangrijkste doelgroep: 'De introductie van de XPS 600 zet de SLI x16 als de nieuwe standaard voor gamesliefhebbers neer', hoopt nVidia-topman Jen-Hsun Huang.

nVidia nForce4 SLI Intel Edition

Lees meer over

Gerelateerde content

Alle gerelateerde content (26)
Moderatie-faq Wijzig weergave

Reacties (47)

En zouden die 2 16x lanes dan echt zo'n prestatiewinst geven in SLI dan een opstelling met 2 8x lanes?
Met de huidige kaarten en games zal het verschil minimaal zijn, in de toekomst zal dit veranderen. Zeker aangezien nVidia elke PCI-E X16 uit een andere chip haalt en hierdoor moet de 2de PCI-E x16 via een trage intereconnect met de CPU praten. Het nieuwe ATI chipset RD580 zal biede PCI-E x16 sloten uit een chip halen wat de latency weer ten goede zal komen. Maar dit verschil zal enkel in benchmarks merkzaam zijn vrees ik.
Nee, dat mag je niet verwachten. Kaarten krijgen de huidige bus nog niet eens vol, in SLI is dit voor beide kaarten 8x.

Zelfde verhaal als met AGP 8x, die bus is ook nooit vol gekomen...
Tegen de tijd dat er kaarten komen die die bus wel benutten, is er of alweer een andere bus, of is je CPU alweer te sloom om die snelle kaart bij te houden. Zie AGP4X introductie, zie AGP8X introductie.
De eerste AGP4X en AGP8X borden hadden ook vrijwel helemaal geen nut, aangezien de snelle videokaarten nog moesten komen. Later upgraden naar zo'n snel ding die het wel benut is vrij zinloos als je systeem dan al weer 2 jaar oud is.
Gaan we weer....

Is agp wel echt nodig? Nu niet, in de toekomst wel
Is agp 4x wel nodig? Nu niet, in de toekomst
wel...
Is pci-e nu wel echt nodig? Nu niet, in de toekomst wel
Is pci 16x nu wel echt nodig... ?
Is pci 16x nu wel echt nodig... ?
nee en het lijkt erop in de nabije toekomst ook niet
hoe nieuwer de game hoe minder bandbreedte de videokaart nodig blijkt te hebben.
ipv dat de CPU alle effecten doet zoals vroeger, rekend nu de GPU alles uit. het enige wat er nog naar de kaart toegestuurt moet worden zijn de textures als het level geladen word, en verder alleen nog de instructies van wat er op het scherm moet.
tot 4x PCI-E heeft de bandbreedte geen merkbaar, en een nouwelijks meetbaar effect op de FPS.
als je 2x 16 lanes eruit kan persen zijn er ook fabrikanten die dit omzetten in een extreem mobo met 4 x 8 lanes welke dan weer te gebruiken zijn voor én een sli én een dikke raid kaart én een dikke netwerkkaart. niet dat dit beestje heel mainstream zal worden maar het is wel geinig om over na te denken
Tenzij de GPU ook taken van de CPU gaat overnemen. En dat kan wel over niet al te lange tijd beginnen.
zoals microchip al aangeeft gaat dit op de lange termijn ook niet gebeuren. dit is enkel marktechnisch een leuke kreet die zeker bij dell klanten zal inslaan 'heeft dual 16x yadieya aanwezig' niemand die een systeem langer dan 3 jaar aanhoud en vervolgens gaat upgraden aangezien dan pas iets zullen zien die de volle bus weet te benutten (misschien).
kan iemand me vertellen waarom intel hier het eerste mee aankomt zetten van nvidia en niet een andere producent?
Denk het erlijk gezegd niet, aangezien ik al tijden op 8x draai met mijn X800 en ik geen prestatie verschil emrk met 16x.
Maybe dat het wel voor toekomstige kaarten een stuk sneller is omdat die meer bandbreedte gebruiken.
Maar nu nog niet.
Naast de voor de hand liggende toepassing met twee grafische kaarten in SLI-opstelling is het tweede PCIe x16-slot ook geschikt voor bijvoorbeeld dual tuner-kaarten en netwerkapparatuur die de extra bandbreedte weten te waarderen.
Of PCIe x8 RAID controllers (Areca)??

gezien het universele karakter van het tweede slot....
gezien het universele karakter van het tweede slot....
Ik hoop dat het eerste slot een even universeel karakter heeft.
Dit is gewoon pure verkooppraat. Zelfde verhaal als 256MB geheugen op een Radeon X300 of Geforce 6200 gooien...
Je geeft het voorbeeld bij uitstek! Hoeveel mensen uit mijn kennissenkring heb ik niet gehoord dat ze voor die of die kaart zouden gaan, want "die heeft ook al 256MB en kost maar de helft". Verder hebben ze geen benul van de specs en de benchmarks van de betreffende mid-range kaarten. Ze geilen alleen maar op de getallen. |:(

Zo ook hier met PCI. Wedden dat het zal verkopen? ;)
:'( Wij willen SoundStrom damnit !!! :(

* 786562 nero355
Ik heb liever een (nieuwe) royalty-free standard voor digital serial multi-channel audio transport over een enkele kabel.
Fijn dat SLI nu met 2x PCIe 16x kan, maar voor dat voordeel in bandbreedte wordt wel een prijs in latency betaald, nu moet de tweede kaart wel via de southbridge aangesloten worden, iets wat dus zeker niet goed is........
ze hebben een poosje geleden bij tomshardware getest wat er gebeurt als je de videokaart op lagere X** gaat draaien, is uitgekomen dat je het pas gaat merken als je op 4x gaat draaien. zelfs 1x was nog mogelijk, al vond windows het niet fijn.
pas als er kaarten zijn die de 16x ook echt gaan gebruiken is dit nog zinloos, maar ik denk dat dat niet zo lang meer duurt. vooral als je bekijkt dat je mobo toch langer meegaat dan de graka. (als het goed is)
Het enige wat ik hier zie, zijn discussie's over of het nou wel of niet nuttige verbeteringen zijn, en of het nou wel of niet merkbaar is.

Ergens snap ik het niet, deze chipset heeft veel positieve verbeteringen, aangezien de bandbreedte wel nuttig gebruikt kan worden in de vorm van bandbreedte intensieve insteekkaarten (idd. Raid kaarten) Eerst hoor je overal om je heen gezeur over een te kort aan lanes in een chipset, nu zijn er meer, en dan hoor je gezeur dat het misschien wel helemaal niet nodig is. Terwijl dit gewoon een postieve verbetering is.
* 786562 The

Waarom zou je in godsnaam een bord kopen met dure features die feitelijk overbodig zijn :?
Er is geen enkele GPU te krijgen die een PCI-Express x8 volledig weet te benutten. 2x PCI-Express x8 zou dus voldoende zijn.
Hardwarematige firewall op je Gbit-NIC is eng: een blunder in de firmware maakt hem waardeloos. Wat is er mis met IP-Tables :?

Het zal vast wel leuk zijn om te patsen met je features, maar om daar nou (veel) meer dan noodzakelijk voor te betalen...
Waarom zou je in godsnaam een bord kopen met dure features die feitelijk overbodig zijn
Marketing of zoals iemand anders het noemde: georganiseerde oplichting.
Omdat je een tweaker bent die het mooiste van het mooiste wilt om ermee te flashen op sites als deze? (waarom zou je anders een Volvo V70 2.5 t5 kopen als je met een 1.8 toch ook al 120 haalt en je toch niet harder mag dan 120)
Wat een bullshit zeg,

Als jouw theorie zou kloppen dan had iedereen een fiat panda gehad omdat die ook 120 haalt.
En iedereen moet ook maar weer een pentium 2 terugkopen omdat je daar ook msn op kan draaien.

Sommige mensen willen idd het mooiste van het mooiste.
Ikzelf ben daar eentje van, maar dat is niet omdat ik dan hier kan pimpen met mn specs. Ik wil graag de mooiste snelste spullen omdat ik dan BF2 kan draaien op 1600x1200 met 4xAA aan.
En misschien is 2x pci-e 16x ook wel handig omdat je dan niet volgend jaar weer een nieuw mobo kan gaan kopen als de gfx-kaarten echt pci-e 16x gaan benutten.
Mijn huidige mobo is nu al zo'n 2 jaar oud, maar hij komt zelfs nu nog aardig mee met de top-bordjes. (abit ic7-max3, 6x s-ata, dual ddr @ 533mhz, Gbit lan, etc etc)
Als ik volgend jaar een nieuwe pc ga bouwen wil ik dat hij over 2/3 jaar nog steeds alle games goed draait, dus ik zou niks anders kopen dan een bordje met 2x pci-e 16x.
Relax, man.

Dit was maar één reden.

Draaien van apps op zeer hoge instellingen is inderdaad een tweede. Zelf vind ik niet dat én 1600x1200 en 4xAA en nog wat van de extra beeldverbeteringen nodig zijn. Bij 1600x1200 vind ik de karteltjes al klein zat. (ik heb laatst op t.net nog zitten studeren op het alpha aliassing plaatje en vond niet dat ik erg veel verschil zag, maar ik ben dan ook brildragend). De vraag of die hele hoge specs nodig zijn, is dus een tweede en heeft een persoonlijk antwoord.

Je reactie ondersteunt in feite de mijne, dus om hem bullshit te noemen...
How, dat zeg jij wel

maar doe eens een testje met een PCi-E kaart en een PCI-E bord.

Vaak hebben die boren 1x 16x
1x 8x
en 2x 2x

Probeer je kaart in het 16x slot en draai 3dmark (versie onbelangrijk). Nu in het 8x slot en zie hier, de score is fors lager. Het verschil wat ik hier had, was 3k punten in 3dmark01.
Nu in het 8x slot en zie hier, de score is fors lager.
Hoeveel actieve lanes had dat slot? Een fysiek x8 slot heeft niet (altijd) 8 actieve lanes. Zeker niet als het over een desktop board gaat.
Wat te denken van de Turbocache versie kaarten,die vinden de x16 echt wel lekker,minder duur geheugen op je gpu-kaart en je gebruikt dan systeem geheugen.idieaal voor de budget man.
right, dan koop je een superduper moederbord met sli en gooi je er een superduper budget kaart in? misschien als server, maar dan nog heel erg onwaarschijnlijk.
Maar het gaat hier over 2 keer 16x... dat heb je alleen nodig voor dure SLI opstellingen. Dan gebruik je dus geen turbocache, want dat is sowieso trager...
En andere PCI-e borden hebben meestal al één 16x slot
idieaal voor de budget man.
En totaal waardeloos performance-wise.
Eerste wat ik dacht toen ik de titel zag: "maakt nVidia ook nog gewone chipsets? Voor de gewone consument die een mooi passief gekoeld chipje wil en geen dure meuk die andere dure meuk nodig heeft?"
Heb mijn nForce4 ultra passief gekoeld, werkt prima tot nu toe :)
Dat laten ze denk wel over aan andere chipsets makers...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True