Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 26 reacties
Bron: Digit-Life

Digit-Life heeft wat info weten te bemachtigen over de chipsets die nVidia volgend jaar op de markt gaat zetten. De chipsets zullen beschikbaar komen voor Intel en AMD processoren en ze gaan voorlopig schuil onder de code naam 'Crush'. De eerste Crush chipset, de MCP-1, zal ondersteuning bieden voor SDR en DDR SDRAM en heeft een geďntegreerde NV11 (GeForce2 MX) om de oude troep uit de geďntegreerde chipsets van o.a. VIA en Intel te crushen. De MCP-1 zal in februari 2001 beschikbaar worden, gevolgd door de MCP-2 in mei. De MCP-2 zal opgevolgd worden door de MCP-3, die in juli op de markt komt met nog een betere grafische core :

Our reliable source close to NVIDIA reported that the company WILL release three (!!!) core logic chipset solutions for both Intel and AMD platforms next year. The MCP-1, MCP-2 and MCP-3 chipsets have code-name Crush.

So, the first Crush chipset (or MCP-1) will be released in February'2001 - it will support SDRAM and DDR266 memory and will have NV11 integrated graphics core. It will be available for Intel (Coppermine) and AMD (Athlon) platforms (as was mentioned above) - as a confirmation of this fact we can name ASUS' upcoming mainboards from their roadmap based on this chipset: CUN266 for Coppermine and A7N266 for Athlon.
The second one (MCP-2) will be introduced in May'2001 and the third Crush chipset (MCP-3) with an improved graphics core will appear in July.
Moderatie-faq Wijzig weergave

Reacties (26)

mm ziet er dus naar uit dat ze echt meer willen dan alleen graphics. Op zich geen slechte ontwikkeling als het maar niet ten koste zal gaan van kwaliteit en dat je tegen een grote muur aanloopt met je problemen(ala creative).

Opzich wel een goed project om een MX in een chipset te bakken, maar is er wel een markt voor? Misschien budget gamers ofzo. Voor de rest zie ik het niet niet echt: die hards willen geen integrated spullen en voor office heb je weer niet zo veel 3D power nodig dus is het verspilling en is een oplossing als de hieronder besproken PM133 beter.

Wat ik me ook zat af te vragen was wat nVidia gaat doen in de budgetmarkt met hun opkomende chipset. Ze hebben nu de MX die erg veel value bied, maar met de opkomende NV20 zou dat nog veel beter kunnen. Dit is wat nVidia zou kunnen doen om een kickass verkoop te krijgen:
De NV20 krijgt HSR (Hidden Surface Removal) dat neemt een deen van de geheugen bottleneck weg. Dus neem een NV20 core haal weer 2 pipelines weg en haal ze iets naar beneden qua speed(ala MX) maar laat de coe verder intact. Neem nu snel SDRAM of iets minder snel DDR RAM en je hebt een kickass kaartje wat waarschijnlijk sneller is dan een standaard geclockte GTS en wat door de simpele core en het nieuwe 0.13µ proces van TSML erg goedkoop te maken is.


* 786562 ThaVinny
Dit is het perfecte mobo voor de OEM fabrikanten. Ipv van een achterhaald videokaartje (wat er nu meestal opzit) heb je een mobo met de 'nieuwste' videokaart.
Want dat vind ik wel altijd opvallen, in die pc's zit altijd de nieuwste PIII maar als je dan kijkt wat voor videokaart erin zit dan barst je bijna in huilen uit :)

Dus ik denk dat er een hele grote markt is voor deze chipset. Omdat Nvidia een grote naam heeft zijn er denk weinig fabrikanten die niet deze chipset zullen gaan gebruiken.
Ik weet niet of we nu meteen wel zo enthausiast moeten zijn. NVidia heeft helemaal geen ervaring met het maken van chipsets.
De eerste VIA chipsets waren ook lang niet zo goed als die van nu (en hun processoren zijn nu ook nog niks :)).
Of krijgt NVidia hulp van iemand?
1) Via chipsets waren 'niks' omdat hun geheugen interface langzamer was (en nog steeds is) dan iNtels geheugen interface. iNtels geheugen interface loopt synchroon wat zich vertaald in kortere latencies. Via's geheugen interface loopt daarentagen a-synchroon zodat PC66, PC100 en PC133 geheugen kan worden gebruikt.

2) Via heeft Cyrix gekocht om 'n CPU in huis te halen. Cyrix heeft zich nooit op de powermarkt gericht maar meer op de SOHO markt.
BDW: de i815 en 820 hebben een asynchrone geheugeninterface. Dit kan één van de redenen zijn dat de i815 trager is dan de BX.
Dit betekend dus dat er eindelijk een chipset op de markt komt met een serieuze grafische chip. (dus ook geschikt voor de poweruser). Is mede een zeer goede ontwikkeling omdat het moederbord dan afgestemd kan worden op die videochip.
Gevolg: Een stabieler en sneller videokaartje wat ook nog eens minder kost dan een aparte videokaart.
Alleen moeten we nu nog wachten op zo'n moederbord waarbij er standaard 2 monitoren op aangesloten kunnen worden. Dan hebben we helemaal een ideaal moederbord wat relatief weinig gaat kosten.
Ik denk eerder dat het een allround chippie word.
de hardcore games wil n.l. een geforce 3 (of wat er dan op de markt is)
de zakelijke gebruiker zal eerder voor een goeie beeldkwaliteit gaan (matrox b.v.)

nee, ik denk dat het een huis-tuin-en-keuken chipset word.
Welke zakelijke gebruiker? De 85% die alleen maar Word, Excel en een mailprog gebruikt op 1024x786 op een 17" of een 800x600 op een 15". Daarvoor is dit echt wel goed genoeg.
Je vergeet de groep die niet bakken met geld heeft en die toch een goed presterende videokaart willen. Dat is een grote groep. De groep die de duurste en snelste videokaart koopt is klein en daarom dus minder interessant voor de producent. Die halen uit die groep alleen maar een klein beetje extra winst. Ze brengen een nieuwe kaart uit die hoog geprijsd is. Een kleine groep koopt hem tegen die prijs terwijl de meeste mensen een tijdje wachten en de kaart kopen als ie niet meer zo duur is.

Is ook de reden dat ik een GeForce MX heb. Ik wil wel meer, maar heb het geld niet.
tegen de tijd dat het chipset op de markt komt is de NV11 ook wel een beetje verouderd. En daar komt nog bij dat Intel in hun nieuwe chipsets voor de P4 een een (naar eigen zeggen) snelle videokaart inbouwen. Ben benieuwd


* 786562 The
Verouderd, hmm vergeleken met een GeForce 3 en voodoo5 6000 wel, maar nog lang, en ik bedoel dan ook lang, niet zo verouderd als de troep wat je kan vinden bij via en intel als geintergreerde videokaart vergeleken met wat er nu op de markt is.
Ik heb me wel eens afgevraagt waarom ze nooit een concept uitdenken waarbij een speciale videoverwerkingsunit (de GPU dus) op het mobo wordt geplaatst en eventueel ook nog wat speciaal videogeheugen....
Ehm, dat concept bestaat al een tijdje. Het heet een AGP-slot :).
Over dat videgeheugen: vroeger was het mogelijk om geheugen bij te plaatsen, maar tegenwoordig niet meer, volgens mij omdat het om te grote hoeveelheden gaat.
?? euhm dacht het niet he.. AGP is voorlopig nog niet snel genoeg voor textures en geheugen bij plaatsen neemt meestal te veel ruimte in of ontvangt te veel storing
Bovendien is het geheugen op de videokaart meestal van een speciaal merk en type en dat is moeilijk te verkrijgen .. maw dat gebruiken ze zelf
Ziet er leuk uit. Want die i810 is toch zeker wat verouderd. Ik denk dat het zeker een interessante laptop chipset is, zekers als die stroom zuinig is. Ben benieuwd naar benchmarks.
kan best leuk zijn voor laptop idd. en dat om de volgende redenen:
MX trekt weinig stroom, zeker als de helechipset op een 0.13µ procede gaat gebakken worden bij TSML(wat erg aanneembaar is aangezien dat is waar allee NVIDIA chips vandaan komen en daar zijn ze nu naar dat proces aan het overgaan)
De chipset gebruikt DDR RAM. Dat loopt op 2.5v en trekt dus minder stroom dan het 3.3v SDRAM. het loopt alleen wel op 133Mhz denk dat je eerder 100Mhz ram zou gebruiken in een laptop, maar zou kunnen.

het is dus erg goed mogelijk, maar verwacht eerder een zuinige Ali DDR chipset met een AMD morgan 1.2 chip in de opkomende laptops.
MCP-1/-2/-3; staat dat toevallig voor Geforce 1/ 2/ 3?
NV11 (GeForce2 MX)
Nee dus.

Ik vind het jammer dat nVidia geen chips zonder geintegreerde graphics gaat uitbrengen. Bovendien vraag ik me af wat in febuari 2001 het nut van SDR ondersteuning is. Hopelijk is dat dan wel uitgestorven. Beter is misschien ook DDR200 te ondersteunen naast DDR266. DDR200 moet immers nog komen, dus zal er begin 2001 ook nog wel zijn.
Tsjah, ik vraag me af hoe ze de memory bottleneck willen gaan verkleinen.

De GPU's lopen qua snelheid voor op het geheugen dus lauter snellere GPU's ontwikkelen heeft volgens mij niet al te veel zin of zie ik dat verkeerd?
kun je nu ook bijv. moederborden verwachten met meer VGA aansluitingen? Dit zou wel leuk zijn. 2 VGA standaard plus PCI kaartjes :D
[wild guess mode]
Het zou natuurlijk kunnen dat ze samenwerken met Intel aangezien zij geen chip mogen maken met DDR-RAM support gezien het contract met RAMBUS.
[/wild guess mode]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True