Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 77 reacties

Na de onscherpe plaatjes van Asus' GeForce 8800-kaarten, konden we gedetailleerdere informatie over MSI's videokaarten met een G80-gpu op de kop tikken. Ook deze fabrikant zal met een GTX- en GTS-versie komen waarbij beide compatibel zijn met zowel DirectX 10 als OpenGL 2.0 en over Shader Model 4.0 en unified shaders zullen beschikken. De NX8800GTS zal voorzien zijn van 640 MB DDR3-geheugen, terwijl de NX8800GTX over 768 MB van dit geheugentype zal kunnen beschikken. De keuze voor GDDR3 is opvallend te noemen gezien het feit dat hogere kloksnelheden gemakkelijker te behalen zijn met het nieuwere GDDR4-type. Beide high-end kaarten zijn vanzelfsprekend voorzien van Dual Link DVI en HDTV-ondersteuning. MSI verwacht beide SLI-compatibele kaarten vanaf 8 november te kunnen leveren, maar prijsgegevens konden we nog niet bemachtigen. In elk geval is al duidelijk dat de kaarten zelf niet goedkoop zullen zijn, maar de noodzaak om twee extra stroomconnectors aan te sluiten, wijst erop dat ook de energierekening onder invloed van deze kaarten zal komen te staan.

De snelste, en bijgevolg duurste, versie zal zijn G80-gpu op 575MHz geklokt krijgen met geheugen dat zijn werk op 900MHz doet. Deze twee onderdelen communiceren met elkaar via een 384bits-bus, wat betekent dat er per seconde 86GB gegevens opgehaald kunnen worden vanuit het geheugen. Met zijn 128 unified shaders die op 1350 MHz geklokt zijn, zal deze kaart menig tweaker doen watertanden. De videocore van de goedkopere - hoewel 'minder dure' waarschijnlijk een accuratere betiteling is - NX8800GTS zal slechts op 500MHz geklokt zijn en via een 320 bits brede bus met het op 900MHz geklokte geheugen communiceren. Bovendien moet deze kaart het met iets minder shaders stellen, 96 om precies te zijn, die op 1200MHz tikken. Aangezien ook deze kaart - net zoals zijn snellere broertje - voorzien is van MSI's Dynamic Overclocking Technology, zal het vast niet lang duren voor enthousiastelingen proberen om de GTS-versie minstens even goed te laten presteren als de GTX-variant. Zoals eerder al bekend was geworden, zijn beide G80-kaarten overigens voorzien van physics-technologie onder de naam nVidia Quantum Effects. Bovendien ondersteunen zowel de GTX als de GTS 128 bit floating point HDR lighting.

MSI NX8800GTS MSI NX8800GTX
Links: GTS-versie | Rechts: GTX-versie | Klik voor grotere plaatjes
Moderatie-faq Wijzig weergave

Reacties (77)

als ik deze kaart zo bekijk lijkt hij erg veel op de asus, ontwerp van beiden zal dus afkomsting zijn van het referentiemodel, wat ik opmerkelijk vind aangezien asus hier vaak van afwijkt
De Asus X1900 was ook gewoon t referentiemodel met een ander plaatje..
heb jij dan al pics gezien van kaarten zonder coolers ??
Hij bedoelt hiermee de koeler die hetzelfde is als die van asus
Het zijn wellicht de ''Voorlopige'' modellen. de NVidia referenceboards.

Asus en MSI zullen wel met hun eigen ontwerp komen.

denk aan
''A8800GTX TOP'' die een andere koeler, ander kleurtje pcb
Ze zullen eerst allemaal op de referentie model lijken, want Nvidia heeft vooralsnog geen toestemming gegeven aan hun partners voor OCed cards.
Als ik goed naar de GTX kijk zie ik bovenop 2 SLI connectoren dat is toch iets van de nieuwe ATI crossfire ? 1 uplink 1 downlink ?

Bespeur ik een verandering in de SLI techniek ?
Waarschijnlijk is dat voor sommige geavanceerde moederborden met 3 of 4 PCI-E-16x-sloten, waar je dus ook 3 of 4 kaarten in SLI kan zetten. Op dit moment heb je er misschien nog niet direct erg veel aan, maar als je een ziek beest van een gamingmachine wilt maken wel :)
2 connectors zijn dus nodig om alle kaarten te kunnen verbinden (voor zover dat nog nodig was), dat gaat dan om en om.

http://www.theinquirer.ne...ad_SLI_Mobo_and_cards.jpg
een beetje dat idee dus.
Wel mss komt het ze beter uit, ATI heeft dit ook veranderd, twee bridges, een voor heen, de andere voor terug, SLI had het nadeel, dat het niet kon heen en terugsturen op hetzelfde moment, mss hebben ze dit nu opgelost
Meer info
Another thing that we learned is that Nvidia uses a new SLI. We saw it here originally spotted at nvnews.net. The new SLI is dual rail stuff. It is ironic that ATI was the first to introduce such a connector that will let you have read and writes performed at the same time.
Zoals al vermeld in het vorige 8800 geruchten topic

zie je hier dus een verklaring van het verschill in "airducts" (?) 4 en 5 sleuven.

4 voor de gs en 5 voor GTX
oke...ik vat iets niet. volgens dit artiekel draait het geheugen van de asus EN8800 kaarten op 1,8GHz, maar het geheugen van deze msi NX8800 kaarten gaat op 900Mhz gklokt worden. Is dat niet een beetje groot verschil?
Double Data Rate (DDR geheugen dus):
900 MHz x 2 = 1800 MHz ;) oftewel 1,8 GHz
verschil in notatie, DDR enzo :)

edit: damn you bokkow
900Mhz DDR is 1800Mhz effectief

Eigenlijk hetzelfde dus

bah, te laat, en op de volgende pagina
ehm... het is artikel en testiekel.... :+
asus wijkt hier bijna nooit van af. ik kan me nu geen enkel voorbeeld bedenken van een vidkaart koeling die asus bedacht heeft.

(dit was een reactie op hks-skyline)
Klik. Zo zijn er nog wel meer die ASUS heeft ontworpen. Alleen kan je niet voor de release van een videokaart verwachten dat er al niet-stock koelers opzitten :9.
Dat is een koeler van Arctic-Cooling met een Asus stickertje. :)
De Asus Radeon 9800 XT had een speciale cooler.
maar de noodzaak om twee extra stroomconnectors aan te sluiten....
Heeft de GTS dan uiteindelijk toch 2 PCI connectors gekregen?
Kijk maar op de grote foto van de GTX, dan zie je achteraan aan de bovenkant twee stroomaansluitingen zitten
De GTS lijkt er geen 2 te hebben maar het is moeilijk te zien. Hij is een stuk korter en er zal dus niet zo veel plek zijn dus ik gok hooguit 1. Nog te weinig foto's om zeker te zijn.
HDTV ondersteuning? Maar aan de plaatjes te zien niet met een fysieke HDMI connector.
Ik heb niet zo'n goed beeld van de laatste HD ontwikkelingen maar als drm er toch nog in gaat komen kun je geen beveiligd materiaal bekijken via deze DVI poorten.
DRM voor HD is op de lange baan geschoven en komt pas ergens in 2011 dacht ik, tegen die tijd is DRM dood/vervangen of heb je een videokaart met een DRM ondersteunde aansluitpoort.
ervan uigaande dat de kaart gewoon over HDCP support beschikt is het voor zover ik weet geen probleem om beschermd materiaal te bekijken hoor....
Erg gezellige kaart zullen we maar zeggen ;)
" prijsgegevens konden we nog niet bemachtigen"
Is er misschien al wat bekend over prijzen of wil ik die eigenlijk toch maar niet weten.
Ik heb gelezen dat ze respectievelijk 500$ en 600$ gaan kosten, maar ja, dat blijft allemaal giswerk totdat er daadwerkelijk wat in de schappen liggen.
In welke verhouding staat 8800gtx tot de xbox360?
Simpel, als een grafische kaart tot een console. :+
De videokaart van een XBOX360 loopt op 500mhz, heeft 48 unified shaders en heeft samen met het intern geheugen 512MB. Je mag dus met een gerust hart zeggen dat deze videokaart een HEEL stuk sneller is als de Xenon in de XBOX360
Dat is een hele gevaarlijke uitspraak want je weet nog bijna nagenoeg niets over de unified shaders van nVidia.

Elke shaderengine van ATI kan een 5D bewerking doen. De laatste geruchten over G80 gaan over shaderengines die per stuk maar 1D of 2D bewerkingen kunnen doen. Om bv 4D bewerkingen te moeten uitvoeren zou de G80 in dat geval te vergelijken zijn met een 32 pipes kaart en zou de R500 sneller kunnen zijn.

Natuurlijk lijkt het logisch om aan te nemen dat de G80 sneller is aangezien deze veel later uit komt. Maar ik wilde alleen maar even om aan geven dat een ATI unified shader geen nVidia unified shader is en dat een apples-to-apples vergelijking moeilijk is.
Waar toveren wij opeens de 4e en 5e dimensie vandaan?
De termen 1D, 2D, 3D, 4D en 5D hebben in dit geval niets met dimensies te maken. ;)

Als een shaderprocessor tegelijkertijd een vector (Vec4) en een scalar instruction kan uitvoeren in een klokcyclus, dan kan deze een zogenaamde "5D" operation per cyclus uitvoeren.

nVidia's shaderpipelines in G71 kunnen bijvoorbeeld tegelijkertijd uitvoeren:
- vector (Vec3) + Scalar of
- vector (Vec2) + vector (Vec2)
Dit noem je "4D".

Het gerucht ging dat G80 128 shaderengines zou hebben die alleen scalar instructies zouden kunnen uitvoeren (dus 1D). Om een 4D bewerking te doen moet je dus 4 shaderengines gebruiken per klokcyclus. Als dit gerucht klopt dan heeft de G80 dus het theoretische vermogen van een echte 32 pipes kaart (4*32=128).

ATI's Xenos chip kan dus per shaderengine een 5D bewerking uitvoeren. Om apples-to-apples te vergelijken kan je dus beter alles even gelijktrekken naar bv 1D (alhoewel dat eigenlijk wel heel erg versimpeld is). Er zitten er 48 in... dus in het geval het gerucht waar is (wat ik trouwens betwijfel) zou je kunnen zeggen dat de Xenos 240 shaderengines aan boord heeft.

Maar goed, ik ga er van uit dat de streamprocessors op G80 veel meer aan kunnen dan alleen maar een scalar op.
Alleen systeemgeheugen loopt even snel als het videogeheugen. En dát zie je nog niet bij een pc (mede daardoor is een Xbox360 veel sneller...voor games).
Is dat belangrijk om te weten? Het maakt echt geen hol uit of deze kaart sneller is dan de x360 chip.. waarschijnlijk wint de x360 het toch wel omdat het een console is.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True