Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 101 reacties
Bron: AnandTech

AnandTech heeft een uitgebreide review geschreven over Asus' A8N-SLI Deluxe-moederbord. Deze plank is voorzien van de nForce4 SLI-chipset en ondersteunt dus twee PCI Express-videokaarten. Middels nVidia's technologie kunnen 3d-spellen op twee verschillende manieren versneld worden. Bij de eerste methode - Alternate Frame Rendering (AFR) - wordt de helft van de frames op de ene en de andere helft op de andere videokaart gebouwd. De andere methode is Split Frame Rendering (SFR) waarbij ieder frame in twee delen wordt geknipt en iedere videokaart een van de stukken tekent. Welke van de twee gebruikt wordt, bepaalt de driver, maar dit gaat niet automatisch: nVidia heeft voor zo'n honderd spellen de beste keuze bepaald en hard in de ForceWare-driver gecodeerd. Bij spellen die niet door het bedrijf zijn getest wordt SLI standaard uitgeschakeld uit angst voor compatibiliteitsproblemen, maar als de gebruiker het wil forceren zal AFR gebruikt worden. De reviewer beweert echter geen enkel probleem te zijn tegengekomen.

Het moederbord van Asus laat een flinke hoeveelheid ruimte vrij tussen de twee PCI Express Graphics-slots (afhankelijk van de splitter twee keer x8 of één keer x16 plus een dummy), maar gezien de hete kaarten met dual-slot koelers van tegenwoordig is dat waarschijnlijk ook geen overbodige luxe. Naast twee PCI Express-videokaarten met exact hetzelfde BIOS zijn de juiste drivers (ForceWare 66.93 of hoger), een bridge connector (zit bij het moederbord) en een extra 4-pins stroomaansluiting nodig om een SLI-configuratie aan de praat te krijgen. Een goede voeding is bovendien zeer aan te raden: een tweede GeForce 6600 GT is nog te overzien met een toename in verbruik van 27 tot 51 Watt, maar een extra GeForce 6800 Ultra slurpt toch 70 tot 92 Watt volgens de metingen van de reviewer.

Asus A8N-SLI Deluxe met twee videokaarten

Om te kijken wat dit nou aan performance oplevert, test men de plank in combinatie met een Athlon 64 4000+ en draait men spellen als Half-Life 2, Doom 3, Far Cry, Unreal Tournament 2004, Wolfenstein: Enemy Territory en Battlefield. Hieruit blijkt net als in eerdere tests dat SLI een flinke boost (40 tot 70 procent) aan de prestaties geeft. De conclusie is dat het voor twee soorten mensen interessant is: de eerste groep zijn degenen met veel geld die het beste van het beste willen, en zelfs de modernste spellen in 1600x1200 met minstens 2xAA willen kunnen spelen. De tweede groep zijn degenen die tactisch investeren door nu een betaalbare kaart te kopen en deze later een upgrade te geven door een tweede exemplaar van dezelfde - maar inmiddels veel goedkoper geworden - kaart bij te pluggen. Vanwege de op dit moment nog zeer beperkte beschikbaarheid van de hardware en het feit dat ATi nog niet op de SLI-trein is gestapt, verwacht AnandTech echter dat de techniek pas halverwege 2005 echt door gaat breken.

Half-Life 2 SLI performance

Gerelateerde content

Alle gerelateerde content (25)
Moderatie-faq Wijzig weergave

Reacties (101)

Hallo, een goeie voeding moet je hebben, het systeem met de twee kaartjes verbruikt 329watt :S
http://images.anandtech.com/graphs/nvidia%20sli_112304101104/5543.png
Wat ik mij trouwens afvraag, wat is nou precies het voordeel, behalve deze uitmuntende prestaties, aan dit systeem met deze twee kaarten, wat lukt je nou wel (of in de toekomst) met SLI wat anders moeilijk of niet lukt met één kaart???
Hallo, een goeie voeding moet je hebben, het systeem met de twee kaartjes verbruikt 329watt :S
http://images.anandtech.com/graphs/nvidia%20sli_112304101104/5543.png
Ach, er zijn tegenwoordig volop kwalitatief uitstekende voedingen van meer dan 400W te koop en dat zal alleen maar meer worden. En iemand die nu geld heeft voor een dergelijke opstellingen, kan ook wel een paar tientjes extra missen voor een goede voeding ;)
Wat ik mij trouwens afvraag, wat is nou precies het voordeel, behalve deze uitmuntende prestaties, aan dit systeem met deze twee kaarten, wat lukt je nou wel (of in de toekomst) met SLI wat anders moeilijk of niet lukt met één kaart???
Zijn uitmuntende prestaties dan voldoende reden voor een videokaart :? Wat eventueel nog een voordeel is, is dat je niet direct een superdure kaart hoeft te kopen, maar kunt wachten tot je prestaties nodig hebt en vervolgens een (inmiddels veel goedkopere) tweede kaart kunt aanschaffen. Maar dat staat hierboven ook al uitgelegd...
Dus kort samengevat zeg jij:

Dat de mensen die deze opstelling kopen wel een paar tientjes kunnen missen voor een duurdere voeding (en stroomrekening). En een voordeel is dat je niet meteen een superdure kaart hoeft te kopen.
Spreekt dat elkaar niet een beetje tegen?

En ik zou ook eerder denken aan een voeding van meer dan 600W aangezien De rest van je componenten (processor, geheugen, moederbord, enz.) ook nog stroom verbruiken. Mischien een idee om de voeding ook maar meteen op te delen in 2 van 400W, kunnen we de computer straks mooi op krachtstroom aansluiten. En de Nuon maar lachen.
Dus kort samengevat zeg jij:

Dat de mensen die deze opstelling kopen wel een paar tientjes kunnen missen voor een duurdere voeding (en stroomrekening). En een voordeel is dat je niet meteen een superdure kaart hoeft te kopen.
Spreekt dat elkaar niet een beetje tegen?
Niet echt. Een goede voeding kost hooguit 40-50 euro extra. Een toprange videokaart kost meer dan het tienvoudige. Dat vind ik nogal een verschil...
Daar moet ik je inderdaad gelijk in geven, maar waar het mij eigenlijk meer om ging is het verbruik van de pc en de kosten die daaraan vast zitten.
waarom 600 watt het complete systeem verbruikt nu 329 watts das met geheugen, cpu etc.
wil je soms dual cpu met 4x 6800ultra draaien ofzo?
En de Nuon maar lachen.
Ik blij dat ik een lantarenpaal voor de deur heb staan :9
dan kun je alleen maar 's avonds gamen :P
329watt, wat zegt dat? Niets toch. Een 6800u heeft al snel 5-6A op de 12V lijn nodig, voor 2 6800u's mag je al snel 10-12A rekenen.
Een Qtec 550W voeding heeft bijvoorbeeld maar 12A op de 12V lijn . Volgens de 329W van anand zou dit dus ruim genoeg moeten zijn. Mooi niet dus.
Een Enermax 350W heeft 17A en zal dus wel volstaan.
Dus koop geen voeding op basis van het aantal watts maar op basis van het aantal amperes op de verschillende lijnen.
Een goed artikel waarin de mogelijkheden en de voor/nadelen van Alternate/Split Frame Rendering van SLI uitgelegd worden: www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD05MTY=

In dat artikel wordt het verschil tussen AFR en SFR uitgelegd en wat hierbij komt kijken. Grappig trouwens dat er bij het testen bij Hexus even de brug die de twee kaarten verbind los getrokken wordt terwijl het systeem aan het werk is 8-)

@jb044:
Je hebt gelijk dat ze wel ff wat voor de professionals konden testen, de prestaties van de Quadro en de Geforce zouden niet zo ver uit elkaar moeten liggen, het effect van SLI op de Quadro en Gefore zal denk ik ongeveer het zelfde zijn. Maar maakt niet de vergissing te denken dat dit een goedkope oplossing is voor professionals. Als je thuis een beetje met 3dsmax werkt enzo is een GeForce bijna net zo geschikt als een Quadro. De 'echte' professionals hebben echter de ondersteuning nodig die bij de Quadro zit. Daarom is de Quadro ook zo duur.
Maar wat is dan precies het verschil met de Quadro. Quadro moet voor professionals 3d beelden leveren en de Geforce voor gamers, wat is het verschil???
het grote verschil zit hem in de precision van de rendering,
ik weet er zelf niet zoveel van, maar hier is een webpagina die het mooi uitlegt, als je tot aan de quadro fx sectie scrollt:
http://www.firingsquad.com/print_article.asp?current_section=Hardware& fs_article_id=1194
wat is het verschil???
De bios en de drivers... Quadro doet het niet zo heel erg goed in games omdat er meer aandacht wordt besteed om weetikveel wat voor CAD-zooi sneller/beter te laten draaien.
de Quadro en Geforce maken sinds de 6xxx serie niet meer gebruik van dezelfde GPU dus het verschil tussen beide is nu meer dan alleen Bios en Drivers enzo.

de Gefoorce FX en ervoor maaakten gebruik van dezelfde GPU als de Quadro maar nu niet meer.
Niet te flashen dan ? Een hoop Radeon's zijn om te flashen naar FireGL's :)
wat is er mis met de kaarten dan? ze leveren een goed product af.
het probleem is juist dat de game industrie de grafische kaarten niet kan bij houden :+
ik heb hier nog een "oude" kaart een 9800 pro, ik kan hier nog alles op ultra high enz mee spelen. terwijl een setje sli ruim 2x zo goed is als mijn kaart.
al deze grafische kracht is eigenlijk gewoon overbodig.
de meeste mensen spelen gewoon op een fx 5200, 5600, ati 9200 en 9600
gewoon simpele kaartjes, de normale consument gaat echt geen 6800 van 400 euro aanschaffen
Bij jojarno staat de tijd stil..............
de 9800 was eerts ook f*cking duur. Tegen de tijd dat 6800 goedkoop wordt, wodt deze techniek intresanter.
Stel je koopt er volgend jaar 1tje voor 200 euro's en anderhalf jaar later nog 1tje voor 100 euri's, omdat je systeem verouderd is. Dan is dit toch zeker wel lonend. De techniek is nog aardig nieuw. Jij koopt nog geen 6800 dus je hebt ook nog geen sli.
Maar die tijd komt ook nog wel voor de gewone consument
Naast twee PCI Express-videokaarten met exact hetzelfde BIOS...
De tweede groep zijn degenen die tactisch investeren door nu een betaalbare kaart te kopen en deze later een upgrade te geven een tweede exemplaar van dezelfde - maar inmiddels veel goedkoper geworden - kaart bij te pluggen.
Dus ik koop nu een GeForce 6600, en over een jaar nog ééntje. Met een beetje geluk is dat dezelfde revisie (lijkt me sterk) en staat er een andere bios op. Deze valt gelukkig nog te flashen. Maar dadelijk is het een andere revisie? En dan?
Er staat dat ze 2 kaarten gebruikt hebben met precies dezelfde bios enz enz getest zonder fouten enz.
Het betekent niet dat het verplicht is
Als je een msi en een club3d in sli schakeld zou het ook gewoon moeten werken alleen het ziet er niet profi uit
Naast twee PCI Express-videokaarten met exact hetzelfde BIOS zijn de juiste drivers (ForceWare 66.93 of hoger), een bridge connector (zit bij het moederbord) en een extra 4-pins stroomaansluiting nodig om een SLI-configuratie aan de praat te krijgen.
Staat hier anders van wel lijkt me zo.
Dan wordt het zoeken naar een oude stoffige doos ergens op een plank of gewoon iemand die hem 2ehands verkoopt (is nog goedkoper ook)
Leuk testje. Ik denk toch dat SLI wel een goede tussenstap is naar de volgende generatie kaarten. SLI houdt spellen ten minste nog een beetje speelbaar op max. settings.

Moederbordje ziet er btw ook puik uit ;)
Vind jij dit een goede tussenstap, de config die je hier ziet bevat 2 GPU's van 529 euro, je betaalt dus ruim 1000 euro voor een setup die spellen op max settings speelbaar houdt.
http://www.tweakers.net/pricewatch/86049

Ik weet niet hoe het met jou portemonnee zit maar die van mij vind dat absoluut niet leuk.

Wel leuk hoor dat SLI voor benchmarks maar in mijn ogen is het een lompe techniek, als je nu al 2 gpu's gaat gebruiken waar gaan we dan heen, binnekort een systeem met dual sli (=4 gpu's).

Ik zie liever ontwikkelingen die meer gefundeerd zijn.
Niet alleen je portemonnee....

Maar probeer het eens uit te leggen aan je vrouw/vriendin!
Mensen die dit kopen hebben geen vrouw/vriendin :+
als je nu al 2 gpu's gaat gebruiken waar gaan we dan heen
2 gpu's op 1 kaart:
http://www.tweakers.net/nieuws/34878
die dual gpu kaarten bestaan al lang:
http://www.tweakers.net/nieuws/30026/?highlight=volari

alleen toen bleek dat dat niet zo heel erg nuttig was omdat ze van dezelfde I/O kanalen gebruik moeten maken
tis best leuk hoor die 20 ftp's winst in half live 2, maar heb je er wat aan, boven de 35 fps merk je het toch niet meer of er meer fps bij komt.

ik denk zelf dat sli pas echt begint te werken op uber resoluties boven de 1600x1200.
ik denk daarom ook niet dat dit een echt groot succes gaat worden, mischien voor professionele 3d designers en uber gamers...
als je snel moet bewegen zeker wel hoor. Maar 1600x1200 & 4xAA is wel een beetje overkill .. en dan nog 97fps halen is wel heerlijk natuurlijk. Maar deze systemen zijn toch echt niet voor de gemiddelde gamer weggelegd en ik vraag me af of het ding wel zal aanslaan.
Knappe monitor is dat die 97 plaatjes per seconde op 1600 x 1200 toont. Hebben de meeste niet. Wat weer de zinloosheid van die extreem dure systemen aangeeft.
En FPS heeft absoluut geen effect op gameplay? Ik nodig je gerust uit om bij mij thuis Q3A/ET te komen spelen met com_maxfps 45. 76. en 125. Sneller dan 30 ziet het oog toch niet, dus volgens jou redenering is sneller dan 60 (helftjes) Hz niet meer nodig?

Trouwens, je kan twee goedkope videokaarten OC'en/flashen naar dure en dan heb je een helemaal prachtige setup... En helemaal niet duur.
Ik zie het alsvolgt: Je hersenen doen er 1/30ste over om een beeldje te "zien" voordat ze weer een nieuw beeldje kunnen "zien". Het maakt wel degelijk uit hoeveel beeldjes / fps / Hz je game/monitor geeft. Je zal maar net ff uit 'sync' zitten met je game en dan staat het beeld in je hoofd dus ff stil. Je hersenen zijn idd in staat om bij 27 fps bewegingen vloeiend te maken, maar dat wil niet zeggen dat je het verschil tussen de beeldjes niet kan opmerken en de snelheid waarmee ze ververst worden. imho
Knappe monitor is dat die 97 plaatjes per seconde op 1600 x 1200 toont. Hebben de meeste niet. Wat weer de zinloosheid van die extreem dure systemen aangeeft.
De rate waarmee een 3D engine nieuwe scenes berekent (1), de rate waarmee deze scenes door je videokaart gerendered kunnen worden (2) en de rate waarmee je monitor de scenes toont (3) zijn alledrie onafhankelijk van elkaar.

(1) is afhankelijk van de snelheid van je processor. (2) is afhankelijk van de snelheid van je videokaart. (3) is afhankelijk van de refreshrate van je monitor.

In feite wil je alles gelocked aan elkaar hebben. Je wilt in feite precies evenveel frames berekenen en renderen als je op je monitor kunt tonen. Als het niet aan elkaar gelocked is, zal er interferentie optreden. Dat zie je door een regelmatige hakkel in de uitvoer. Er worden bijvoorbeeld met een bepaalde regelmaat frames gedropped (als vsync langzamer is dan framerate) of twee keer achter elkaar getoond (als vsync sneller is dan framerate).

Een van de problemen is nu dat je (2) en (3) wel kunt locken (vsync aan), maar (1) en (2) niet. Je wil eigenlijk (1) en (3) kunnen locken, zodat je geen dropped frames krijgt en je processor precies genoeg cpu tijd gebruikt om alles op tijd te renderen. Maar omdat je (1) en (2) niet kunt locken, kun je (1) en (3) ook niet locken.

De twee-na beste oplossing is dan om naar helemaal niks te locken.

Het effect is dan echter weer wel dat je 'shearing' te zien krijgt. Als je je viewpoint snel beweegt, dan lijkt het of het beeld in twee of drie delen geknipt is. Dat komt omdat frames niet altijd volledig geupdate zullen zijn terwijl ze wel al getoond worden. Een deel van het scherm toont dan het nieuwe frame, terwijl het andere deel dan nog het oude frame toont.

Dat shearing is onvermijdelijk als je (1), (2) en (3) niet locked. De regelmaat van (1) is onvoorspelbaar, de regelmaat van (2) is onvoorspelbaar. En dat de regelmaat van (3) (refreshrate van je monitor) voorspelbaar is, daar heb je dus niks aan.

Dus kun je beter (1) en (2) zo hoog mogelijk hebben, zodat shearing zo min mogelijk voorkomt. En omdat de rate van (1) en (2) onvoorspelbaar is, zal de shearing ook onvoorspelbaar zijn en zich dus over het hele scherm voor kunnen doen, waardoor het niet zo opvalt dan wanneer het zich altijd op dezelfde positie van het scherm voor zou doen.

Dan zijn we echter nog niet klaar, want er zijn nog andere voordelen aan een hoge framerate :). De reactiesnelheid waarmee je game de keyboard/joystickinput leest en de prediction van de positie van je tegenstanders in de game is ook gekoppeld aan (1). Als (1) hoger is, zal de prediction ook beter worden, en zal je input vaker gescanned worden. Dat geeft je dus nog eens voordelen voor de gameplay. Als bij jou de prediction preciezer is dan die van je tegenstander, zul jij makkelijker raak schieten dan je tegenstander omdat jouw scene nou eenmaal dichter bij de 'waarheid' (van de server) ligt dan die van je tegenstander. Jouw engine berekent vaker een prediction dan die van je tegenstander, zodat jouw engine veranderingen in je tegenstander nauwkeuriger kan opvangen dan de engine van jouw tegenstander. Hogere FPS bij (1) is dus nauwkeuriger predictie en dus meer voordeel voor jou. Dat (2) en (3) beter ontkoppeld kunnen zijn had ik al beredeneerd.

Note dat hier ook nog de datarate van je netwerkverbinding mee te maken heeft. En die heeft ook weer interactie met 'de wereld'. Een leuk voorbeeld hiervan was Quake 2 CTF. Daar zat een level in waarbij je door een bepaald raam kon springen, maar alleen als je datarate precies op een bepaalde waarde stond (ik dacht 9000). Of dat je alleen bepaalde sprongen kon halen als je een bepaalde datarate had (een level van Q2 Rocket Arena had zo'n sprong, maar ze zaten in veel meer levels).

Ik hoop dat ik een beetje duidelijk overkom :). Het is best ingewikkelde materie. Ik kan je in ieder geval vertellen dat ik al sinds 1996 met 3D FPS games aan het spelen ben en dat ik deze dingen ook in de praktijk heb kunnen merken.

Ik moet er ook bij zeggen dat deze dingen eigenlijk alleen belangrijk zijn bij games als Quake (1, 2 en 3), Unreal Tournament en Painkiller, waarbij het spel razendsnel gaat en behendigheid en reactiesnelheid de sleutel zijn. In spellen als Battlefield Vietnam enzo maakt FPS niet meer zo heel veel uit. Voornamelijk omdat het spel vrij langzaam gaat en er heel veel data over het netwerk gaat.

Edit:

Wat Fetherlite zegt is ook waar. Maar als je de refreshrate van je monitor op 60 hebt staan, zul je bij 100fps gewoon veel shearing zien. De refreshrate van je monitor moet dan dus ook omhoog.

Dat heeft weer een nadeel dat je videokaart vaker op het videogeheugen terug moet grijpen. Daardoor worden scenes langzamer berekend en zal je fps ook terugvallen. Geen idee hoeveel dit uitmaakt, ik speel altijd op 75Hz. Mijn fps komt toch nooit boven de 75, ik heb nooit geld voor een brute videokaart over :). En tegen de tijd dat de fps in oudere games over de 75 gaat (Quake 2 b.v.) speel ik die spellen al niet meer.
Je hersenen doen er 1/100 seconde over om iets te zien. De 'nalichttijd' in je hersenen is wel in de orde van 1/30e seconde. Dus bij 30 keer per seconde een beeldrefresh van een vrij statische scene zie je nauwelijks knipperingen, maar bij een plotselinge verandering reageren je hersenen veel sneller dan 1/30e seconde. 100 fps is dus wel degelijk zinnig als je op het scherpst van de snede wil spelen.
Idd maar als jij al een tijdje (zeg maar een jaartje of anderhalf) een van die kaarten hebt en je wilt een performanceboost dan koop je er nog een bij die op dat moment dan al weer stukken goedkoper is ;)
Ik vraag me af in hoeverre de 6800 GT (om er maar een te noemen) over één á anderhalf jaar nog te leveren is. Marketing technisch gezien zullen de (videokaart) fabrikanten proberen om de consument dan alsnog weer 2 nieuwe kaarten aan te laten schaffen.
Na een upgrade via SLI kan je weer een jaartje mee. Dit is precies zoals bij mijn Voodoo2 12 mb in mijn PII 450.

Na een upgade PIII 700@897Mhz en een tweede Voodoo2 12 Mb kon dit systeempje weer een jaartje mee. Ik heb hiermee nog MOHAA gespeeld dit draaide zonder problemen.

Nu de nieuwe engines uit zijn UT2004, Crytech, Doom3, Source en gaan de videokaarten ook weer een tijdje mee. Dus is een upgrade nar SLI over twee jaar een optie.
Zoals het verleden meerdere malen heeft uitgewezen is het een kwestie van tijd voordat er spellen verschijnen die met deze instellingen nog maar 20 of 30 frames tonen. En dan is een dergelijke verbetering meer dan welkom!
Niet voor niets zegt de reviewer dat het een techniek voor de toekomst is.
behalve dan dat er tegen die tijd (mayb 2 jaar?, mijn Ti4400 draait doom3 op ~25fps) weer kaarten zijn die 4 keer zo snel zijn als de kaarten van nu. Koop je er dan dus een oude kaart bij, wordt je systeem ~2 keer zo snel (onderwijl is DX10/Opengl 1.5 uit ;)) en draai je op 40 a 50 fps max. Koop je dan een budget kaartje (ala 6800LE ;)) en ben je stukken sneller uit.. en qua prijs.. ach koop je nu een 6800 ultra ben je al 400E kwijt..
Geloof me, op hoge resoluties merk je echt wel het verschil tussen 100 en minder dan 50 fps.
Leuk maar of het straks veel gebruikt gaat worden is een 2e. Als je 2 van de monsterkaarten hebt ben je al ¤1200 kwijt aan 2 kaarten, een voeding van ongveer 600Watt die je ongeveer ¤200 gaat kosten, en aan het eind van het jaar een hele hoge rekening, dit verbruikt in 1 week wat ik nu een maand verbruik, ik denk dat ze eerst maar eens moeten komen met kaarten die zuinig zijn en dan deze maar met z'n tweeën op een mobo moeten plakken.

Kortom, hier is geen markt voor, als je zoiets koopt ben je niet lekker in je bovenkamer.

A: vanwege het geld
B: vanwege het feit dat je totaal niet meer om het milieu denkt. |:(
A) Waarom kopen mensen een Ferrari :? ?

B) kom op zeg, ik weet niet wat voor PC jij nog gebruikt, maar als het meer is dan een P1, dan ben je waarschijnlijk ook niet milleu-vriendelijk bezig, want op een P1 kan je ook tekstverwerken (voor een paar gamepjes wil je het milleu toch niet naar de knoppen helpen :+ )
Ik heb een 386 op mn werk en een P60 thuis.. wist je dat die P60 maar 150watt nodig heeft maar die 386 maarliefs 300 :D :D :D.

Dat is echt een klilerbak. met 2 5,25" HDD's en dat soort lauwe shit :P
Als je 2 van de monsterkaarten hebt ben je al ¤1200 kwijt aan 2 kaarten
6800GT kost 400 euro, misschien iets meer. dus dat is dan 800 euro.

Een 600Watt voeding is tikje overdreven, 500 Is genoeg, dus dat is dan geen 200 euro, maar 100-150.

En naarmate de technologie beter wordt worden die kaarten ook steeds zuiniger.

Vooral bij de 6600GT valt het allemaal wel mee, kost vrij weinig, trekt niet zo heel veel stroom, en je kan met 1 kaart beginnen, en er later (als je weer genoeg geld hebt) een tweede bij stoppen.
@steffy
B: vanwege het feit dat je totaal niet meer om het milieu denkt.
Snap je het dan nog nie :Z Essent met groene stroom!! :*)
Ik ben geen voorstander van deze oplossing, begrijp ik het bij apple voor hun mega <a href="\"http://store.apple.com/1-800-MY-APPLE/WebObjects/AppleStore.woa/71206/wo/4Z7G00JUrxG93i4BjH02QZ8r98H/1.0.11.1.0.6.10.1.2.1.17.0\"" target="_blank">groot beeldscherm</a>, zie ik hier alleen maar een marketing stunt in om je concurent te verslaan. De ruimte dat het inneeemt op een moederbord is gigantisch te noemen, op deze manier hou je effectief 2 sloten over.

Daarnaast, zijn de huidige videokaarten zo snel dat de functie er mij volledig van ontgaat. Laat ze eens een jaar wachten met het uitbrengen van een nieuwe videokaart, neem de tijd om door te ontwikkelen en lever gewoon een goed product af.
Dat deze 2 kaarten erop kunnen is mede doordat er al zoveel onboard zit (denk aan geluid, netwerk USB etc) de andere PCI sloten kan je dan hooguit nog een keer gebruiken voor SCSI SATA RAID controllers en of een nog betere geluidskrrt dus de ruimte is er zeker wel.

Maar voor de toch veel eisende gamer met niet zo`n grote beurs kan natuurlijk ook de Geforce 6(8)600GT ;) uitkomst bieden want 2 van deze kaartje zullen het zeker ook niet slecht doen.

@ mcboom:
sorry, ik bedoel ook idd een 6800 :)
Dan zou ik eerder kiezen voor een enkele 6800GT. Qua prestaties maakt het geen dr*l uit en is nog goedkoper ook... Maar je hebt altijd mensen rondlopen die de patsfactor zwaarder vinden tellen.. 'Kijk eens hoe stoer!! Ik heb 2 NVidia 6600GT's in mijn bak zitten!!!', 'Nou, mijn bak met een enkele 6800GT pwned jouw bak!!! Lekker puh!!' :+
Als ze deze kaarten nou eens bundlen bij het moederbord met een speciaal zacht prijsje ?

Lijkt me een leuke combinatie zo'n bundelset die minder kost dan alles los bij elkaar... voorkom je meteen dat mensen MSI/Aopen/Gainward/Club 3d/whatever kaarten bij je moederbord halen
Doen ze nu ook, alleen dan zit er nog geheugen, hd, kast enz bij... :+
Het gaat hier juist om de "bijzondere" kaart/systeem, het SLI systeem van Nvidia en dat heeft Ati niet :+
Ik bedoelde single ati kaarten....
nee die tests waren er gelukkig nog niet |:(... als je die wil zien lees je toch een van de 100000000 andere reviews ;)
Zoals ook al in de tekst staat ondersteund ATI SLI nog niet
Vanwege de op dit moment nog zeer beperkte beschikbaarheid van de hardware en het feit dat ATi nog niet op de SLI-trein is gestapt verwacht AnandTech echter dat de techniek pas halverwege 2005 echt door gaat breken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True