Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 65 reacties
Bron: DailyTech

DailyTech meldt uit interne documenten en roadmaps van ATi op te maken dat toekomstige Radeons geen speciale masterkaart meer nodig zullen hebben om in Crossfire-opstelling te kunnen werken. Door de logica die pixels van twee verschillende kaarten integreert tot één beeld voortaan in de videochips zelf onder te brengen (in plaats van in losse componenten op de printplaat) zouden voortaan alle kaarten in Crossfire gebruikt kunnen worden. Wel zou er nog een 'PCB bridge' nodig zijn om het te laten werken, een soortgelijk bruggetje als degene die nVidia's kaarten al sinds de eerste introductie van SLI aan elkaar koppelt. Het lijkt erop dat de nieuwe versie van Crossfire voor het eerst in de 80nm-generatie zal verschijnen, te beginnen met de budgetchips RV570 en RV560. De afgebeelde buitenboordverbinding wordt hiermee dus ook overbodig.

ATi Crossfire opstelling
Moderatie-faq Wijzig weergave

Reacties (65)

SLI en Crossfire zijn wel degelijk interessant voor de consument! Een simpel voorbeeld (fictief): je koopt nu een X1800 voor je nieuwe pc, waarin je ook een crossfire moederbord hebt. Deze X1800 kost je nu E450,--. Over anderhalf jaar is de X2900 er inmiddels die inderdaad net zo snel of iets sneller is dan een X1800-crossfire setup. De X2900 kost dan echter zo'n E700,-- , terwijl de X1800 dan nog maar maximaal E200,-- kost. Sowieso ben je in totaal minder kwijt voor de nieuwe setup. Maar, nog belangrijker (en veel critici lijken hieraan voorbij te gaan): Het is inderdaad waar dat je over anderhalf jaar (vb) een kaart hebt die net zo snel is als twee X1800's (vb). Maar, en dat is natuurlijk de grap, heeft de consument dan die E700,--? En is de consument dus bereid zijn nog E200,-- waardige kaart weg te doen? Neen! de consument legt liever die E200,-- neer voor een nieuwe X1800, zodat ie weer prestaties van formaat heeft!
Nog belangrijker, is de X1800 dan nog leverbaar? Mensen die vorig jaar een PCIe 6800U kochten met het gedacht er nu eentje bijtekopen en in SLi te gebruiken komen bedrogen uit want er zijn helemaal geen nieuwe 6800U kaarten meer te vinden voor PCIe. En ook voor de 6800GT gaat die bijna op, ze zijn er nog wel, maar wel zeer beperkt... Het is net dat daar dat die mooie CF en SLi theorie in de mist gaat.... Beschikbaarheid...

Edit: Seal was met nets iets voor....
Edit2: En ook wagnef maakt een heel goed punt. Hier geef ik hem helemaal gelijk in. Een nieuwe generatie heeft altijd voordelen boven de oude. En GeForce 7800GT is niet zo heel veel sneller als een 6800GT/6800U, maar alles ziet er met een 7800GT wel vele mooier uit.
Je zou opzoek kunnen gaan naar een tweaker die wil inversteren in de " X2900" en zijn X1800 kwijt wil om zo de beoogte 700 euro iets sneller op tafel te kunnen leggen.
En je moet er over anderhalf jaar nog maar in zien te slagen om een tweede kaart te vinden, natuurlijk. Die dingen hebben gelukkig niet zo'n groot verloop de laatste tijd...
Volgens mij is een radeon 9800 pro bijvoorbeeld, nog prima nieuw verkrijgbaar. Dus ja, een groot verloop van de kaarten, maar die 9800 pro is ook al opweg, of al voorbij, aan zijn 3e verjaardag. Ik denk dus dat het met de verkrijgbaarheid echt niet mis gaat.

Dan geldt altijd dat er nog budgetkaarten te koop blijven en het voordeel van Crossfire is, dat er geen 2 dezelfde kaarten in hoeven. In dit speciale voorbeeld geldt dan:
Dat bijv een x1800 prima zou kunnen samenwerken met een x2500, wat een budgetkaart is bij de lancering er van, maar wel ongeveer dezelfde prestaties levert als de x1800.

Voor het energieverbruik hoef je het niet te laten, want nieuwe kaarten vragen al meer vermogen, dus dan kan je die SLI ook wel draaien :)
Ik vraag me inderdaad af wanneer de 1000watt voeding/verwarming in de pc gaan komen ;)

Ik vindt het maar een rare zaak, cpu's worden steeds zuiniger terwijl videokaarten enorme eisen aan je voeding gaan stellen!
Mja, die X2900 ondersteunt dan wel DirectX 12.0 (of iets dergelijks), terwijl je met je X1800 bij DirectX 10 blijft hangen ;)
Maar energiegebruik, feature optimalisaties, ruimtegebrek, en geluidsoverlast zijn allemaal dingen in het nadeel van CF en SLI.
Dan heb ik het nog niet over nieuwe ontwerpveranderingen bij nieuwe generaties zoals unified shaders die de toekomstige games zal bevoordelen.
Met CF en SLI blijf je gewoon lang met oude tech zitten dat uiteindelijk consessies met zich meebrengt.
Daarnaast is je rekenmodel wat overdreven aangezien 700,- alleen voor het "maximale model" geldt. Een iets minder hoog model kan al snel 150,- lager uitvallen zonder noemenswaardige prestatieverliezen.
Je vergelijking klopt niet.

Over anderhalf jaar is de X2900 net zo snel of iets sneller als een X1900 Crossfire setup.

die X2900 heeft dan dezelfde prijs als de X1900 nu.
Een tweede X1900 kost tegen die tijd waarschijnlijk 200 euro.

Dus zowiezo ben je dan in totaal MEER kwijt voor een crossfire setup en dus niet minder zoals jij beweert.
Verder moet je bij de crossfire setup meerekenen dat je een zwaardere voeding moet kopen en een duurder moederbord. Voeg er dus nog maar een keer ruim 100 euro aan extra kosten bij.

Daarnaast komen dan nog de andere argumenten die al gegeven zijn.
Ik vind het nog steeds een dure gelegenheid. Tegen de tijd dat het interessant wordt een 2e kaart bij te prikken zijn er al tig kaarten voor goedkoper of bijna net zo duur te krijgen die sneller zijn in hun eentje dan 2 kaarten in sli.
De media moet eens stoppen met die hype, dit is echt niet interessant voor consumenten.

edit: ik heb zelf een voodoo II sli gehad.
Die zijn er dan misschien wel maar de kans is groot dat deze dan alleen op de opvolger van pci-e kunnen worden geplugd.

Indien je geen zin hebt om je mobo te gaan vervangen en enkel je video kaart prestaties wil verbeteren, kan het nuttig zijn het maximale uit je mobo te halen dmv. een SLI opstelling.
Dat vindt jij, maar voor de consument is crossfire wel interresant... Je koopt dan een pc die voorlopig niet vervangen hoeft te worden.
Zou het nou ook zo zijn, dat je bijvoorbeeld een(ik noem maar wat, een voorbeeld van deze generatie) X1900XT aan een X1300pro kan hangen, ofiets dergelijks? Omdat de chip gelijk is? Dit kon wel bij crossfire, de oude versie(iig vanaf x800 kaarten).

Zou dit dan bij de nieuwe ook zijn? Dat je dus top-of-the-bill met low-budget kunt mengen(en alles wat er tussen zit)? Toch leuk om te weten...
Leuk om te weten maar in de praktijk nutteloos. Waarom zou je een budgetkaart met een high end kaart willen mengen? Zo krijg je de prestaties van 2 keer een X1300 maar daar zit niemand op te wachten denk ik ;)
Dat denk ik niet.
Stel je heb een budgetkaart, en je hebt genoeg geld om één high end te kopen.
Als je die er bij kunt plaatsen en 5/6 van het werk kunt laten doen, en dat budgetgeval 1/6 is het toch een stukkie sneller dan die highend in zijn eentje.

Dat was het idee dacht ik :Y)
Die vlieger gaat helaas niet op. Je kan bij Crossfire inderdaad twee verschillende kaarten mixen maar de snelste kaart zal zich beperken tot de snelheid van de kaart van de traagste en zal dus weinig te doen hebben in combinatie met een X1300. Anders zou het wel leuk zijn ;)
Stel jij heb een oude x1950gt liggen en je wil toch meer perfomance kan je er nog x2800 aansluiten en dan heb je (ik zeg maar wat) toch 2+1 = 3 performance ipv met SLI je 1.5+1.5 moet hebben omdat je dezelfde kaart aansluit.

Kandat?
Dta heeft inderdaad pas zien als ze van elkaar kunnen zien hoe snel ze zijn en uitdokteren welke hoeveel van de workload op zich neemt, inderdaad bijvoorbeeld 1x3/4 en 1x 1/4. Maar ik ben benieuwd of dat op kort termijn goed voor mekaar te krijgen is.
Zou wel leuk zijn, als je nooit nieuwe pc's koopt (zodat je er 2 hebt) maar alleen upgrade kun je er dus een sneller bijprikken, moet je wel ver van tevoren over nadenken bij je mobo natuurlijk, maar zeker nu zit die tij er wel aan te komen dat dta steeds nuttiger wordt, omdat de vidkaarten nogal snel gaan i.v.m. de rest.
niet als hij bijvoorbeeld 1/3 door de 1300 laat renderen en 2/3 door de 1900..

edit:
ik ben ook altijd 30 seconde te laat!
Jawel dan ook. Lees de review van tweakers over Crossfire. CrossFire laat de kaarten alsnog tegelijk lopen. Beide kaarten gaan op de snelheid van de traagste lopen. Is gewoon een feit niet een punt om te discusseren.

Het zou wel eventueel mogelijk zijn maar daar zou extra hardware aan te pas moeten komen soort van load balancer, anders gaat je snelle kaart nog helft van de tijd slapen. Wat je door je budget kaart laat doen en de rest door je high end kaart kan je meteen alles laten doen door je high-end kaart. Want al die overhead en communicatie latency's is al een doorn in het oog...
Dit zal ook leuk zijn voor de extreme benchmarkers.
Voorzover ik weet had je van het topmodel geen Crossfire kaart. Dan moest je dus bijvoorbeeld een X1800XT Crossfire Edition kopen en een X1800 XTX waardoor je dus niet maximale prestaties haalde.
Nu kun je gewoon twee X1800XTXjes aan elkaar knopen waardoor je Maximale prestaties heb.
('t kan zijn dat ik het fout heb hoor, correct me if i'm wrong!)

(Bij dit soor dingen is een boardje met 32 lanes inderdaad wel een must!!!)
X1800 kunnen het volgens mij niet, het gaat erom dat het in de chips zelf word opgelost, klinkt in mijn oren als lange termijn praat, en niet iets wat huidige kaarten gaan kunnen.
Het lijkt erop dat de nieuwe versie van Crossfire voor het eerst in de 80nm-generatie zal verschijnen, te beginnen met de budgetchips RV570 en RV560.

De x1800-generatie kan dit dus niet.
hoewel je met een master card wel elk ander kaart er aan zou kunnen koppelen en hoeft niet perse dezelfde type te zijn, zal dat nu nog steeds gaan?

nee denk het niet omdat eerst elke kaart ook zon bruggetje slot moet hebben.

dus in princiepe is het handiger dat je elke andere kaart erbij aan zou kunnen doen met een externe kabel.
Precies dezelfde kaart, ag wie weet hoeft het niet, maar das ook het punt niet, das ook geen belangrijke feature, want het zou gewoon slecht zijn, je doet ook geen 244 opteron bij een 252 opteron, je probeerd ook niet DDR266 en DDR400 geheugen te mengen, en probeerd ook geen RAID te doen met 40GB en 200GB, dus hoe alsjebleift op over die compatibility onzinningheden die toch niemand gaat gebruiken.

Het blijven doorlussen zal grote bandbreedte problemen veroorzaken, die alleen zijn op te lossen door 'middelste' kaart de output te laten doen, maar die heeft in zo'n geval geen DVI slot meer over :D. Met bridges vinden ze heus nog wel een oplossing om nog meer kaarten te gebruiken, zo'n bridge kan net zoveel bandbreedte hebben als ze zelf willen.
dit is dan wel beter dan elke kaart een eigen helft te laten renderen en dat dan upmixen in de kabel

maar is het nu ook niet zo dat je dan wel dubbel geheugen hebt?
upmixen in de kabel? ik weet niet waar je dat gelezen hebt maar dat is nooit het geval geweest.

de kabel heeft 2 functies:

1 beeld van slave naar master overbrengen
2 het totaalbeeld (wat samengevoegd is door de master kaart) naar de monitor overbrengen.
Dubbel geheugen vereist een link sneller dan het geheugen + de voor het beeld benodigde bandbreedte om ook maar even snel te zijn, omdat van de totale geheugen bandbreedte gebruik te kunnen maken moet die link nog 2 keer zo snel zijn.
Kijk eens aan, hiermee bevestigt ATi dat de manier van Nvidia de goeie manier van multi gpu was.
Willen alle ATi fans die zoveel kritiek op het SLI bruggetje hadden nu even opstaan?
Ons nvidia fanboytje is er ook weer hoor.... *zucht*

Waar zijn dan al die ATI fans geweest die kritiek hadden op het SLI bruggetje?

Volgens mij ben je in de war met ATI fans die geen moeite hadden met het externe kabeltje. (Wat voor de nvidia fans een onoverkomelijk obstakel was)

Enne, dat bruggetje is maar en heeeeeeel klein onderdeel van het totale SLI of Crossfire concept.

Beweren dat ATI bevestigt dat Nvidia de juiste manier heeft omdat ze nu van een extern kabeltje een intern kabeltje maken, getuigd van een gigantische kortzichtigheid.

En het hele idee van masterkaarten was natuurlijk alleen maar omdat Crossfire ontwikkelt is nadat de ontwerpen voor de huidige generaties al klaar waren.
Ipv het ontwerp van de gpu te wijzigen was het dan verstandiger tijdelijk een masterkaart te gebruiken.

Zijn er werkelijk mensen geweest die dachten dat aparte master -en slave kaarten een lange termijn oplossing waren?
RRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRR

Ongelovelijk, dat gebeurde destijds ook, toen aval0ne en ik probeerde duidelijk te maken dat SLi technisch beter is (was). Fanboys worden we dan genoemd...

Het probleem van de kabel is de gelimiteerde bandbreedte het missen a het potentieel om meer dan alleen beeld samen te voegen.

Kortzichtigheid? Zo'n beetje alles wat Aval0ne en ik over dit onderwerp gespeculeerd hebben is waargeworden....

Zelfs auteurs van dit forum waren er destijds van overtuigt dat ATi's Crossfire beter was dan nVidia SLi, terwijl het inderdaad niet meer dan een naïve snel bijmekaar bedachte tussenoplossing was.
Het moge duidelijk zijn dat ATi’s Crossfire een spreekwoordelijk stapje voorloopt op nVidia’s SLI wat betreft de featureset en mogelijkheden. Het grote voordeel van Crossfire is het feit dat het standaard werkt in elke game. Daarnaast is Crossfire minder kieskeurig wat betreft de kaarten die naast elkaar gezet kunnen worden en worden meer manieren ondersteund om het beeld op te bouwen.
reviews: ATi's Crossfire neemt beeldschermen onder vuur

Dus zeg nu niet dat jullie al wisten dat het ging zuigen.

De rest van de verschillen zitten aan de software kant van de zaak, dus is de verbinding tussen de twee wel een erg belangrijk element in zowel SLi als Crossfire.

Ondanks dat zowel Aval0ne en ik zo ongelovelijk vaak voor fanboy worden uitgemaakt, klopt het ERG vaak wel wat we zeggen, en denk ik dat ook weer uit deze thread zal blijken dat we over net iets meer informatie, van zowel nVidia's als ATi's, chips, technieken en toekomst plannen beschikken.
Het probleem van de kabel is de gelimiteerde bandbreedte het missen a het potentieel om meer dan alleen beeld samen te voegen.
Welk gemis aan bandbreedte is er dan bij de X1900 crosffire? Welk gemis om meer dan allen beeld samen te voegen?

Uiteraard was er bij de X800 series een probleem. Maar een andere oplossing was er nou eenmaal niet als je bestaande kaarten die mensen al gekocht hebben als slave wilt gebruiken.
Een SLI bruggetje was daarvoor gewoon onmogelijk.

Maar je probeert van het onderwerp af te wijken. Aval0ne had het over zogenaamde kritiek van ATI fans op het SLI bruggetje.
Dat is een heel andere discussie dan de gelimiteerde bandbreedte van de externe kabel bij de X800.

Wat jullie gespeculeerd hebben is overigens helemaal niet uitgekomen. (noem maar eens wat)
Dus zeg nu niet dat jullie al wisten dat het ging zuigen.
Zuigt crossfire dan?
Op welk punt zuigt X1900 crossfire dan?
Of bedoel je alleen X800 crossfire? Dat die versie beperkingen had was logisch. Dat heeft niets met de technologie zelf te maken maar alles met de beperkingen dat je met bestaande kaarten moet kunnen werken.

En wat in die quote van de tweakers review staat blijft gewoon een feit. De featureset en mogelijkheden waren op dat moment gewoon veel beter dan SLI1.

Uiteraard moest Nvidia toen reageren, en de mogelijkheden van SLI zijn sindsdien flink verbeterd.
Wat dat betreft zouden jij en aval0ne ATI juist dankbaar moeten zijn voor Crossfire. Daardoor hoeven julliebv niet meer twee EXACT gelijke kaarten in SLI te zetten, maar heb je daarin veel meer vrijheid gekregen.
Ondanks dat zowel Aval0ne en ik zo ongelovelijk vaak voor fanboy worden uitgemaakt, klopt het ERG vaak wel wat we zeggen, en denk ik dat ook weer uit deze thread zal blijken dat we over net iets meer informatie, van zowel nVidia's als ATi's, chips, technieken en toekomst plannen beschikken.
Dat is zo ongelooflijk zielig dat ik er geen woorden aan ga verspillen,
En wat in die quote van de tweakers review staat blijft gewoon een feit. De featureset en mogelijkheden waren op dat moment gewoon veel beter dan SLI1.
Het was geen feature set die superieur was, het waren PR termen die superieur waren, de meeste beloftes waren compleet loos.

SLI1 is naadloos overgelopen in SLI2, degene die wel in ERG veel spellen werk, meerdere kaarten ondersteund, meer dan 2 kaarten ondersteund, enz, enz, en dat is een van de dingen die wij gespeculeerd hadden, dat nVidia's pcb bridge alle opties nog open liet, terwijl Mr Dongle wel degelijk keiharde limiten oplegde.

Of er werkelijk kritiek op het bruggetje was, geen idee, maar op enig moment leek het grootste aantal tweakers van mening te zijn dat een externe DVI kabel beter zou zijn...

Over die laatste opmerking, jij zelf laat aardig vaak blijken er nou ook weer niet zoveel van te weten, geen feiten kennis, gebrekkig begrip van wat die dingen doen, slechte termology kennis, enzovoorts, een dergelijk patroon zie ik bij Aval0ne niet, over mijzelf kan ik in dit verband niets zeggen.
Welke beloftes waren dan compleet loos?

Je verward beloftes van ATI met speculaties van mensen in forums. De beloftes van ATI werden gewoon waar gemaakt. Bv dat het op elk spel werkte en niet op maar een heel beperkt aantal zoals bij Nvidia.
Bv dat je niet twee EXACT gelijke kaarten hoeft te hebben zoals bij Nvidia.

Dat zijn superieure features en geen nutteloze PR praat. Dat zijn gewoon feiten die ook jij niet kan ontkennen.

Zoals ik zelf ook al aangaf is daarna SLI sterk verbeterd om het gat met Crossfire kleiner te maken. Maar ten tijde van het artikel van tweakers wat je quotte was SLI2 er nog niet. Dus is het onjuist van je om te stellen dat de conclusies niet klopte omdat SLI2 later de gebreken van SLI1 voor het grootste deel verholpen heeft.

Dat Nvidia in de toekomst de toenmalige tekortkomingen van SLI zou gaan oplossen was natuurlijk geen moeilijke speculatie. Kan me ook niet herinneren dat iemand daar ooit aan getwijfeld heeft.

BTW dat de externe kabel bij de X800 keiharde limieten oplegde heeft wederom niets met de crossfire technology zelf te maken. Ze zaten gewoon met het probleem dat het op bestaande kaarten moest kunnen werken.
Jullie superieure Mr bridge had nog veel hardere keiharde limieten gehad!
Namelijk dat die bestaande kaarten geen bridge aan konden waardoor het dus helemaal niet zou werken.

Wat betreft je laatste opmerking. Ik ben behoorlijk immuun geworden voor persoonlijke aanvallen van jullie twee. Blijkbaar heb je nog steeds niet in de gaten dat het doen van persoonlijke aanvallen een teken van zwakte is.

Als jullie je nou zouden beperkingen tot meningen die je goed beargumenteerd, en stellingen die je onderbouwd met feiten, dan zou je ook de term fanboy niet naar je hoofd geslingerd krijgen.
Maar als je je gedraagt als een fanboy, dan moet je ook niet raar opkijken als iemand je dat ook verteld.
Ik reageerde op een persoonlijke aanval, tenzei je "Ons nvidia fanboytje is er ook weer hoor.... *zucht*" geen persoonlijke aanval noemt.

Ik probeer zo min mogelijk persoonlijk aan te vallen, het slechts heel zelden nodig.
Je verward beloftes van ATI met speculaties van mensen in forums. De beloftes van ATI werden gewoon waar gemaakt. Bv dat het op elk spel werkte en niet op maar een heel beperkt aantal zoals bij Nvidia.
Bv dat je niet twee EXACT gelijke kaarten hoeft te hebben zoals bij Nvidia.

Dat zijn superieure features en geen nutteloze PR praat. Dat zijn gewoon feiten die ook jij niet kan ontkennen.
Iets is of speculatie van dit forum, of het zijn feiten, niet beiden.

Crossfire had nooit een dergelijk voordeel, de rendering modi hadden niet veel zin, zat er ook wel dik in, en dat het bij ieder spel zou werken heeft ATi wel degelijk belooft, net als dat het betere performance zou hebben, dat bleken later allemaal loze beloftes te zijn.
Iemand die een fanboy reactie plaats een fanboy noemen is geen persoonlijke aanval.

Dat het bij ieder spel zou werken was/is absoluut geen loze belofte. Dat doet het namelijk gewoon.
Waar jij op doelt is dat ze daarnaast ook nog profielen hebben om het bij bepaalde spellen nog efficienter te laten werken.

Nvidia fans verwarden dat nogal eens met het handjevol profielen dat er toendertijd was voor SLI, waarbij SLI alleen werkte bij dat handjevol profielen.

Totaal niet te vergelijken dus en zonder twijfel een belangrijk voordeel van Crosffire. Daarom ook dat het in de review van tweakers.net genoemd werd.

Dat je geen twee exact dezelfde kaarten nodig hebt reageer je maar wijselijk niet op, want dan moet je toegeven dat je ongelijk hebt.
Dat was onmiskenbaar een voordeel tov SLI op dat moment. Maar blijf vooral je kop in het zand steken en jezelf vertellen. "Aval0ne en ik hebben gelijk, het is de rest van de wereld die ongelijk heeft".
Crossfire werkt lang niet bij alle spellen, bij de meeste spellen heeft het nouwelijks effect en de rendering modi waar ze het meest om geprezen werden blijken eigenlijk de aller slechtste ooit bedacht te zijn. Door standaard AFR los je inderdaad wat problemen zut op, maar het is een vrij simpele maatregel, niet een feature...

Ondanks dat er maar enkele profielen waren kon/kun je als gebruiker er nog een paar bij maken, iets wat de die-hard waarvoor SLi en Crossfire bedoelt waren geen probleem mee zal hebben.

Inderdaad kon Crossfire wel al met verschillende kaarten werken, echter, het was allang bekent dat nVidia het in de drivers kon en zou gaan oplossen (mocht je willen ontkennen dat het allang bekent was, dan zijn Ava0ne en ik weer helderziend). Bovendien hield het in dat de uiteindelijke snelheid ongeveer 190% van de traagste kaart ging worden...

Deze discussie zal denk ik nog wel even door kunnen gaan, moge het duidelijk zijn dat wij beide onze mening niet op deze wijze zullen herzien, natuurlijk blijf ik vol houden dat ik meestal wel gelijk heb, en dat weinig te maken heeft met de kleur groen, en natuurlijk blijf jij volhouden dat iedereen die het niet met jou eens is een fanboy is, en je ze dat mag zeggen zonder dat dat telt als persoonlijke aanval...Jammer dat er op GOT niet dergelijke intressante threads zijn, misschien als we meer dan 3 dagen de tijd hebben, dat we er wel ooit uit kunnen komen.
zijn er mensen geweest die werkelijk dachten dat we 10jaar lang opgescheept zouden zitten met master en slave IDE instellingen? :)
Dit is slechts een voorbeeld uit duizenden, sommigen mensen kunnen logisch nadenken over wat goed is en wat niet, andere hebben daar meer moeite mee...

Helaas blijkt de laatste groep ook een erg slecht geheugen te hebben...
Sommige mensen kunnen zonder groene bril reacties schrijven, en anderen hebben daar wat meer moeite mee.

Gelukkig is de laatste groep voornameljik beperkt tot jullie twee... ;)
de goede manier :?

als je kijkt naar de benchmarks in games , hier b.v. : http://www.tomshardware.c...ga_charts_viii/page5.html
dan zie je dat je bijna niets hebt aan sli.
sli is wel sneller in bv 3dmark maar ga je spellen spelen dan zie je dat een single kaart vaak sneller is dan 2 in sli.
en ik koop toch echt geen 2 kaarten om alleen sneller te zijn in benchmarks maar om spellen te spelen.

ik weet niet hoe dat precies zit met de crossfire variant, ben je dan ook alleen sneller in benchmarks of ook in spellen ?
Dat is een RTS, en wel een door M$ geprogrammeerd...

3Dmark benchmark probeerd zoveel mogelijk spellen van de toekomst na te doen, dus betere 3D marks = betere performance in toekomstige spellen.

SLI kan het 190% performance opleveren, mits je de resolutie maar hoog genoeg zet, en alle IQ toeters en bellen activeerd.
Ik gok dat dit nog gebenched is met oude Forceware. Daarin werd alleen SLI enabled voor spellen die het ondersteunen.

Bij Age of Empires staat SLI dus uit. In Quake 4 zie je een heel ander beeld. 2 x6600GT is sneller als 6800GT
Crap, die buitenboordkabel was het laatste wat me nog deed denken aan de Voodoo's en de Monsterkaarten.. :(
Monster3D kaarten gebruikte het omdat ze zelf geen gewoon beeld konden genereren.

SLI gebruikte in die tijd aan floppy kabels verwante interne bekabeling. En de diamondmax monster 3d had geen SLI.
De Diamond Monster 3D kan zelf wel beeld genereren. Lijkt mij ook wel logisch omdat er 3D beeld uitkomt. Dat kabeltje (VGA Pass Through cable) zit er slechts om het 2D beeld door de Diamond Monster 3D te sturen. Immers moest men ook gewoon 2D kunnen gebruiken zonder een 2e monitor aan te sluiten. (Ofwel, 2D en 3D komen uit dezelfde D-SUB, maar wel uit de D-SUB die op de Diamond Monster 3D zit ;))

De Diamond Monster 3D kan inderdaad geen SLI. Dat neemt niet weg dat de Voodoo Graphics (Voodoo 1) dit wél kan :o
De reguliere Voodoo II's kunnen uiteraard in SLI draaien. Dit niet met een standaard floppy kabel. Wel 34 pins maar niet exact hetzelfde ;)
Inderdaad kan die Monster 3D wel zelf beeld genereren.

Een bekende truuk om de beeldkwaliteit te verbeteren was bij een monitor met twee aansluitingen de pass through kabel niet te gebruiken, maar gewoon beide kaarten elke op één van de monitor aansluitingen te zetten.

In 2D werd dan de ene monitor aansluiting gebruikt en op 3D de anderen. Daarmee voorkwam je dan de beeldkwalitiet vermindering die je kreeg met de pass-through kabel bij hoge refresh rates.
Goeie oplossing, jammer dat ze daar vanaf dag 1 niet aan hebben gedacht. Toen Nvidia bijna vorige eeuw al met SLI kwam (overdrijven kan nooit kwaad) kon het gewoon het gewoon zonder een bijzondere duurdere, slecht verkrijgbare masterkaart wat een super oplossing was, kijk hoeveel mensen met goedkope 6600GT kaartjes een SLI opstelling hebben en voor een schijntje alle games op max draaien, dat deed SLI inburgeren bij de gamers, Crossfire is volgens mij tot op de dag van vandaag door bijna iedereen links laten liggen. Ze snappen eindelijk hoe het moet, jammer dat je eerst ander half jaar lang achter de feiten moet aanlopen maar door schade en schande wordt men kennelijk toch wijs.
Ik zou wel willen kijken naar al die mensen die een 6600GT SLI opstelling hebben, maar ik zie ze nooit.

Zullen we eens een poll houden op tweakers hoeveel mensen hier daadwerkelijk een SLI opstelling hebben?
Ik denk dat de uitslag wel eens zeer verrassend kon zijn.
Dit is zeer positief voor ati en gebruikers van. Als verschillende ati kaarten dan als nog te combineren zijn hebben ze iets meer te bieden dan nvidia's sli waar bij je de zelfde kaart moet hebben, maar wel van merk mag verschillen... toch?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True