Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 110 reacties
Bron: The inquirer, submitter: XWB

ATi logo (kleiner)Van ATi's aanstaande SLI-techniek was onder andere de naam 'Crossfire' al een tijdje bekend en ook circuleerden er berichten dat er een drietal verschillende beeldopbouwmethodes wordt ondersteund. Bij de nimmer NDA's ondertekenende collega's van The Inquirer is inmiddels een foto opgedoken van ATi's Crossfire, waarop het verbindingskabeltje met een dongle te zien is. Binnenkort kan op Tweakers.net een dieper op deze materie ingaand artikel gelezen worden. Stay tuned.

Moderatie-faq Wijzig weergave

Reacties (110)

Als je m.b.v. kabels een soort SLI systeem moet maken vind ik dat toch een simpele oplossing, en wel buiten je kast zodat je je pc wel van de muur af moet zetten, maar ja.
Maar ja ATI moet toch ook weer wat anders verzinnen, misschien presteert het wel veel beter als SLI??????

Moet je nagaan dat ze bij ATI zo'n oplossing voor 4 kaarten moeten maken. Dan heb je 5 kabels achter je pc.
:'(
Nou, zo'n kabel achter aan je PC die de 2 kaarten met elkaar verbind is ook niet alles.

Weet iemand waarom ze niet gewoon de bus op het moederbord kunnen gebruiken voor communicatie tussen de kaarten?
Ik geloof dat ze juist die bus wilden vrijhouden, omdat het anders een vertragende werking had op de computer. Om die reden hebben ze die extra kabel aan de buitenkant geplaatst.
Omdat bij Nvidia de framebuffer op de master kaart compleet gevuld moet worden. De oplossing van ATI dwingt niet af dat het geproduceerde beeld van de slave weer naar de master verzonden wordt. Daarvoor in de plaats komt wat afstemming met betrekking tot de beeldopbouw, maar dat lijkt me minder kostbaar dan de beelden kopieeren via een SLI brug en die dan invoegen.
Dus de SLi connector vertraagt het geheel volgens jou? Bus vrijhouden? Wordt die dan belemmerd door de connector? Waarom zit die connector er dan nog op? Waarom blijkt uit reviews dat SLI met connector aanzienlijk sneller is dan zonder connector? Waarom zou een externe oplossing zoals ATi heeft sneller werken?
Bas: Nvidia werkt helemaal niet met master en slave kaarten.
@avalOne

Je leest niet goed. Ik maar hier toch geen vergelijking tussen SLI en Crossfire? Uit een van de vorige nieuwsposts werd gezegd dat het extern was gedaan omdat ze juist die bus die via het moederbord gaat willen vrijhouden. Of dat sneller is dat, dat weet ik niet. Dat moet nog uit de tests blijken.
Gelukkig lijdt de kwaliteit er niet onder omdat er digitale uitgangen gebruikt worden. Wel jammer dar er toch weer net als met de Voodoo's aan de achterkant verbonden worden, zou niet nodig zijn zou je denken. Ook apart dat er blijkbaar geen intern kabeltje nodig is voor synchronisatie of iets dergelijks (wat bij voodoo wel zo was, en met nvidia ook).
Maar dat het nou de ruimte belemmert achter je kast vind ik wat overdreven. Over het algemeen kan ik een kast sowiezo niet tegen de muur zetten, er komt immers ook nog een vrij dikke voedingskabel uit je voeding zetten. Dit systeem laat zich nog wel aardig om een hoekje buigen wat dat betreft :)
Omdat het dan teveel lijkt op SLI, gezeur over patenten etc. etc.
ATI gebruikte "sli" technologie al toen 3dfx nog leefde en nvidia vond dat 1 core genoeg was

zon dual core rage fury maxx ofzow. van de oorspronkelijke radeons zijn toen ook een aantal test samples geweest maar verder niet volgens mij. ati heeft toen gewoon zn eigen technologie ontwikkeld.
Nu je het zegt. De Voodoo SLI rechten liggen bij NVidia. Hoe kan ATI dit zo maar doen eigenlijk. (Het is wel DVI ipv VGA maar toch)
Bij 3Dfx Voodoo kaarten gaat de data niet via een externe kabel buitenom !. De 3Dfx Voodoo II (De Obsidian 100DB-4440 aka Voodoo 1 kon ook SLI) heeft een interne kabel voor het verbinden van de kaarten. De 'pass-through' kabel op de D-Sub is enkel voor het doorgeven van de verwerkte "data" dat naar de monitor moet ;)
Misschien is deze wel te traag |:(
Vindt het een beetje een goedkope "voodoo" oplossing. :z
Compatibiliteit :)
Ik denk dat ze bij Ati niet dom zijn.

Ze zullen hier echt wel over nagedacht hebben.
En het lijkt mij dat zo'n kabeltje juist de bussen op het moederbord ontlast. Wie weet met wat voor overdrachtssnelheid gegevens over dat kabeltje worden gepompt.

-R-
Maximaal met de snelheid die voor DVI gedefinieerd is. Tenminste als het ook op oudere kaarten moet kunnen werken.

Maar een veel belangrijker vraag is of er ook daadwerkelijk veel data overheen moet, of dat het maar heel beperkt is.
voor hetzelfde geld ramt hij de data rechtstreeks naar de monitor alleen via de andere kaart omdat die ook zijn data kwijt moet. het lijkt mij onzin om 2 kabels naar 1 monitor te laten lopen als je ze ook kan doorverbinden zodat het goed gaat. in dat geval heeft de 1e kaart totaal niets met de 2e kaart te maken en word het via de driver zelf opgelost.
ik denk dat de grootste kans op je antwoord is: patent..

het lijkt me dat nVidia dat heeft gepatenteerd ofzo.. het zou stom zijn als ze dat niet zouden doen :)

(sorry net te laat ;))
Da's onzin, zoiets is niet te patenteren, anders konden ze evengoed multi gpu configuraties patenteren.
Ati heeft gewoon een heel andere techniek ontwikkeld dan nvidia.
omdat dan alleen op die moederborden, en ten koste van systeem bandbreette het werkt.

3 kabels voor 4 kaarten,
of 1 kabel (maar dat zou dramatisch voor de bandbreette van de kabel zijn, en dan krijg je wel erg vreemde bottlenecks)

Deze oplossing op zich presteerd onmogelijk beter dan SLI, misschien dat de kaarten beter zijn, misschien dat de drivers beter zijn, maar technisch gezien heeft nVidia zijn SLI connectors toch echt beter voormekaar.
weet jij dan hoe het werkt?
Zo ja, leg het me eens uit? Waarom is de ene oplossing bij voorbaat trager/sneller dan de andere?
Zo neen, stop met blaten ;)
(dat is niet tegen jouw persoonlijk, maar tegen iedereen die zonder argumentering en voorkennis zomaar gaat "gokken" tussen beter of slechter)

Volgens mij is trouwens de "bandbreedte" van de kabel helemaal niet zo'n beperkende factor. Het kabeltje tussen de kaarten kan immers best een ander kabeltje zijn dan een normale vga-kabel. En imho is dat zelfs niet nodig omdat het erom gaat genoeg beelden te maken (right?), als elke kaart de helft van de beelden (of halve beelden ze je wil) gaat maken, heeft elke kaart toch maar halve bandbreedte nodig? OK, misschien wat overhead mbt de crossfire opsetlling. Maar z nipt is een DVI-uitgang nu ook weer niet bemeten.
Imho is de crossfireoplossing niet bij voorbaat technisch slechter dan SLI: het lijkt me daarentegen behoorlijk noob-vriendelijk (wat je alvast van de eerste generatie SLI niet kon zeggen). Superioriteit zal blijken na vergelijking :)
De kabel kan afhankelijk van de kwaliteit van de koperdraden zo snel als je zelf wilt, dat gekld niet helemaal voor de connectoren en de weg op de pcb van GPU naar connector.

Je Noob-proof punt, daar moet ik je toch wel gelijk in geven, ik zal voortaan alle noobs niet meer 6600GT's aanraden, maar X800SE's.

Technische inferieuriteit had ik ergens anders in deze thread al eens uitgelegd:Het is onmogelijk dat de nVidia SLI bridge minder snel is dan deze externe aansluiting.

Ik zal proberen uit te leggen waarom, nVidia had alle keuze uit alle mogelijke manier om kaarten opmekaar te gaan aansluiten, en van al die mogelijke aansluitingen kozen zij voor de bridge die er nu is, waarvan wij weten dat die direct in de GPU binnenkomt, en waarvan wij weten dat die meer dan genoeg bandbreette heeft om geen bottleneck te veroorzaken.

ATi kon geen directe verbinding tussen kaarten maken zoals nVidia dat gedaan had, want nVidia had patenten aangevraagd. ATi heeft geen direct in de GPU uitkomende koper draden die de GPU's met mekaar in verbinding brengt, want alle X8XX kaarten die er nu op de markt zijn zijn nooit voor MVP gemaakt. ATi heeft verder een uitgang van een connector, aangesloten op het 2D gedeelte van de chip gebruikt om 2 kaarten met mekaar te verbinden.

Ik zeg niet dat ATI's oplossing erg slecht is, maar beter als die van nVidia kan gewoon niet, dat moet je met me eens zijn.
en wel buiten je kast zodat je je pc wel van de muur af moet zetten
ik weet niet hoor maar dat moet je toch. dat extrene ding neemt niet meer ruimte in als een standaard monitor kabel. ik zie het probleem dus totaal niet.

en het voordeel is onderandere dat mobo makers een stuk flexiblere zijn in waar ze de 2 16x sloten neer zetten.
en nog belangrijker is dat je hierdoor dus wel je huidige x-serie kaart kan gebruiken in je crossfire oplossing
De moederbordfarbrikanten leveren toch gewoon een sli-brug mee met hun moederbord. Dan kunnen ze zelf beslissen hoe ver de pci-express 16 sloten uiteen staan. Ik heb trouwens ook al flexibele sli-bruggen gezien met een redelijke lengte. Dus als je een andere kaart tussen je videokaarten wil steken, moet dat ook kunnen, alhoewel ik niet denk dat dat een goed idee is.
Flexibel? Heb je die foto wel eens goed bekeken, je kan hem ECHT niet 3 sloten uit mekaar zetten!
Heb jij die foto wel eens goed bekeken?

Die kaarten staan namelijk nu al 2 slots uit mekaar. (dual slot kaarten met een slot ruimte er tussen) en 3 slots lukt dus zo te zien met dat huidige kabeltje al wel.

En mocht er ooit een mobo fabrikant komen die ze 4 slots uit elkaar zet dan maakt ie wel een eigen kabeltje, net zoals er voor SLI eigen bridges gemaakt werden.
tja er zijn limieten aan hoe ver die kabel rekt natuurlijk.
maar ze hoeven niet meer persee met exect 1 slot ertussen.
<Begin Quote> zodat je je pc wel van de muur af moet zetten <\End Quote>

?????

Staat jouw pc nu misschien tegen de muur?? Is ook niet goed voor de ventilatie h, maar ja.

En stel dat ATI met een 4-kaarten oplossing komt, dan zit je nog altijd met 1 kabel, welliswaar met 5 aansluitingen, maar het blijft 1 kabel.

Het grootste voordeel bij deze oplossing is dat je geen 'SLI-kaarten' moet hebben, dus geen kaarten met een bridge-aansluiting op de kaart zelf, gewoon twee kaarten uit een bepaalde reeks, kabeltje eraan en je bent vertrokken.
Ik zie niet echt zo het probleem met deze oplossing? :?
Je moet nu toch ook al je monitor met een steker aan de achterzijde inpluggen? Nu is er een tweede naast geplaatst die net zo dik is.... So who cares anyway?!

Maar wat veel belangrijker is:! ;)
Ten tweede biedt deze oplossing waarschijnlijk een solution voor patentenkwesties, maar wat ik verder denk, dat dit JUIST een voordeel is van de ATI SLI oplossing; ik denk nl., dat DIT juist de manier is hoe ATI 2 verschillende typen/snelle kaarten met elkaar onderling ZONDER BEINVLOEDING kan laten communiceren:

Volgens mij werkt het nl. zo ongeveer:
- De dochtercard stuurd een gerenderd beeld uit; met bijv. niet alle effecten op maximaal of bepaalde rekenintensieve tasks uitgeschakeld, daar die toch niet snel genoeg worden gerenderd). Alleen een basic plaatje dus met standaard rendering zonder te veel poespas (waarschijnlijk instelbaar via drivers).
- de Mastercard krijgt dit beeld binnen via de passtrough cable (net als vroegere Voodoo 1 en 2 kaarten) en renderd OVER dit beeld de extra effecten en rekenintensieve tasks; ie. alleen op de plaatsen waar het nodig is.
- Dit beeld kan dus snel worden opgebouwd ; de mastercard hoeft zich niet meer bezig te houden met de basic beeldopbouw, en kan daardoor volledig zijn rekencapaciteit (pixelshaders ed) benutten om dat basic beeldje op te leuken....
- Het uiteindelijke plaatje wat door de 2 kaarten is gerenderd wordt naar je monitor gestuurd, zonder dat de kaarten eigenlijk van elkaar veel weten wat ze gerenderd hebben en hoe snel ze dat hebben gedaan...

Hioerdoor maakt het dus niet meer uit hoe snel de kaarten onderling zijn. tevens hoeven de kaarten dus ook niet meer op elkaar te wachten, wat veel performanceverlies geeft.
AN sich leuk bedacht, maar dit staat wel schuin tegenover wat eerder is gezegt, dat het beeld op drie verschillende manieren gerenderd kan worden, namelijk: Scanline, Tile of Half/Half, waarbij Tile en Half/Half variabel te werk gaan door de load te balanseren over bijde kaarten. Een tragere kaart zou in dit geval iets minder renderen dan de sterkere kaart. De scanline techniek is exact hetzelfde als de Voodoo2 techniek, de ene kaart doet even lijnen, de ander de oneven lijnen. Hierbij zou een tragere kaart de boel dus vertragen, maar zou bij 2 identieke kaarten misschien wel sneller kunnen zijn vanwege de simplistische benadering van het beeld.
Mij lijkt het werken met meerdere layers zoals jij eigenlijk beschrijft een nogal ingewikkelde klus om te klaren.

Wat ik me nog wel kan bedenken is dat ze de DVI aansluitingen gebruiken om te kunnen synchroniseren. Wie weet gebruiken ze bepaalde aderen wel voor totaal andere doeleinden dan ze oorspronkelijk zijn bedoelt. In dit geval dus om extra gegevens met elkaar uit te wisselen m.b.t de beeldopbouw
Vergeet het maar, jij wilt zeg maar de laatste rendering passes aan de beste van de twee kaarten geven zodat die wel eventjes de SM3.0 effecten gebruiken, helaas, dat heeft weinig zin, aangezien ze niet te combineren zijn met ander SMs en ook niet alleen texture rendering, want dat kan die andere kaart net zo goed zelf doen. Bovendien is de kabel waarschijnlijk niet snel genoeg.

Jou oplossing laat kaarten juist wel enorm op elkaar wachten.
Lees hier voor meer info over de Master-Cards (Crossfire-Edition), die je dus moet hebben om je "oude" slave kaartje mee te gebruiken. Je kan zover ik weet trouwens ook een X850XT Master editie kopen, en die samen gebruiken met een X800XL en/of welke leuke variaties je ook maar kan verzinnen.

Ook interessant is dat er staat dat ATi zelf de Master-Cards gaat maken, en die uit handen geeft aan 3rd parties. Dat lijkt een beetje op 3Dfx voordat het zooitje op z'n muil ging, en zeker geen verstandige keuze van ATi. Laten we hopen dat ze dat niet echt gaan doen, want dat zal ze uiteindelijk niet veel respect en goodwill uit de markt opleveren, lijkt me.
Opzich waren het bij 3DFX nog wel een hoop andere redenen waarom ze ten onder zijn gegaan. ATi komt hierdoor never in de problemen.
Je moet het zo zien, het feit dat ATi dit soort dingen in eigen handen gaat nemen, betekent dat 3rd parties minder kaarten gaan verkopen (meer mensen kopen een upgrade bij ATi, die ze niet meer bij de 3rd party afnemen). Dat betekent dat het minder interessant gaat worden om ATi based videokaarten te verkopen, omdat de ROI veel langer gaat worden. Daarnaast is het natuurlijk niet erg sympathiek om een partner als Sapphire die om dit moment het overgrote deel van de ATi kaarten produceert opeens uit te sluiten van deze stap, denk je echt dat ze daar blij mee zijn?

Natuurlijk zijn de gevolgen echt geen 3Dfx, daarvoor is ATi veel te kapitaalkrachtig, en de markt nog veels te groot, maar ze moeten oppassen dat ze met dit soort "moves" niet het respect van de partners en klanten verliezen. Ik noem hierbij de klanten, simpelweg omdat je weet dat er minder concurrentie is als we het hebben over een enkele leverancier, oftewel, we moeten gaan lappen.

Ik zeg: stomme zeg van ATi.
En ik zeg nogmaals onzin, :)
Het gaat hier alleen om Master kaarten, het grote gros koopt gewoon normale slave kaarten omdat ze helemaal gaan SLI opstelling nemen, het is zo'n kleine afzetmarkt dat het JUIST slim is dat ATi dit zelf doet. Ik kan me zelfs voorstellen dat die 3rd parties liever helemaal niets te maken willen hebben met dit "SLI" drama.
Daarnaast zullen de kaarten op deze manier wel altijd van de juiste kwaliteit zijn, wat ook een stukje zekerheid met zich meebrengt. Ze voorkomen hiermee mijns inziens een hoop problemen en geeft mij meer het gevoel dat ATi heel erg slim en volwassen handelt. Laat toch weer eens zien hoeveel ervaring ze hebben.
Daarnaast is het natuurlijk niet erg sympathiek om een partner als Sapphire die om dit moment het overgrote deel van de ATi kaarten produceert opeens uit te sluiten van deze stap, denk je echt dat ze daar blij mee zijn?
Elke BBA kaart is geproduceerd door Sapphire, zelfs de kaarten van powercolor, Connect 3D enzo worden door Sapphire gemaakt en dan gerelabed. Enkel Asus, MSI en de andere grote bedrijven maken hun kaarten zelf, dus als ATi de masterkaarten zelf gaat maken, dan wil dat zeggen dat Sapphire dat gaat doen...

Sapphire vindt dat niet erg, Asus en MSI des te meer...
Dat maakt het gerucht van The Inquirer dan ook zo ongeloofwaardig, want zij claimen juist dat Sapphire ze niet mag maken.

Er zijn maar 3 opties:
1) ATI gaat ze zelf maken en verkopen als BBA. Erg onwaarschijnlijk aangezien ze de europese en aziatische markt juist aan hun partners gegeven hebben. Als ze BBA in Europa willen verkopen zouden ze daar eerst zelf weer een eigen netwerk voor moeten opzetten. Dat gaat dus echt niet gebeuren.
2) ATI maakt alle kaarten zelf en de partners plakken er alleen eigen stikkers en koelers op. (Waarschijnlijk dan gemaakt door Sapphire)
Niet onwaarschijnlijk aangezien het hier om een niche markt gaat. En dan kan het voor de partners wel eens veel te duur worden om een aparte productielijn op te zetten voor een kaart waarvoor wellicht maar heel weinig vraag is.
3) Het gerucht is onzin. (Erg waarschijnlijk gezien de bron)
Subtieler...maar als de kabel nou de reden is tot betere prestaties t.o.v. SLI dan is dat toch prachtig? En ik weet niet hoe jij tegen je PC aankijkt maar ik kijk nooit naar de achterkant...
Het is onmogelijk dat de nVidia SLI bridge minder snel is dan deze externe aansluiting.

Ik zal proberen uit te leggen waarom, nVidia had alle keuze uit alle mogelijke manier om kaarten opmekaar te gaan aansluiten, en van al die mogelijke aansluitingen kozen zij voor de bridge die er nu is, waarvan wij weten dat die direct in de GPU binnenkomt, en waarvan wij weten dat die meer dan genoeg bandbreette heeft om geen bottleneck te veroorzaken.

ATi kon geen directe verbinding tussen kaarten maken zoals nVidia dat gedaan had, want nVidia had patenten aangevraagd. ATi heeft geen direct in de GPU uitkomende koper draden die de GPU's met mekaar in verbinding brengt, want alle X8XX kaarten die er nu op de markt zijn zijn nooit voor MVP gemaakt. ATi heeft verder een uitgang van een connector, aangesloten op het 2D gedeelte van de chip gebruikt om 2 kaarten met mekaar te verbinden.

Ik zeg niet dat ATI's oplossing erg slecht is, maar beter als die van nVidia kan gewoon niet, dat moet je met me eens zijn.
Als je deze opstelling kiest moet je de rest onboard nemen want er pas nog maar n insteekkaart bij...
Ach wat maakt dat nu uit? Het betere Gamers/Workstation mamaplankje heeft 8* USB2.0, 2*IEE1394, 1*COM, 1*Parallel, 2*PS/2, 1 (2)*Gigabit LAN, 4*SATA, 2*PATA en dan heb je nog 1 PCI(e) slot over voor de hele gave geluidskaart of voor een digitizer. Meer wil de gamer of professionele graficus toch niet hebben, als de gegevens al belangrijk zijn is raid 0+1 voldoende wanneer je gewoon vaak eenbackup maakt. Je gebruikt dit soort configuraties toch alleen maar voor de grafische prestaties en om te kunnen pochen op....
2 kaarten.
Er is nog een slot vrij tussen de twee videokaarten... :)
dat lijkt me idd een uitdaging voor de mobo bouwers om te zorgen dat die onboard spullen nu een keer van echt goede kwaliteit zijn
en niet dat je boxen brommen als je ze aansluit op de onboard geluidskaart

en tussen die 2 videokaarten zit vaak geen pci slot
maar een nu nog vrij nuteloze PCIe x1 slot
De foto lijkt me een beetje erg gefotoshopt. De bovenste connector zit niet vast aan de kaart en lijkt er schuin op te zitten. Als die bovenste stekker er uit valt, heb je dan maar half beeld?
Ten tweede zit de onderste kaart sowieso op een normaal PCI slot, kan dit qua bandbreedte wel? Wat is het nut van de kracht van 2 kaarten als je maar beperkte bandbreedte kan gebruiken?

Al met el een beetje een vreemd verhaal.
Dat denk ik niet, simpelweg omdat ze dan ook die rare vegen wel hadden weggewerkt die je ziet linksboven op het moederbord bijvoorbeeld. Wel interessant is dat de Mastercard in dit geval wel een ViVo model is, en de tweede niet. Te herkennen aan de gele audio output die naast de +12v stroomaansluiting zit. Dat betekent dat de Mastercard een ATi Theather chipje aan boord heeft.

En over die kaart in een PCI slot? Dat klopt niet, dat lijkt zo omdat de kaart een dikke koeler heeft die 2 slots breed is. De PCI-e bus kan je simpelweg niet zien erdoor.

UPDATE: Het nVidia PR plaatje heeft hetzelfde euvel. Hihi.
Ok, misschien geen fotoshop, maar het feit dat dat externe kabeltje blijkbaar zonder schroeven aan de bovenste kaart vast zit kan voor speling en/of losraken zorgen. Ook ik kan 2 bijna identieke kaartjes in een moederbord proppen, een kabeltje als deze fabriceren en zeggen dat het de nieuwe crossfire opstelling zou zijn.
Het herprogrammeren van de aansluitingen met verschillende signalen (inkomend en uitgaand in 1 stekker) over reeds gedefinieerde aansluitingen lijkt me moeilijk, zo niet onmogelijk aangezien alle connector-pinnetjes al een doel hebben. Tel hier de reputatie van The Inquirer bij op en ik denk dat ik mijn twijfels wel mag laten blijken.
Ik wacht wel op ATi voor de bevestiging, i.p.v. dit als waarheid te beschouwen...
zit niet vast aan de kaart en lijkt er schuin op te zitten
schoef de schroeven van je vga connector eens los en probeer de stekker eens te bewegen.
best wel wat speling of niet.

en zoals gezegt de koeler hangt boven een pci slot, de kaart zit gewoon in een pci-express slot
Als het goed is moet je in deze opstelling ook een Nvidea kunnen combineren met een ATI... of welke kaart dan ook... mischien zelfs een PCI-E met een oud PCI kaartje :P

Het ligt er maar net aan wat de software toelaat, want ik vermoed dat die hier de loadbalancing zal doen: de master kan immers geen opdracht geven door 't kanaal waar je normaal je monitor op aan sluit... dat is absoluut niet backwards compatible. De slave kan alleen door die kabel de gerenderde beelden versturen al zou hij ze naar de monitor versturen...

Of heb ik het hier helemaal mis? Hoe kan de master anders de andere kaart aansturen? Is het mogelijk zonder tussenkomst van de processor andere kaarten aan te sturen?
je zal ze hooguit aan kunnen sluiten. ik denk niet dat nvidia tijd gaat stoppen in het maken van drivers die samen kunnen werken met een ati-master kaart

de aanstuiring word gedaan door de drivers/software, en die communiseert met de kaarten via de pci-express aansluiten.
denk niet dat je de master kaart moet zien als een echte master. het enige wat die kaart meer kan als normale kaarten is denk ik het beeld samen voegen, hij regeld verder weinig.
Wat is nou eigenlijk precies het verschil met die Master card? kan je een slave kaart niet flashen naar een master of iets dergelijks? ben benieuwd wat deze ontwikkeling weer allemaal aan geknutsel teweeg gaat brengen :Y)

hoezo overbodig, is dit nou Tweakers.net of niet? kom nou :z
Tussen SLI en Crossfire zullen mooie benchmarks gehouden kunnen worden. Eerst testen hoeveel prestatiewinst 2 x X800XT opleveren tegenover 1 x X800XT en dan hetzelfde met de GF6800U. Dan zullen we weten welke techniek het beste loont en maken die paar kabeltjes aan de achterkant niets uit voor mij.
Crossfire defeats SLI in 3Dmark05 and some games
http://www.theinquirer.net/?article=23571

met een korreltje zout te nemen want afkomstig van de ATi press release.
vooral als je bekijkt welke games getest werden.

daarnaast is zover ik weet 1 x850XT PE sneller dan 1 6800U.

maar dit is gewoon het standaard spelletje.
denk dat het uiteindelijk zo zal zijn dat beide ATIs Crosfire in sommige spellen een grote performence winst geeft en nvidia maar een kleine in die spellen en dan ook weer andersom dat Nvidias SLi een grote winst geeft in een spel en ATI juist een kleine in dta spel.

ik denk zelf dat SLi van Nvidia voor de kaarten makers eenvoudiger is, omdat ze gewoon hun 6600GTs maken en hun 6800GTs etc, bij ATI maken de kaart makers nu gewoon hun x850Xts etc doordat ATI helemaal alleen de master kaarten maakt hoeven de kaart makers deze last niet op zich te nemen.

ik denk dat ATi de master kaarten zelf maakt omdat de markt voor iets als crosfire en SLI zo klein is dat het onzinnig is als al hun partners zelf master kaarten maken en dna uiteindelijk met een groot deel van de master kaarten blijven zitten omdat de klanten die zoiets kunnen betalen erg klein is. bij Nvidia is zoiets niet van belang omdat er geen slave of master kaart is (maar hun hebben weer het nadeeld at voor SLI beide kaarten hetzelfde moeten zijn)
Quote:
AN sich leuk bedacht, maar dit staat wel schuin tegenover wat eerder is gezegt, dat het beeld op drie verschillende manieren gerenderd kan worden, namelijk: Scanline, Tile of Half/Half, waarbij Tile en Half/Half variabel te werk gaan door de load te balanseren over bijde kaarten. Een tragere kaart zou in dit geval iets minder renderen dan de sterkere kaart.
unquote:

Je geeft al zelf aan; Tile en half/half balanceren de load op de verschillende kaarten. Dat kan op 2 manieren; door beide kaarten allebei een gedeelte van het scherm te laten renderen; of verdelen over de 2 gpu's; een basic screen en een 2e opleukscreen hier erover heen gerenderd door de andere GPU.

Als je 2 verschillende kaarten hebt, dan lijkt het mij juist een drama om te bepalen in de 1e situatie (het verdelen van je screen in parts) wat de beste verhouding is met betrekking tot snelheden. 2 verschillende ATI kaarten hebben (totaal) verschillende karakteristieken en tevens hoeven ze niet met dezelfde kwaliteteit te kunnen renderen! (oudere generatie van GPU enzo)
Het gevolg zal zeker kunnen zijn dat als je bijv. 1/3 van je beeld laat renderen door je oude kaartje en de andere 2/3 door je nieuwe masterkaart, je ziet echter kwaliteitverschil van renderen tussen de bovenste 1/3 van je beeld en de betere onderste 2/3. Tevens schokt het bovenste 1/3 beeld en loopt de onderste 2/3 vloeiend.
-> probleem is nl. hoe kan dit systeem altijd voor 100% de juiste balans vinden?

Conclusie: :)
Ik denk nl. dat juist mijn concept is wat ATI gaat lanceren; en de manier dat de kaarten zijn verbonden wijst daar dan ook op.
-> laat kaarten afzonderlijk hun kracht benutten om zo snel mogelijk te renderen; de trage kaart voor je basic beeld en een layer erbovenop met special effects door je nieuwe mastercard (die meer shaders enzo kan hebben)

Voordeel is dan dat het systeem weinig meer heeft te maken met de snelheid en mogelijkheden van de kaarten onderling. je blijft 1 geheel beeld zien; en niet een deel gerenderd door kaart 1 enm een 2e deel door kaart 2.

Ten tweede is een standaard VGA uitgang (en volgens mij ook een digitale uitgansconnector??) NIET voorzien voor input van gegevens. De slave kaart kan dus alleen maar een compleet beeld renderen, WAAROVERHEEN die masterkaart dan renderen met special effects en dat uitsturen naar de monitor.
Dit strookt ook met het feit dat ATI aangeeft dat oudere ATI kaarten (en waarschijnlijk dus ook nvidea en consorten) kunnen samenwerken met hun SLI oplossing. echter je hebt alleen een 2e masterkaart nodig.


just my 2 cents ;)


wijziging als reactie op ranzi:

-> ATI heeft aangegeven dat in principe alle kaarten van SLI gebruik kunnen maken, incl. de oudere en zeker de toekomstige (die nog meer features zullen gaan krijgen etc.). Tuurlijk zullen ze 'pogen' te marketen om de massa te bewegen om nu al een x800 ofzo aan te schaffen, en later zo'n masterkaart erbij. Het is niet in hun belang dat iedereen hun oude Radeon 8500 naast die superdure masterkaart gaat gebruiken... typisch marketing.

Overigens zit er een 2e reden achter deze 'marketing' van ATI. oudere kaarten hebben geen PIC express interface, en die zijn alleen maar met AGP. Vallen er automatisch een hoop af.....

Desondanks zal waarschijnlijk alweer de opvolger, van de komende masterGPU kaart van ATI (volg je nog ;) ) meer mogelijkheden hebben, waardoor ik weer op bovenstaand verhaal terug kom.

Zelfs al gebruik je 2 kaarten met exact dezelfde specs en snelheid (idem type) en zal je die ofwel de bovensste helft; ofwel de onderste helft laten renderen; dan NOG kan je nimmer garanderen dat dit sysnchroon gaat lopen. IMMERS in het bovenste gedeelte hoeft er vrijwel niets gerenderd te worden als er in het onsterste beeld alle actie is enzo.... think about this! ;)
Uit een eerder nieuwsbericht is gebleken dat je enkel de nieuwste generatie zal kunnen gebruiken in Crossfire, dat wil dus zeggen dat de kaarten allemaal dezelfde beeldkwaliteit kunnen weergeven, weliswaar niet aan dezelfde framerate, maar wel even mooi. Een Radeon 9x00 of 8x00 kan je gewoonweg niet gebruiken, aangezien deze enkel in AGP uitvoering te krijgen zijn.
Het gaat dus echt niet met jouw "layer-concept" werken hoor, elke kaart rendert gewoon een deel van het beeld en dit volgens een van de 3 verschillende technieken.
Graphics worden in blokkenb van schermen berekent, er is niet een deel wat achter kan lopen op de rest, dus er is ook niet een deel van je beeld wat vloeiend loopt, en een deel wat schokt, aangezien het eindplaatje pas naar je scherm wordt gestuurd als alle pixels klaar zijn.

Pixel rendering pipelines kunnen niet ergens in het midden een keertje pixel opslaan en iets anders gaan doen, dat zou een verdubbeling van het aantal transistors op gaan leveren, en iedere keer dan een pass ermee ophoud onstaat er een gat in de pipeline, een bubble, lege ruimte, iedere stage moet 1 cycle idelen, dus je gebruikt maar een klein gedeelte van de kaart.

Daarbij is het te traag om over die connectors een half-pixel product naar de andere kaart te verslepen, en aangezien het shader werk in toekomst apps toch het meeste werk zijn, wordt je uiteindelijk snelheid toch bepaald door de snelheid waarmee je master kaart rekent, en heb je een snelheids winst van Null.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True