Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties
Bron: Tom's Hardware

Al voor de officiele introductie van ATi's Crossfire-technologie werd bekend dat het niet mogelijk zou zijn om een hogere resolutie van 1600x1200 bij een verversingsfrequentie van 60Hz te gebruiken. Nu de Crossfire-kaarten officieel zijn ge´ntroduceerd blijkt de beperking inderdaad van kracht te zijn. ATi heeft echter laten weten dat, in tegenstelling tot wat eerder werd gemeld, de toekomstige Crossfire-kaarten deze beperking niet meer zullen hebben.

Vanwege het gebruik van de externe kabel die op de DVI-poort van de videokaarten worden aangesloten is het niet mogelijk om een hogere resolutie van 1600x1200 pixels te gebruiken zonder dat er speciale modificaties aan de zogenaamde 'slave' kaarten worden verricht. De Crossfire-masterkaarten zijn voorzien van een Silicon Images SIL 1161-chip die de communicatie via de DVI-poorten verzorgt. Deze chip heeft echter een maximal kloksnelheid van 165MHz, waardoor de resolutiebeperking wordt veroorzaakt. Om hogere resoluties te ondersteunen zou een extra communicatiechip op de slave-kaart moeten worden gemonteerd. ATi wilde echter bezitters van de huidige Radeon X8xx-kaarten ook in staat stellen om deze kaart in Crossfire-configuratie te gebruiken, waardoor het dus niet mogelijk was om de slave-kaarten met deze extra communicatiechip uit te rusten.

De volgende generatie Crossfire-kaarten, die zijn voorzien van de R520-, R530- of R515-GPU zullen echer wel zijn voorzien van een extra chip waardoor de Crossfire-technologie ook gebruikt kan worden bij hogere resoluties. ATi verzekerde de redacteur van Tom's Hardware echter wel dat de externe kabel die wordt aangesloten op de DVI-poort ook in toekomstige versies van Crossfire gebruikt zal worden.

Crossfire systeem in actie (close-up)
Moderatie-faq Wijzig weergave

Reacties (41)

Ik heb het nieuws niet goed gevolgt, dus crrect me if wrong, maar als de enige beperking is dat je op 1600*1200 niet verder dan 60 Hz kan dan is dat geen grote ramp toch? Als je nieuwe spellen speelt althans want met 1600*1200 op 60Hz vind ik best wel netjes, ik ga er vanuit dat je lle overige functies (AA e.d.) aanzet en hoog ook natuurlijk, als je de kwaliteit niet wilt zou ik geen crossfire/SLI willen :P

Maar goed, wat zie ik verkeerd?
dat je van 60Hz koppijn krijgt als je achter een CRT scherm zit
bij games merk je dat niet zo fel in vergelijking met bv tekstverwerkers of tijdens het i-netten.
En dan nog, kdenk dat je bij games eerder hoofdpijn krijgt van alle ontploffingen,rotaties, voorbij flitsende objecten, dan wat flikkerend beeld :)
merk je niet??????
ik krijg nooit hooftpijn bij gamen van de ontpoffende dingen (jij van tv wel?) maar als ik mijn monitor onder de 75hz zet flikkerd het beeld erg.

ja er zijn ook monitor waarbij het niet te zien is of wel mee valt.
heb jaren lang een van de eerste 17" monitoren gehad die net 1024x768 @ 60 hz aan kon en dat was prima te doen. maar bij deze grotere is dat gewoon niet om aan te zien, en op hogere resoluties word het alleen maar erger.

@ hansIH persoonlijk ja maar dus ook erg afhankelijk van je hardware.
mijn monitor kan ik iniedergeval gewoon zien knipperen op 60 hz @ 1600x1200.
Gevoeligheid voor lage verversingsfrequenties is erg persoonlijk. Onzinnig om over te bekvechten.
kzei dat je het "eerder" zal merken bij zon dingen :)
Maar zoals HanslH zegt, zinloos om over te bekvechten, want niet iedereen is even gevoelig voor die flikkeringen ...
Zet je de resolutie maar wat lager. Wie gebruikt er nou 1600x1200 in een game. Trouwens, tenzij je een patch installeerd kun je niet eens > 60Hz gebruiken in de meeste games. Ook al heb je je desktop wel hoger draaien.
iedere beetje on-line gamer ongeveer?
op een lagere resolutie zie je die klote snipers bijna niet zitten in de verte en kan je ze niet afknallen.
Volgens mij neem je juist crossfire om het op de hoogste resolutie te kunnen spelen. :7
@Countess, hoeft niet. Veel pro spelers gamen ook wel op lage resoluties om zekerheid te hebben dat het niet gaat schokken.
bij 70 of 72 hertz krijg je al koppijn, 75 is echt het minimum...
dat ik nu al op 1600x1200 @ 85 hz doe, en met deze crt echt niet lager wil als 75hz, en dat ik met crossfire hoopte om op hogere resoluties te kunnen spelen.
Jij hebt het waarschijnlijk over het aantal frames per seconde (fps). Dat is iets anders dan de refreshrate.
alleen zijn nu de prestaties ook nog steed een stuk brakker dan SLI
Als je X850Xfire tegenover 7800GTX Sli zet logisch dat laatsgenoemde sneller is, maar X850Xfire verslaat 6800U Sli in vrijwel alle benchmarks.
Maar beide gevallen zijn niet echt interessant meer, leuker wordt dalijk om te zien hoe R520Xfire presteert.
Als je X850Xfire tegenover 7800GTX Sli zet logisch dat laatsgenoemde sneller is, maar X850Xfire verslaat 6800U Sli in vrijwel alle benchmarks.
Het gaat over de schaalbaarheid van de kaarten: zie anandtech voor cijfers. Hieruit blijkt dat idd SLI in 5 van de 6 testen een significant grotere procentuele prestatiesprong oplevert tegenover de kaarten appart.
Als je de schaalbaarheid van SLI en XF met elkaar wilt vergelijken, dan moet je natuurlijk wel andere externe factoren zoveel mogelijk proberen uit te sluiten.

Bv door te vergelijken met kaarten die redelijk vergelijkbaar zijn in spellen wat betreft cpu of gpu bottlenecks.
Bv door een 6800U tegen een X850XT in te zetten. Doordat Anandtech een 7800GTX gebruikt introduceer je extra variabelen die het beeld vertroebelen.

We zullen pas echt de schaalbaarheid van XF kunnen vergelijken bij de R520 XF tests. (die we hopelijk over een paar dagen al te zien krijgen)
Toch wel zielig voor een bedrijf als je huidige topproduct al als niet interresant wordt bestempeld...
Toch wel zielig als je met zulke argumenten aan komt, terwijl al lang bekend is dat dat huidige topproduct over 4 dagen wordt vervangen door de R520.
Ik hoop het echt voor ATI.
Ben al jaren fan van ATI en heb ook altijd ATI kaarten gehad. (en in de Voodoo tijd Voodoo kaarten)
Heb nu een ATI X850 PE en zodra de X1800 uit is wil ik weten of ATI van Nvidia wint.

Momenteel vind ik Nvidia toch beter, vooral met SLI.

Ik kan dus niet wachten om te weten of ATI weer wint en of Cross-Fire het van SLI kan winnen.

En dan moeten er niet te vergeten ook nog fatsoenlijk cross-fire moederboarden op de markt komen.

Ben echt toe aan meer videopower dan ik van m`n X850 PE krijg.

24" DELL in dualscreen is best zwaar. Allen m`n desktop is al 3840*1200. BF2 en UT2k4 doen het goed op de native res. Maar F.E.A.R is al een probleem.
Dit is geen kwestie van hoop.

De beperking en de oplossing zijn heel simpel. Met een single link DVI connector zit je nou eenmaal aan 1600*1200@60 vast omdie die DVI interface niet meer aan kan.

Maar er is bij de informatie over Avivo al bevestigd dat de R520 gpu's allemaal twee dual link DVI interfaces hebben. En dan ben je die beperking dus automatisch kwijt, want je hebt dan de beperking van duallink DVI. (Ben even vergeten hoeveel dat is, maar niet een resolutie waar iemand wakker van zal liggen)
Niet echt, van applicaties met een witte achtergrond (vrij wel alle office applicaties) krijg je sneller hoofdpijn dan van 60hz games.
Dat is mijn ervaring tenminste.

En verder is dit een goede zet van ATi, anders was de slag al helemaal verloren.
Dat klopt ja.

Veel mensen zullen dat aan den lijve ondervonden hebben met die bug van Microsoft waarbij DirectX spellen op 60Hz draaiden terwijl je een hogere frequentie had gevraagd.

Daar had je lang niet zoveel last van, als wanneer je in een office applicatie op 60Hz bezig was.
Heb dat probleem ook gehad met GTA SA, het behoorde op 85hz te draaien maar mijn monitor gaf vrolijk 60hz aan. Op zich viel het me eerst niet eens op, maar na een tijdje spelen kreeg ik toch behoorlijke hoofdpijn terwijl ik daar nooit last van heb.
Je hebt van 60z in spelletjes minder last doordat het beeld donkerder is.
Met tekstverwerking heb je een groot wit vlak wat aan en uit gaat. Dat is idd nog irritanter:)
Edit:
Het is kennelijk we waar, en ik had ongelijk. de beperking is er wel, maar het nieuws dat ik een paar weken terug las bij de link suggereerde toch anders. Sorry voor de verwarring. het is me nog niet helemaal duidelijk waar die beperking vandaan komt, vooral nadat je dit leest:

Penstarsys
First off the Sil 1161 receiver simply receives the pixel data from the slave board. That data is sent to the compositing engine, which then takes the final frame/s and sends it to either its built in TMDS transmitter or the RAMDAC, both of which can handle 2048x1536 @ 85 Hz. The Sil 1161 has NOTHING to do with the refresh rate of the screen that is connected to the master card. So, at the very least, CrossFire users can enjoy refresh rates on CRT monitors greater than 60 Hz at resolutions above 1600x1200 because that is based on the transmitters on the master card, which are essentially identical to every other standalone, high-end ATI card. You can find the refresh/pixel specs here.

...

In summary, CrossFire users should not be hamstrung into using 1600x1200 @ 60 Hz with their high end monitors and LCDs. When digging deeper, we see that it is a probably a fairly flexible solution, and the Silicon Image chip being used won't be that big of a hurdle. Now, in saying that, I think that ATI should have used the Sil 1171 receiver that can handle 2048x1536 @ 60 Hz, as it would have given them a LOT more headroom and would have made this controversy a non-issue. Something to definitely consider though is that we have no idea what the R520 CrossFire cards will be using, and they could very well be designed with the 1171. This may be a bit of a stumble for ATI as they definitely are limiting their performance in these higher resolution situations with the 1161 receiver.
De verbinding van de slave naar de mastercard gaat met die bandbreedte. Effectief heb je het dubbele voor de ouput naar je CRT dus ik begrijp eigenlijk niet waarom het niet werkt. Maar bij de reviews bleek het probleem wel aanwezig te zijn, zoals Cameleon73 laat zien. Jammer.
Hmmm... toch vreemd dan dat deze screenshots wat anders laten zien.

Ik moet zeggen dat ik 't nu even helemaal niet meer weet ... volgens een ander artikel is het @60Hz-verhaal weer pure nonsense.

Iemand nog een perfect sluitende technische verklaring?

\[edit: kleine correctie; link hierboven is trouwens inderdaad die van Muad Dib]
Als je een sluitende technische verklaring wilt hebben, dan moet je even naar beyond3D surfen.

De artikelen die jullie noemen zijn geschreven voor de NDA beeindigd was, en geschreven door mensen die daardoor geen volledige informatie over de technologie hadden. Daarom staan er aannames in die niet kloppen.
Ja, en daarom was het imo niet zo'n slimme zet van Ati om Crossfire ten toon te stellen met de huidige R4xx lijn, het heeft bij veel mensen nu een slechte naam gekregen.
Gelukkig is het opgelost met de R520.
ze hebben al een tijde belooft dat het zou gaan werken met X8xx kaarten dus als ze het niet hadden gedaan had ATI zelf een slechte reputatie gekregen.
Pure eigenwijsheid van ATi, om kosten wat kost crossfire nu al in de kaarten te willen stoppen. En dat terweil,

1.De drivers op het moment nog zo brak zijn dat in sommige spellen het een gigantische performance hit ervan krijgen.
2.De DVI connector een grote bottleneck met zich meebrengt (dat melde ik destijds al, maarja...)
3.De kaarten nog steeds niet te verkrijgen zijn (theinq zeurde er al over, techreport heeft er ook wat aandacht aan besteed)(ze staan ook werkelijk niet in de pricewatch).
4.De moederborden er nog niet klaar voor waren (eigenlijk vreemd, iedere chipset met minstens 16 PCIe lanes zou het moeten kunnen).

Het enige wat ATi voor zich heeft is de gigantische marketing engine, review sites waren altijd al erg lovend over crossfire, en ondanks dat ik er ook maar een kon ondekken schreef zelfs onze eigen tweakers.net ooit
Het moge duidelijk zijn dat ATi’s Crossfire een spreekwoordelijk stapje voorloopt op nVidia’s SLI wat betreft de featureset en mogelijkheden.
reviews: ATi's Crossfire neemt beeldschermen onder vuur

Ik weet niet hoe ATi het toch voormekaar krijgt om mensen te laten geloven in allerlei rendering modi's die precies dezelfde bottleneck hebben (vertex zal iedere kaart voor zich moeten doen) en in een gekke techniek als een uitgang gebruiken als interlink.
T.net slachtoffer van ATi marketing tijdens de preview, het is niet de eerste keer.
Ik had graag een review van T.net van crossfire gezien waarin ze hun beweringen in de preview vergelijken met de werkelijkheid. Ik heb het dus over: gebruik van profielen, de beweerde prestatiewinst in ELK game, de schaalbaarheid, de resolutiebeperking, ..... Dat zou pas interessant zijn.
dat hele gedoe 'ik ben blij dat ik altijd voor nvidia kaarten ben gegaan' slaat nergens op ... van de afgelopen 4 kaarten die ik had waren er 2 nvidia en 2 ati, dus ik koop gewoon wat op dat moment het beste is, en ik ga er van uit dat 80% van de mensen dat ook doet ... al die voorliefdes zijn gewoon niet logisch :)
Dan maar ff wachten op de R520 Crossfire ik hoop dat het allemaal een beetje soepel gaat verlopen. ATI is niet zo goed bezig maar Nivdia hoef ik eigenlijk ook niet.
Ik heb er nog vertrouwen in maar ze moeten niet veel vraten meer hebben anders raken ze een heleboel mensen kwijt.

Ik hou het dit jaar nog wel ff uit met een X800XTPE.
ATI blijft voor mij nog steeds #1 maar het is wel iets minder geworden ;( ze zijn een beetje aan het kloten op het moment.
alleen zijn nu de prestaties ook nog steed een stuk brakker dan SLI
Waar baseer je dat op?

De eerste reviews geven allemaal aan dat de performance winst van Crossfire ten opzicht van SLI veel beter is. Waar SLI vaak tussen de 60 en 80% blijft steken zit Crossfire nagenoeg overal boven de 75% winst.
Ik zou toch eens wat revieuws lezen. Er is geen enkele fatsoenlijke review site (hexus, [H], bit-tech, xbit, ...) die tot de conclusie komt dat crossfire beter is dan SLi of betere prestaties geeft.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True