Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 108 reacties
Bron: The Inquirer, submitter: Sjmeut

Een aantal sites melden een opvallende beperking aan ATi's nieuwe technologie om meerdere videokaarten te gebruiken in een computer om de snelheid van 3D-spellen te verhogen. Het zou volgens The Inquirer, Rage3D, TechSpot en nog een aantal sites namelijk wel eens het geval kunnen zijn dat de maximale resolutie die gebruikt kan worden bij een Crossfire-configuratie 1600x1200 is bij een verversingsfrequentie van 60Hz. Deze verversingsfrequentie is te laag voor gebruik op een CRT-monitor, maar zal wel voldoende zijn voor een TFT-scherm. Hogere resoluties dan 1600x1200 zijn uitgesloten, aldus deze sites.

De mogelijk oorzaak voor deze beperking is uiteraard bekend. De Crossfire-techniek zal gebruik maken van een losse kabel om de twee videokaarten met elkaar te verbinden. Crossfire maakt gebruik van een specifieke 'master' kaart, die specifieke ondersteuning voor het samenwerken met een andere videokaart zal hebben die wordt geleverd door een chip van Silicon Images. Deze master-kaart kan worden gebruikt in combinatie met een willekeurige 'slave'-kaart, met bijvoorbeeld de momenteel reeds beschikbare X850 of X800 GPU's. Omdat ATi ervoor heeft gekozen om elke willekeurige X850- of X800-videokaart als slave-kaart te gebruiken, had het bedrijf niet de mogelijkheid om specifieke eisen aan deze kaart te stellen. Op de master-kaart is de chip van Silicon Images de veroorzaker van het probleem. Deze SiL 1161-chip verwerkt het signaal van de slave-kaart met een maximale kloksnelheid van 165MHz. Een kleine berekening maakt al snel duidelijk dat deze kloksnelheid een bandbreedte oplevert die net voldoende is voor de eerder genoemde resolutie van 1600x1200 bij 60Hz.

Crossfire systeem in actie (close-up)

Volgens The Inquirer zal deze beperking ook blijven gelden voor de nieuwe videokaarten gebaseerd op de R520-GPU die ATi binnenkort op de markt zal brengen. Volgens TechSpot is het echter niet helemaal uitgesloten dat hogere resoluties mogelijk zijn, omdat de beperkte kloksnelheid van de chip veroorzaakt zou worden door de kabellengte van een meter waarvoor de chip is gespecificeerd. De kabel tussen twee Crossfire-videokaarten zal echter een stuk korter zijn dan een meter. Het blijft onduidelijk wat de precieze beperkingen zijn van de Crossfire-techniek totdat de techniek officieel beschikbaar is. Het lijkt echter onwaarschijnlijk dat ATi hoge resoluties onmogelijk zal maken wanneer Crossfire gebruikt wordt aldus TechSpot.

Moderatie-faq Wijzig weergave

Reacties (108)

Niet helemaal waar.

@60 Hz is de max resolutie 1600x1200
@52 Hz is de max 1920x1200.

Zie link (incl screenshots):
http://www.theinquirer.net/?article=26228
gelukkig maar, stel je voor dat je net zo'n mooie DELL FPW2405 hebt gekocht en van plan was voor een crossfire opstelling te gaan (als je nog geld over zou hebben na het kopen van die monitor)...
dat is dan lekker stom van ze. Een dual opstelling koop je niet om daarna 640x480 te gaan draaien, die koop je om zo hoog mogelijk te draaien met zoveel mogelijk details. 1600x1200 vind ik eerder het minimum, en dan op 75 hz (mijn monitor gaat tot 2048x1536).

op hieronder: net als wat jij doet noemde ik een (extreem) voorbeeld, hier om mijn argument te versterken
Jouw monitor kan een 2048X1536 SIGNAAL verwerken.
Maar jouw monitor kan dat signaal niet daadwerkelijk AFBEELDEN, want daarvoor heeft je monitor niet voldoende beeldpunten.

Laten we hier maar eens een poll doen op welke resolutie mensen daadwerkelijk hun spellen spelen. Ik durf te wedden dat 1024*768 en 1280*1024 evt met AA gebruikt worden door 95% van de mensen.
(Als ze tenminste eerlijk antwoord geven)

Zou dus best kunnen dat ATI daarom deze beperking voor de X8xx Crossfire editie acceptabel vond.
Voor de R520 serie gaat al zeer lang het gerucht dat die geen externe kabel heeft. En dus zeer waarschijnlijk die beperking niet.
ik draai hier met mijn net nieuw videokaart dus echt wel 1600*1200@75hz + AA&AF en dat zal ik ook zeker blijven doen zolang mijn videokaart dat aankan. mocht t niet meer willen dan is het een ander verhaal. Maar je koop een sli/crossfire setup gewoon niet on minder dan 1600*1200 te gaan draaien , want dan heb je nu nog meer dan genoeg aan een gf7800GT.

Ik den k dus dat ati een hele grote misser te pakken heeft mocht dit waar zijn. Want het maakt je setup bijna waardeloos tenzij je een 1600*1200 tft hebt, maar vaak is het of veel lager of behoorlijk wat hoger. dua dan haal je er nooit alles uit. En op een crt is 60 hz gewoon weg zwaar irritant.
Die flauwekul kennen we inmiddels wel, misschien merk je het in windows, maar in een spel ziet het er gewoon strakker als strak uit en het verschil met 1600*1200 is ERG goed te zien. Bovendien zouden de echte grote CRT's het wel gewoon kunnen weergeven. Maar ook op mijn kleinere schermen, ziet het er gewoon erg strak uit, en is het de idiale res om games op te spelen.
Je kunt dmv dot pitch en exacte lengte x breedte uitrekenen hoeveel pixels je monitor heeft. Ik heb bijv. een Eizo T965 21":
Active Display Size: 400 mm (H) x298 mm (V)
dotpitch 0.24 mm
pixels x = 400 mm / 0.24 mm = 1666.67 pixels (ongeveer)
pixels y = 298 mm / 0.24 mm = 1241.67 pixels

Ook dit moet met een korrel zout genomen worden, want de dotpitch is niet over het hele masker hetzelfde. Bovendien zorgt een imperfecte geometrie van een analoge monitor altijd voor de nodige afwijkingen in kleurbundeling (divergence), skew, trapezoid enz. voor een iets vager beeld dan een TFT equivalent. En het feit dat analoge video nooit pixels exact op de beeldpunten van een crt monitor kan krijgen zul je nooit een super scherp beeld kunnen krijgen. Kijk maar 's in je winamp lijst van nummers (meestal groen) let op verticale lijnen van de tekst. Sleep t windowtje en je kunt duidelijk zien dat ie soms 1 pixel breed is en soms 2 pixels maar dan iets minder fel. Als de digitale pixel net tussen 2 beeldpunten in valt lichten de 2 beeldpunten op.
Dus ik denk dat hoge resoluties alleen scherp op een TFT met een native hoge resolutie kan worden weergegeven. Het blur effect van een analoge monitor kan ook als een soort antialias gebruikt worden.
Overlapping van pixels is zeker geen flauwekul, als je een hogere resolutie instelt dan je beeldscherm daadwerkelijk aan pixels heeft gebeurt dat; onder alle omstandigheden!

Dat jij dat als mooi ervaart, is jouw mening. Zelf ben ik er zeker niet van gecharmeert. Windows én spellen zien er waziger uit, dat kan ook niet anders. Overlappende pixels kunnen gewoonweg niet strak en scherp op je scherm getovert worden. Je verliest beeldinformatie, punt.
Wazig? Vanaf 19" kunnen de meeste monitoren het geloof ik wel echt weergeven, dus dan houden we alleen maar 17" over, heb je enig idee hoe klein pixels worden als je 2048*1536 op een 17" doet? Van wazig kun je zonder gebruik van een vergroot glas echt niet spreken.
Je hebt volkomen gelijk, maar dat blur-effect zorgt juist er juist voor dat een CRT veel mooier beeld weergeeft in mijn ogen dan een TFT: bewerk eens een afbeelding in Photoshop waar je tekst hebt staan met een gegradueerde schaduw ofzo dan meer je het wel. Een tft zal dan dat grijs echt in duidelijk zichtbare vierkantjes met verschillende kleuren weergeven omdat de pixels zo goed afgelijnd zijn; een CRT is minder goed afgelijnd wat de pixels betreft dus heb je een mooie gelijkmatige gradiënt bij je letters.

Het is dus eerder een voordeel van CRT dat het niet perfect scherp is, omdat je bij TFT enkel bij perfect op de pixels afgestemde afbeeldingen (rechte lijnen die perfect horizontaal/verticaal lopen bijvoorbeeld) een resultaat krijgt dat er goed(=geloofwaardig, zonder aliassing eigenlijk) uitziet. Dat vind ikzelf nog het grootste nadeel van TFT, daarom nog steeds CRT hierzo :-)
Pixels lijken kleiner te worden als je een te hoge resolutie instelt op een te klein beeldoppervlak, in feite zie je helemaal geen complete pixels meer, maar overlappende pixels. Dat bedoel ik met wazig, het beeld word meer geblured.

Maar goed, je haalt lijkt me dingen door elkaar heen.
Je kan idd heel goed 1600x1200 weergeven op een 17inch scherm bijv. ; dat klopt. Alleen is het dan wel zo dat je in dat geval niet 100% van de pixels ziet op je scherm, de pixels (uit je videossignaal) gaan elkaar overlappen op je scherm (hardwarematig 1600x1200 pixels compleet weergeven kan niet op een 17inch scherm, die effectief maar max. zo'n 1152x864 echte, complete beeldpunten kan weergeven) 1 pixel = 3 subpixels (blauw,geel en rood).

Afijn, lastig uit teleggen daarom een simpel voorbeeld:

Elke streepje is een pixel op je scherm:
Stel je beeldscherm kan technisch gezien 20 pixels compleet weergeven horizontaal: Nu stel je je desktop in op 30 pixels Horizontaal, wat denk je dat er gebeurt?
Juist, de elektronica van je scherm vertaalt die 30 pixels naar 20 op je scherm; overlapping dus. Geloof je nog steeds dat je beeld er scherper op wordt ?

- - - - - - - - - - - - - - - - - - - - (effectief beeld= 20 pixels)
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - (signaal = 30 pixels)
-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.- (overlapping zorgt ervoor dat alles binnen die 20 pixels "past", maar je ziet dus niet het complete 30 pixel signaal, je ziet maar 66% van de informatie)

De kreet "hoe hoger de resolutie, hoe scherper het beeld" is dan ook niet volledig; er zou erbij vertelt moeten worden: afhankelijk van de grootte van uw beeldschermoppervlak én de grootte van de Dots.

1152x864 ziet er op mijn 17inch Eizo (crt) het best uit, hoger vertaalt zich in nog kleiner, maar zeker niet scherper.
en dat baseer je op..? ik krijg dan gewoon beeld en scherp ook hoor...

Met een poll-uitkomst zou je best eens in de buurt kunnen zitten, omdat men niet altijd de nieuwste pc + sli/crossfire opstelling heeft. Ik game nu ook op 1024x768, simpelweg omdat mijn videokaart niet toereikend is op hogere resoluties. Als ik een sli/crossfire opstelling koop (met dus 2 kaarten die een STUK nieuwer zijn dan mijn ti4200) verwacht ik toch minstens dat ik 1600x1200@75hz kan draaien met alle opties vol open, wat in de meeste benchmarks ook geen probleem blijkt.
@ dataghost:
Zoals bekend hebben alle TFT-monitoren een vaste resolutie waarop het beeld optimaal is. Een hogere resolutie is niet mogelijk, een lagere resolutie betekent dat de af te beelden pixels verdeeld worden over verschillende vaste beeldpunten op je TFT-scherm. Dit geeft een waziger beeld en is één van de nadelen van een plat scherm.

Veel minder bekend is dat CRT's dit probleem ook hebben, alleen is het bij CRT's veel minder zichtbaar. In de specs van je CRT staat een 'dot-pitch' opgegeven, dat is de afstand tussen de beeldlijnen in het masker van je CRT.
Bij mijn Iiyama VMP450 is die dot-pitch 0.25mm op het midden van het scherm en 0.27mm aan de randen. Bij een schermbreedte van 15.2" (De diagonaal is 19") oftewel 38.6cm betekent dat dat mijn monitor het liefst een resolutie weergeeft met (386mm / gemiddeld 0.26mm) 1485 beeldpunten in de breedte. Dat zou neerkomen op een resolutie van ongeveer 1400*1050. Alles daarboven en daaronder is dus minder scherp, omdat, net als bij een TFT, de pixels verdeeld worden over de beeldpunten.

Ondertussen doe ik alles gewoon naar volle tevredenheid op 1024*786.
Jouw monitor kan een 2048X1536 SIGNAAL verwerken.
Maar jouw monitor kan dat signaal niet daadwerkelijk AFBEELDEN, want daarvoor heeft je monitor niet voldoende beeldpunten.
En jij weet wat voor monitor hij heeft?
Ik weet dat de kans ONTZETTEND klein is dat hij een van die zeer ZELDZAME 22" monitoren heeft, die daadwerkelijk een zo'n kleine dotpitch hebben dat ze 2048*1536 kunnen afbeelden.

Daarom durf ik zo rustig te stellen dat zijn monitor het niet kan. (En eigenlijk zat ik op een verontwaardigde reactie te wachten waarin ie zijn type noemde, waarop ik dan even zou voorrekenen dat die monitor het niet haalt }>)


Kijk bv maar eens naar het rekensommetje van imqqmi hioerboven. Een .24mm dotpitch geeft op een Eizo 21" een resolutie van 1600*1200.
Dan hoef ik neem ik aan niet meer voor te rekeken dat de Iiyama Pro 514 van 22" die ook een .24 mm dotpitch nooit en te nimmer die 2048*1536 in z'n specs ooit kan halen? (meest populaire 2048*1536 monitor hier)

Het is bepaald niet de eerste keer dat dit op tweakers te sprake komt. In al die andere keren heeft nog niemand ooit een monitor genoemd die daadwerkelijk de benodigde dotpitch heeft.
Gewone 21" trinitron schermen kunnen prima 2048x1536 60Hz weergeven. De dotpitch maakt daarbij geen zak uit. Dat maakt alleen maar uit voor de scherpte van het uiteindelijke beeld. Een dotpitch van .24 is daarbij ook wel genoeg om het beeld leesbaar te houden. Maar jah het gaat hier niet om een windows desktop omgeving, maar om het spelen van spelletjes (ivm Crossfire opstelling), en daarbij is scherpte die noodzakelijk is om hele kleine lettertjes nog leesbaar te houden niet eens zo belangrijk. Overigens doet mijn monitor nog 72Hz op 2048x1536, ik vind dit geen uitzondering tegenwoordig, zeker niet nu er 100'en van dit soort monitoren voor een prikkie worden verkocht.
Hoe kun je nou in godsnaam zulke onzin posten terwijl het hierboven al zo uitgebreid is uitgelegd?

Dotpitch bepaald hoeveel pixels er daadwerkelijk afgebeeld kunnen worden.
Als je scherm maximaal 1600*1200 pixels daadwerkelijk kan afbeelden, dan kun je daar onmogelijk een 2048*1536 plaatje in afbeelden.

Vertel me eens welk gedeelte daarvan je niet begrijpt?

Nogmaals, je scherm verwerkt dan dus een 2048*1536 signaal, maar beeld het af in 1600*1200 pixels.
En dan kun je dus net zo goed ook maar meteen een resolutie van 1600*1200 pixels in je spel instellen.
Een dual opstelling koop je niet om daarna 640x480 te gaan draaien, die koop je om zo hoog mogelijk te draaien met zoveel mogelijk details.
Waar staat er dat er dan meteen in 640x480 gespeeld moet worden? 1280x1024 bestaat ook nog hoor om maar een voorbeeld te noemen.
ALS dit waar is , dan blijkt het nogmaals dat Ati op dit moment onder druk staat , en halsoverkop een SLI tegenpool heeft willen bouwen. Met de TFT's nu is die beperking uiteraard niet zichtbaar. Maar alle gamers met een goede 17" of groter model van CRT , die willen toch hogere refresh rates in de hogere resoluties , anders word je scheel van het flikkeren...

:'(
ATI heeft al JAREN lang ervaring met multi GPU upstellingen
ze leveren het al jaren voor het legen voor in simulators.
en daar maken ze gebruik van 24 of meer GPU's tegelijk.
2 gpu's samen laten werken voor de consument zou een schijntje moeten zijn.

hebben ze er eigenlijk wel bij stil gestaan dat de slave kaart maar de helft van het beeld maakt?

verder is crossfire nog niet uit, en zou er dus op de masterkaarten een andere chip kunnen komen voor hij word uitgebracht.
schrijf ze dus nog maar niet af.
Dat zijn GPU's op een plank, die ze lekker zelf in mekaar hebben mogen zetten, en dat heeft weinig te maken met SLi zoals het er nu voor staat, meerdere GPU gebruiken is eigenlijk kinderspel, aangezien graphische berekening zo lekker makkelijk parallel te krijgen zijn, meerdere kaarten met meerde biossen op verschillende plaatsen in de computer met elkaar laten samen werken, dat is het moeilijke.

EDIT:

En dan snap ik ATi weer niet hoor, waarom niet op elke kaart zo'n chip zetten, better yet, waarom niet intergreren in een van de andere chips, zijn de meteen van het "crossfire kaart" systeem af.
24 of meer gpu's op 1 plank?
umm nee.
het gaat hier om de 'gewoone' consumenten gpu's maar dan voor het leger
ze maakte system iniedergeval systemen met de 8000 serie en met de 9700 serie gpu's.

ok, de kaarten waren speciale kaarten gezeten op speciale moederborden ect. maar zo veel anders is het toch ook allemaal weer niet. wel allemaal losse kaarten met elkaar verbonden.
zelfde de schaakbord render methode voor crossfire is gebazeerd op de techniek die ze voor het leger gebruikte.
AGP is geen parallel inzetbare bus, PCI is te langzaam, meerdere kaarten kan dus niet het geval zijn geweest, ik dacht ook destijds te hebben begrepen dat het om een hele grote plank vol GPU's ging.

Het anders eraan is bijvoorbeeld het samen laten werken van 2 biossen, zorgen dat de drivers begrijpen waar ze mee bezig zijn.
wie zegt er dat je maar 1 northbridge per mobo kunt hebben?
en 1 agp slot is ook echt te langzaam voor 24 gpu's.
(verder kan agp 8'x wel opgesplits worden in 2 poorten alleen is daar nooit gebruik van gemaakt)
Daarom begin ik mijn zin toch ook met "ALS" ?

En als het dan waar is , dan mag Ati van mij 100 jaar ervaring hebben met multi gpu's. Deze crossfire blijft dan een overhaaste beslissing.
Ik even blij dat ik niet gewacht op de R520.

Ik heb nu een 7800 GTX en in combinatie met een dell 2405FPW heb je dus echt 1920*1200 nodig.

Juist in die hoge resoluties word het pas interessant om SLI of Crossfire te gaan draaien. Over niet te lange tijd zal ik er waarschijn nog wel een 7800 GTX bij prikken.
Inderdaad, voor mij geldt exact hetzelfde. Persoonlijk moet ik echter zeggen dat de spellen die ik gespeeld heb perfect draaien op 1920x1200 (als ze widescreen ondersteunen) en ik niet eens de behoefte heb om er nog een GTX naast te zetten (al zou het geld geen rol spelen). Dus ik kan me echt niet voorstellen dat mensen een crossfire opstelling zouden willen voor resoluties minder dan 1600x1200.
Ik moet zeggen, wat ik de laatste tijd van ati hoor vind ik geen fijn nieuws... Ik hoop dat ze nog met wat positieve verrassingen komen want het zou niet goed zijn als nvidia weer veel sterker komt te staan dan ze nu al staan.
zoals ik het zie komen de meeste 21" TFT's er niet bovenuit wat resolutie betreft. Dus voor mij en velen met mij geen probleem.
Toch heb ik de neiging om te zeggen laten we maar lekker wachten tot we echt kunnen zien wat de ATI's kunnen en wat de Nvidia kaarten kunnen;-)
Dan heb je ook verrekte weinig aan Crossfire. Crossfire is bedoelt om high-res gamen om dure monitoren mogelijk te maken.
[offtopic]
tweakers.net:
[quote]
...het signaal van de slave-kaart met een maximale kloksnelheid van 165MHz. Een kleine berekening maakt al snel duidelijk dat deze kloksnelheid een bandbreedte oplevert die net voldoende is voor de eerder genoemde resolutie van 1600x1200 bij 60Hz.
[/quote]
en
theinquirer.net:
[quote]
It turns out that this chip works at 165MHz and if you do some very complex maths you can find out that this chip can support 1600x1200 resolution at maximal 60 Hz.
[/quote]
wat een mooie vertaling...
maar weet iemand hoe je dat uit kan rekenen, ff zoeken op google/wikipedia leverde geen resultaat op.
(ik bedoel dus, hoe kom je met 165MHZ en 1600x1200, naar 60hz..)
maar weet iemand hoe je dat uit kan rekenen, ff zoeken op google/wikipedia leverde geen resultaat op.
1600 x 1200 x 24 x 60 = 2,8 gbit/s.
Dan moet je nog weten hoeveel bit/mhz DVI kan versturen.

2,8 gbit / 165 mhz = 16,8 bit/mhz.
tenzij je een CRT hebt.
tenzij je op HDTV kwaliteit een game wilt spelen.
tenzij je een mooie cinemaview van apple thuis hebt staan.
tenzij je een beamer hebt met hogere resolutie.
tenzij de concurrent hogere resultaten kan behalen.
tenzij je er (met de hoogste configuratie) 2x een videokaart
hebt gekocht ala 500 euro per stuk, en de resultaat veelste laag vindt.
tenzij...
Succes met de aanschaf van zo'n beamer, of heb je de lotto gewonnen? :P
Voor een mooie (2e handse) Barco 1209s of 808s (waarbij je met geluk ook wel 1080p uitkrijgt) hoef je niet de lotto te winnen. Het blijft natuurlijk wel veel geld 6k (als je geluk hebt) vs 2k-4k. Maar dat heb ik er eerder voor over (heb alleen geen plaats :( ) dan voor 2 van die Ati kaarten.
Het is projector! Beamer is een klote woord.
Als je een dik crossfire systeem koopt lukt die beamer wel
Hoeft niet eens een Cinemaview te zijn. Er zijn genoeg 24" breedbeeld LCD's te krijgen met een resolutie van 1920*1200. Deze kosten ongeveer net zoveel als twee van de duurste videokaarten bij elkaar, dus lijkt me inderdaad een vervelende beperking voor ATI.
mmm lijkt mij hoog zat. ik zie er geen probleem in.
Deze prullaria kan de native resolutie van mijn TFT niet aan. Voor jou vast hoog zat, voor mij niet.

Dit is pruts. Op een CRT is 60Hz te weinig, dus moet je naar iets richting de 1280*960. Voor veel mensen is 75Hz en zelfs 85Hz ook te weinig, dus moet je naar 1024*768.

Wat de neuk is het nut van SLI/Crossfire op 1024*768, of zelfs op 1280*960? Deze technieken zijn er _juist_ voor de hoge resoluties.

Andere doelgroep : TFT. Echter, Crossfire kan de native resolutie van mijn 2405FPW niet eens aan. De resolutie van een 17/19" is te laag om iets aan crossfire te hebben. 20" schermen zijn vaak te traag.

Kortom : de gehele doelgroep van Crossfire bestaat uit mensen die dit scherm gaan kopen.

Goede business, ATi.
De reden waarom ATI een kabel moet gebruiken, is omdat ze toch op een bepaalde manier de kaarten met elkaar moeten laten communiceren. Nvidia heeft dit ook door gebruik te maken van de SLI bridge. Het voordeel van Nvidia is gewoon dat hun moederborden als warme broodjes over de toonbank gaan en die van ATI niet. Ik bedoel bijna iedereen die op het S939 of S754 zit heeft een nVidia chipset erin zitten en een grootdeel daarvan heeft dan ook weer PCI-E met SLI ondersteuning. Om nu ervoor te zorgen dat gamers, die klaarblijkelijk verzot zijn op het nForce platform, nu ook gebruik kunnen maken van hun Crossfire, is met men deze oplossing gekomen. Ik denk dat nVidia het gewoon niet heeft toegestaan dat de kaarten van ATI ook van haar SLI systeem gebruik mochten maken.
en waar dienen dan die speciale crossfire-editie moederborden voor? :?
ummm
die worden door de crossfire drivers goed gekeurt en dus kunnen ze crossfire gebruikten.

alle andere pci-e mobo zouden dat ook kunnen, als de drivers ze zouden goed keuren.
Het voordeel van Nvidia is gewoon dat hun moederborden als warme broodjes over de toonbank gaan en die van ATI niet.
Laten we even de realiteit onder ogen zien: de reden waarom er sli moederborden verkocht worden is omdat ze overal te koop zijn en dit al bijna een heel jaar. Crossfire moederborden bestaan nog steeds niet en zijn dus ook niet te koop. Toch een belangrijk detail.
@Karimpje:

Dat is niet waar, een SLI bridge is niet nodig om SLI te draaien. Sinds de nieuwste drivers heb je heel die bridge niet nodig.
Gamen @ 60 Hz op een grote (19" of 21") CRT monitor is ECHT niet prettig. Krijg ik na 10 minuten al koppijn van. Wat je minimaal nodig hebt is 85 Hz wil je helemaal geen trillingen meer zien.
En dat is dus bij iedereen anders. Ik word ook gek bij 85Hz. 100hz is minimum, 120 is nog wat fijner. Er zijn ook weer zat gamers die bij 60hz nergens last van hebben. Het ligt er maar net aan :)
ben je wel een apart figuur ;) 60 hz is voor 95% vd bevolking voldoende die hebben geen last van trillingen, slechts 5% ziet hoger en heeft onder normale omstandigheden voldoende aan 85 hz. dat mensen minimaal 100 hz nodig hebben hoor ik dus eigenlijk nooit van :P daarom is 1600x1200@60hz ruim voldoende voor de meerderheid maar ik zou dan toch maar oppassen als ati zijnde 5% van je klanten ben je zowieso al kwijt en dan nog eens dat deel dat niet tevreden is met 1600x1200. beetje uit de tijd imo
60 hertz bij een lagere resolutie (1024 of lager) is idd voor de meeste geen probleem.
maar hoe hoger de resolutie word hoe meer de lage refresh gaat opvallen.
ik heb jaren lang een oude 17'' philips gehad met een max van 60 hertz en nergens last van gehad, maar met mijn nieuwe 22'' monitor op 1600x1200 moet ik echt 85hz hebben.
De ergonomische minimum verversingsfrequentie is 72Hz (geloof ik een Arbo-norm).

Zeker met grotere schermen (19" of 21"") is het verschil tussen 60Hz en 85Hz echt wel te merken!

Hmmm... blijkt wel wat moeilijk om bovenstaande bewering met een Google linkje te staven; maar toch nog iets gevonden (Tom's Hardware Guide):
Note that this rate of 75 Hz is not random, because it is the requisite minimum for a good image with no flickering.
bij 60Hz zie ik het beeld dus gewoon schudden, maakt niet uit hoe groot of klein het beeld is

het is ook maar net wat je gewend bent, ik heb m'n monitor altijd op 100Hz bij een resolutie van 1024x768

en het ligt ook aan de dotpitch, bij mij heb ik beter beeld dan bij m'n broer (1600x1200 @ 100Hz) daar is het beeld erg grof, en de pixels lijken wel 2x zo groot

maar als je geen buget serie hebt, is er meestal best naar te kijken
Het heeft niets met de resolutie te maken.

Het heeft te maken met de grootte van het scherm (de buitenkant van je oog is er gevoeliger voor, en met een groter scherm zit je meestal onder een grotere hoek te kijken) en daarnaast heeft het te maken met de nagloeitijd van je scherm.

Als je scherm langer nagloeit, dan zie je het minder flikkeren en heb je minder snel last. Vandaar dat je er bij oudere schermen over het algemeen een stuk minder last van had.

Vandaar is 72Hz het minimum voor 15".
75Hz wordt aangeraden tot 17", en naar 19" en 21" gaat dat omhoog naar 85Hz.
Het ligt er maar net aan
Ja, maar dan vooral aan de combinatie monitor - refresh rate en niet alleen aan de refresh rate volgens mij. Een monitor die gebouwd is voor hoge refresh rates zal het bij lagere slechter doen dan een die voor de lagere rates is gebouwd.
Het ligt er inderdaad maar net aan, TFT's hebben vanzich altijd al een erg soepel beeld, CTR's hebben verle hogere refreshrates nodig om even soepel te zijn, maar kunnen er wel bovenuit. Zo zijn er van die spellen die met 142FPS en 150Hz uber-smooth gaan, jammer dat de meeste gamers dit nooit zullen uitproberen.
Maar als de crossfire de grafische gegevens op 60Hz van kaart naar kaart kan sturen, betekent dat dat je niet meer dan 60x per seconde een nieuw beeld hebt. Dat het oude ververst kan worden staat daar los van.

Lijkt mij dan ook een goede kans dat je best op 100Hz kan spelen, krijg je alleen maar in 60% van de refreshes een ander plaatje te zien (mogelijk dus wel wat minder vloeiend, maar dan speel je toch op 120 Hz :))
Je koopt nu 2 kaarten om een lekker hoge fps te hebben op hoge resoluties.. maar wat heb je er aan als je maar tot 1600x1200 @ 60 hertz kunt, een moderne kaart kan alleen ook wel 60fps halen op 1600x1200, alleen met een hogere refresh (meer fps zichtbaar + minder knipperend beeld op een CRT)
Een kleine berekening maakt al snel duidelijk dat deze kloksnelheid een bandbreedte oplevert die net voldoende is voor de eerder genoemde resolutie van 1600x1200 bij 60Hz.
Maar slechts (ongeveer) de helft van het beeld hoeft over die kabel toch? De andere helft 'zit' al in de master kaart.
Het beeld wordt in blokjes, vergelijkbaar met een dambord verstuurd. Donker met het plaatje, wit als "blank". Kortom, de gebruikte bandbreedte is van een volledig beeld.
Crossfire kan op meerdere manieren het beeld berekenen en samenvoegen, wat jij noemt is er maar eentje.
Deze site lijkt het me je eens te zijn

http://www.penstarsys.com/#xfire_sil

Ik kon me al zowat niet voorstellen dat ATi zo'n fout zou maken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True