Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 71 reacties

Op donderdag 11 maart zou AMD zijn ATI Radeon HD 5870 Eyefinity 6 Edition uitbrengen. De fabrikant heeft de release echter om onbekende redenen uitgesteld. Vermoedelijk komt de kaart nu omstreeks eind maart beschikbaar.

Misschien is de introductie uitgesteld omdat AMD meer tijd nodig heeft voor het optimaliseren van de drivers. Het is echter ook denkbaar dat de fabrikant de release met opzet laat samenvallen met de introductie van Nvidia's GTX470- en GTX480-kaarten, eind deze maand. De twee kemphanen op de markt voor videokaarten hebben vaker geprobeerd elkaar zo de loef af te steken.

De ATI Radeon HD 5870 Eyefinity 6 Edition is een speciale versie van de HD 5870 die is uitgerust met zes mini-displayportuitgangen, waarmee de kaart dus op zes monitoren kan worden aangesloten. AMD levert overigens ook adapters voor twee reguliere displayport-, twee dvi- en twee hdmi-aansluitingen mee.

Een andere wijziging ten opzichte van de originele HD 5870 is de aanwezigheid van 2GB in plaats van 1GB gddr5-geheugen. Dit moet de kaart beter in staat stellen om de zes schermen continu van beeld te voorzien. De kaart zou in Eyefinity-modus op elk van de zes schermen maximaal 2560x1600 pixels kunnen vertonen, maar speelbare framerates haalt de speciale HD 5870 waarschijnlijk alleen bij 1920x1080 beeldpunten per scherm. Ook claimt AMD dat het model met 2GB bij opstellingen met drie monitoren aanzienlijk beter presteert dan HD 5870-kaarten met 1GB.

De overige specificaties zijn identiek aan die van de HD 5870, maar vanwege het extra geheugen ligt de tdp met 228W wel wat hoger dan de 188W van de originele kaart. De prijs en precieze verschijningsdatum heeft AMD nog niet bekendgemaakt.

AMD Radeon HD 5870 Eyefinition 6 Edition slidesAMD Radeon HD 5870 Eyefinition 6 Edition slidesAMD Radeon HD 5870 Eyefinition 6 Edition slidesAMD Radeon HD 5870 Eyefinition 6 Edition slidesAMD Radeon HD 5870 Eyefinition 6 Edition slidesAMD Radeon HD 5870 Eyefinition 6 Edition slidesAMD Radeon HD 5870 Eyefinition 6 Edition slides

Moderatie-faq Wijzig weergave

Reacties (71)

Er is al een eerste test op Bit-Tech.net.

Hun conclusie:
Het is een hele leuke beleving, maar vanwege de dikte van de bezel van huidige schermen is het in een aantal spellen nog onbruikbaar, hoewel de framerate (geen exacte gegevens) prima is. Het wachten is op schermen met dunnere of geen bezels. (rand)

Dit ziet er ook wel erg leuk uit, maar waren dat geen schermen die Nvidia uit had gebracht? :P

EDIT: Nee het zijn monitoren van Alienware. 8)7

[Reactie gewijzigd door F_demon op 11 maart 2010 18:09]

Het is jammer dat die schermen rear-projection zijn, het lijkt me veel cooler als ze die superplat maken met tegenwoordig in overvloede aanwezige buigbare schermtechnologie.
de responce rate van alle buigbare schermen is nog veel te laat voor dit soort high-end game toepassingen.
Bij 6 schermen is de bezel wel een probleem...

Maar bij 3 schermen in portrait stand lijkt me dat veel minder een probleem.... Je midden is dan namelijk zonder bezel. De twee verticale lijnen lijken dan op de spijlen van een deur o.i.d.
Vind het spijtig dat Alienware niet met deze schermpjes op de markt komt :(
Is gewoon superzalig , zit er eigenlijk al 2 jaar op te wachten :x
Die schermpjes zijn niet van Alienware, maar van Ostendo en zijn gewoon te koop, mits je er $6499 per stuk voor over hebt.
lijkt me niet, aangezien er een groot ATI logo boven hangt. ;)
De ATI Radeon HD 5870 Eyefinity 6 Edition is een speciale versie van de HD 5870 die is uitgerust met zes mini-displayport-uitgangen, waarmee de kaart dus op zes monitoren kan worden aangesloten.
Waarom eigenlijk display port?

Ik heb genoeg aan DVI en HDMI.

Dat het gepushed wordt begrijp ik wel. Er zit namelijk een mogelijkheid van DRM in.

Die beter is dan de HDCP die voor DVI en HDMI gebruikt word.

Tevens zijn de signalen niet compatibel met DVI en HDMI, terwijl deze wel compatibele zijn. Waardoor je dure converters moet kopen om zo'n kaart of notebook aan een TV te hangen met een HDMI of DVI connector.
displayport is royalty vrij, hdmi absolute niet.
hdmi is ook nooit voor computers bedoeld eigenlijk. het was een vervanging voor scart.

[Reactie gewijzigd door Countess op 12 maart 2010 07:13]

Het feit is dat op monitors nu HDMI en DVI zit. Op TV's idem.

TV en Computer zijn dichter dan ooit naar elkaar begroeit dan vind ik dat je ook een compatibel poort moet gebruiken en geen incompatibel.

Wat heeft het displayport voor ons consumenten als voordeel?
De converters zijn sowieso duurder dan een DVI hdmi converter omdat er sowieso een convertor chip in moet terwijl een DVI naar/van hdmi alleen een andere connector en bedrading heeft.

En het overgrote deel van de monitors ondersteund geen displayport maar wel hdmi en DVI.
displayport is royalty vrij, hdmi absolute niet.
De converters zijn veel duurder daar kan het royalty free zijn niet eens tegenop. (Of gooi je je LCD monitor en TV nu weg, omdat display port gebruikt wordt?)

Voor de prijs van de royalty zie
DisplayPort is currently royalty free, while the HDMI royalty is 4 cents per device and has an annual fee of $10,000 for high volume manufacturers.
$ 0.04 of een maximum van $10.000, dat is erg weinig. Net zoveel dan de toekomstige prijs van een bd-video en bd-rom.

nieuws: Vier bedrijven starten licentieprogramma voor blu-ray

Kortom het royalty verhaal weegt niet op tegen het ongemak van de consument.

Hopelijk gaat de EU zich hier ook mee bemoeien net als het verhaal van de lader connectors van de mobile telefoons.
nieuws: Toestelfabrikanten: telefoons krijgen micro-usb voor universele lader

[Reactie gewijzigd door worldcitizen op 12 maart 2010 10:37]

Verdiep je eens wat dieper in Displayport dan wat er voor je neus ligt.

Natuurlijk is DVI en HDMI nu meer ondersteund, ze bestaan al langer. Een standaard moet ergens beginnen.
Natuurlijk zijn convertors duurder, hoeveel worden er momenteel verkocht? Naarmate displayport aan populariteit wint zullen alle onderdelen goedkoper worden. (inclusief de schermen via massaproductie)

Licentiekosten zijn niet de enige kosten die HDMI veroorzaken. Kijk eens naar wat er van apparatuur nodig is voor HDMI. Displayport is op een goedkopere en simpelere manier te integreren in de hardware (input en output).
Displayport wordt ook gebruikt in laptops om het scherm van de laptop aan te sturen. En waarom? Omdat de implementatie goedkoper is en de laptop dunner maakt. HDMI heeft hier helemaal niets mee te maken. LINK

En je vergelijking met lader connectors voor mobiele telefoons gaat helemaal niet op. Een lader is iets heel simpels en er bestaan misschien 10 merken met elk een verschillende oplader en bij nieuwe telefoons zit er dan nog eens van hetzelfde merk opnieuw een nieuwe aansluiting. Hoeveel soorten opladers zouden er niet bestaan?

Edit: Na verder onderzoek is het blijkbaar ook niet mogelijk om 6x HMDI aan te sluiten op de eyefinity (door de "TMDS coding chips"). De enigste oplossing om 6 outputs te hebben was dus displayport. En om plaats te besparen (dus om het bovenste deel van de achterkant van de kaart als exhaust te gebruiken) werd dan mini-displayport gebruikt.
De prijs van de connectoren is al aan het zakken. AMD geeft ook al 5 connectoren mee met de kaart, dus veel zullen ze ook niet kosten.

[Reactie gewijzigd door penetreerbeer op 12 maart 2010 12:04]

Displayport wordt ook gebruikt in laptops om het scherm van de laptop aan te sturen. En waarom? Omdat de implementatie goedkoper is en de laptop dunner maakt. HDMI heeft hier helemaal niets mee te maken.
Ook alle informatie van je link geven:
nieuws: Onderzoekers: displayport vooral succesvol in mobiele systemen
en losse monitor met een displayport-interface heeft echter extra elektronica nodig om ook de beelden van vga-, hdmi- en dvi-interfaces te kunnen blijven tonen, waardoor de kostprijs van een display stijgt.
Dus displayport zo ideaal?

Zie ook uit de link:
Displayport maakt het voor hardwarefabrikanten mogelijk om de scaler-chip achterwege te laten, waardoor de gpu of cpu zonder tussenkomst van deze beeldverwerkingschip zijn beelden naar een beeldscherm kan sturen.
Als je geen scaler chip nodig hebt zal de GPU de taak op zich moeten nemen. Want je zult de pixels goed moeten laten landen. Een 600*1024 zal niet goed weergeven worden op een 800*1280 scherm zonder scaling. Ik krijg hier een winmodem gevoel bij. Je laat de CPU/GPU extra werk doen. Wat de notebook net weer onzuiniger maakt dan een scaler.
Displayport wordt ook gebruikt in laptops om het scherm van de laptop aan te sturen. En waarom?
Volgens mij ondersteunen pas de laatste varianten van mobile chips pas displayport.
Dat je displayport intern in een notebook gebruikt en het daar mogelijk voordelen zou hebben, zou IMO niet rechtvaardigen om dit extern te gebruiken. Zeker gezien de extra kosten, uit je link.
En je vergelijking met lader connectors voor mobiele telefoons gaat helemaal niet op. Een lader is iets heel simpels en er bestaan misschien 10 merken met elk een verschillende oplader en bij nieuwe telefoons zit er dan nog eens van hetzelfde merk opnieuw een nieuwe aansluiting. Hoeveel soorten opladers zouden er niet bestaan?
Dat is jouw mening.

Via displayport worden consumenten op extra kosten terwijl he geen zinvolle extra functionaliteit bied, zeker niet extern.
Het niet een overgang vergelijkbaar met VGA naar DVI/hdmi wat heel veel voordelen had, display port heeft voor de consument 0 voordelen alleen maar nadelen.

[Reactie gewijzigd door worldcitizen op 12 maart 2010 12:29]

(gebruik trouwens eens echte zinnen, de meest van je zinnen zijn moeilijk te lezen wegens het achterwege laten van je werkwoord of moeten we dit er zelf bij fantaseren?)

Zoals ik dus al zei: Kijk eens verder dan je neus lang is.

Hier een interessant artikeltje van de (echte) voordelen van displayport.
Hier wordt zelfs al over de chip gesproken. Volgens hen heeft 45nm een maximale spanning van 2.5V. De TMDS chip die moet gebruikt worden voor DVI en HDMI heeft een spanning nodig van 3.6V tot 5.25V. Dus de TMDS chip kan niet in de grafische chip ingebouwd worden. Displayport daarentegen wel want die heeft maar een spanning nodig van 2V.
Ook een belangrijke reden waarom AMD, Intel en Nvidia deze standaard steunen.

En het feit dat een mobiele GPU exact dezelfde GPU is die in een desktop gebruikt wordt is niet belangrijk? Als een GPU kan ontworpen worden zonder VGA en DVI kunnen er kosten bespaard worden. Dat is extra brol die eruit gesloopt kan worden. Displayport implementatie op zich is goedkoper dan dvi of hdmi (of vga).
Ik snap niet waar je je extra kosten vandaan haalt. Enkel de connectoren en hardware is nu nog iets duurder doordat er nog niet veel van verkocht worden. Wanneer de vraag stijgt en de massaproductie start zal automatisch de prijs zakken en het aanbod vergroten.
En het weglaten van de scaler chip brengt een besparing teweeg voor displayport-only schermen die er in de toekomst uitgebracht zullen worden. De diepte van het scherm zal ook verkleinen door het weglaten van overbodige hardware. Een lossen monitor "moet" VGA niet ondersteunen.

En de enigst redenen dat AMD voor de eyefinity 6 mini-displayports gebruikt is:
- Formaat van aansluitingen (Op een grafische kaart passen fysiek geen 6 DVI of 6 HDMI)
- Aantal mogelijke aansluitingen (De 5xxx chips hebben gewoon niet de mogelijkheid om 6 dvi of 6 hdmi aan te sturen, volgens mij een ontwerpfout van HDMI)

Normaal gezien kan je zelfs met één displayport uitgang 4 displays aansturen. Dus eigenlijk kan een eyefinity kaart 6x4=24 displayport schermen aansturen en kan een 58xx kaart 4 displayport schermen aansturen. Als dat geen voordeel is.
Hier wordt zelfs al over de chip gesproken. Volgens hen heeft 45nm een maximale spanning van 2.5V. De TMDS chip die moet gebruikt worden voor DVI en HDMI heeft een spanning nodig van 3.6V tot 5.25V. Dus de TMDS chip kan niet in de grafische chip ingebouwd worden.
Volgens mij doe je geen elektronica. Maar als ik naar buiten open collector /drain aansluitingen heb kan ik elke spanning bedienen ongeacht de interne spanning van het IC.

En je kunt een IC ook twee spanningen laten bedienen.

Dat heeft de Pentium bijvoorbeeld ook gedaan intern 3.3V extern 5V.
Gebeurt nog steeds voor de AMD en de Core i processoren. Core spanning ergens rond de 1 Volt Dram spanning rond de 1.5 Volt.
En het feit dat een mobiele GPU exact dezelfde GPU is die in een desktop gebruikt wordt is niet belangrijk?
Ja, daarom alleen DVI/hdmi ondersteunen, wat momenteel ook het geval is.
En het feit dat een mobiele GPU exact dezelfde GPU is die in een desktop gebruikt wordt is niet belangrijk? Als een GPU kan ontworpen worden zonder VGA en DVI kunnen er kosten bespaard worden.
Inderdaad als. Dit zal niet gebeuren hele hordes mensen hebben al DVI en/of hdmi en willen dit blijven gebruiken.
Ik snap niet waar je je extra kosten vandaan haalt. Enkel de connectoren en hardware is nu nog iets duurder doordat er nog niet veel van verkocht worden.
Extra kosten, omdat 99.9% van alle mensen met een monitor met digitale video ingang nu een monitor hebben met DVI en/of HDMI. Om dan een systeem met een display/poort aan te sluiten zullen ze extra kosten moeten maken.
De diepte van het scherm zal ook verkleinen door het weglaten van overbodige hardware.
Dat maakt in diepte helemaal niets uit. Deze scaller chip is waarschijnlijk al geïntegreerd met de andere elektronica. Als dat niet het geval is is deze niet dikker dan de chips die al nodig zijn. Een LCD scherm blijft sowieso een aanstuur chip nodig hebben met of zonder displayport.
En de enigst redenen dat AMD voor de eyefinity 6 mini-displayports gebruikt is:
- Formaat van aansluitingen (Op een grafische kaart passen fysiek geen 6 DVI of 6 HDMI)
Lijkt me sterk dat er niet 6 hdmi connectoren op passen. Als het al niet geval is kun je nog op de manier van Matrox een splitterkabel aanbieden.
- Aantal mogelijke aansluitingen (De 5xxx chips hebben gewoon niet de mogelijkheid om 6 dvi of 6 hdmi aan te sturen, volgens mij een ontwerpfout van HDMI)
Nee, geen designfout, gewoon een design keuze van AMD, in het ergste geval zou het betekenen dat de chip wat meer "pootjes" krijgt. (Qua rendering ed blijft de intern gelijk ongeacht of dvi of displayport gebruikt wordt, dit zijn alleen de externe interfaces).
Ik denk dat de keuze voor Apple's mini displayport vooral met ruimte aan de achterkant van de kaart te maken heeft.

Daarnaast heeft minidisplay wel hetzelfde signaal, converters naar VGA of DVI kosten echt zoveel niet.

[Reactie gewijzigd door Kura op 12 maart 2010 02:56]

Niet alleen de ruimte is de voornaamste reden. De 5000 serie is ontworpen om 6 verschillende beeldsignalen uit te sturen. En DVI gebruikt daar per aansluiting 2 signalen van. Displayport zou daar maar 1 van gebruiken. Zodus kunnen er 6 displayport aansluitingen bestaan, maar nooit 6 dvi aansluitingen.
Zodus kunnen er 6 displayport aansluitingen bestaan, maar nooit 6 dvi aansluitingen.
Maar wel 6 HDMI aansluitingen.
Nee dat is ook niet mogelijk.
De chip van AMD heeft twee "TMDS coding chips" die gebruikt worden om het signaal door te zenden (ik dacht dat dit een soort "klokgenerator" is). Dit signaal wordt gebruikt voor DVI en HDMI. Daardoor is het ook niet mogelijk om op een 5870 3 schermen aan te sluiten met 2xDVI en HDMI.
Displayport heeft zijn eigen "klokgenerator" waardoor er met de 6 displayport aansluitingen mogelijk zijn.
Daarnaast heeft minidisplay wel hetzelfde signaal,
Zie de wiki van display port:
Although DisplayPort's signal is not compatible with HDMI or DVI, it can transmit HDMI and DVI signals.
Ze kunnen HDMI en DVI signalen transporteren, dat wil zeggen dat dat altijd gedaan wordt.
onverters naar VGA of DVI kosten echt zoveel niet.
Om DVI of hdmi op mijn TV of monitor aan te sluiten heb ik helemaal geen converter nodig.

Een displayport naar dhmi converter kost geld.
Ben wel benieuwd naar de prijs hiervan

Aan de andere kant, de aanschaf van de schermen hiervoor zal waarschijnlijk iets hoger zijn dan die van de kaart zelf

Als je deze in Crossfire zet, kan je er dan ook meer aansluiten?
Ja, dat kan. Volgens dat andere nieuwsbericht hierover kan je met 4 videokaarten 24 beeldschermen aansluiten. :9
Ik meen me te herinneren dat ze een keer hawx op 24 schermen hadden gedemonstreerd, maar dit durf ik eigenlijk niet met zekerheid te zeggen.

Als dat klopt zou het in elk geval dus kunnen.
24 goeie beamers dan heb je nog groter beeld! :Y) :9
Ik vind dat eyefinity eerlijk gezegd voor gaming niet echt iets wat mij nou aanspreekt. Kost veel te veel geld, stroom en ruimte.
Misschien wat meer voor de die-hard gamer. Maar het lijkt mij niet handig dat je 6 beeldschermen hebt want dan heb je aan het einde van de dag ook spierpijn in je nek.

Verder is 228W wel erg veel voor alleen al een videokaart. Dan moet je ook nog eens voeding geven voor 6 monitoren.

EDIT: foutje ;)

[Reactie gewijzigd door BramBoos op 11 maart 2010 17:46]

Nou, ik zie hier zakelijk toch ook echt voordelen van, ik werk nu op 6 schermen, maar dan verdeeld over 3 machines. Nu wilde ik voor mijn volgende systeem al 2 machines vervangen door virtual machines, ik zat alleen nog met de videokaart, nu niet meer :)

Overigens, spierpijn valt best mee als je de monitoren in 2 lagen van 3 naast elkaar zet.
Wil jij monitoren via de pc van stroom voorzien? Lol succes ermee!
Ik kan me nog herinneren dat dit vroeger wel zo ging ;-)
Klopt maar ook weer niet, ja het snoer kwam uit de voeding, maar die levert het niet is niks anders als een verlengkabel tussen je monitor en een stopcontact ;) Een pc met 300 watt voeding en hardware die 290watt gebruikt zal gewoon een 60watt scherm er op kunnen dus ;) Dus met het vermogen van je voeding heeft het niks te maken.
En zoals vroeger met die ADC-connectoren van Apple. Heb nog altijd zo'n schermpje staan van 22 inch :P ... Stroom van de connector op de videokaart...
Gelukkig maakt AMD deze kaarten ook niet voor jouw.
er zullen genoeg mensen zijn die dit wel prachtig vinden, en er ook het geld voor over hebben
Top. Met zes miniport aansluitingen heb je tenminste geen actieve Displayport adapter meer nodig.
Die heb je wel nodig, er is alleen maar ondersteuning voor 2 niet-actieve schermen, vandaar ook dat er standaard maar setjes van 2 adapters worden bijgelevert.

Voor 6 schermen heb je dus minimaal 4 DisplayPort monitoren nodig, of actieve adapters als je tenminste een hoge resolutie wilt gebruiken.

Gamers doen er echter beter aan om EyeFinitity via CrossFireX te doen, omdat voor 5 of 6 schermen de GPU kracht van een HD5870 vaak te kort schiet.
De meegeleverde DVI dongels zijn single link, en kunnen dus maar gebruik worden tot een resolutie van 1920x1200.
Dus voor mensen met schermen die een resolutie van 1920x1200 hebben zijn passieve dongles dus voldoende.
Het probleem is echter dat mijn 30" 2560*1600 schermen geen displaypoort ondersteunen, hier moeten dus speciale kabels/dongels voor worden aangeschaft.
Er staat toch echt in het artikel:
AMD levert overigens ook adapters voor twee reguliere displayport-, twee dvi- en twee hdmi-aansluitingen mee.
Dus je hebt mazzel ;)
Dat zijn single link adapters, even goed op de plaatjes kijken joh!
ik gebruik nu sinds een tijdje eyefinity op een 5970 met 3x 22" en ik vindt het gamen gelijk weer leuker, vooral met race games echt geweldig, met fps zoals call of duty is het even wennen maar als je er eenmaal aan gewend bent wil je niet meer zonder..
Het levert je ook een oneerlijk voordeel op lijkt me als je een veel breder blikveld hebt bijvoorbeeld. Leuk als je zo'n setup hebt staan maar voor de andere spelers oneerlijk. Daarom leuk voor de pc maar voor de console lijkt het me minder geschikt.

[Reactie gewijzigd door alexvkan op 11 maart 2010 18:49]

Tja mijn pc is beter als menig andere gamers denk ik ;) dus ben ik ook vaak inhet voor/nadeel... en ik heb 1920*1200 denk dat de meeste nog op 1680*1050 of lager spelen (hoewel dat schuift toch wel hard naar 1080p de laatste tijd)..

Me reactie is ook sneller dan velen, is eigenlijk ook niet eerlijk ;)
Kracht van de pc maakt toch niet uit. Een gamer zet alle details op laagste dat er is als hij online gaat. Dan maakt een 5750 of 5970 niet meer uit bij de meeste games.
Egg nou ik game ook in multiplayer graag op hoge kwaliteit. Dingen die motion blur en stofparticles geven gaan uit maar voor de rest gewoon op het hoogst mogelijk. Wat heeft het anders voor zin nieuwe games te spelen. Lelijke games speel ik minder vaak zoizo
Idd, knetterhoge resolutie en groot scherm en daar dan met je neus op gaan zitten en alle bewegende pixels afschieten :) Zo zie je iedereen tenminste als eerste. Op een reso van 640x480 zie je iemand NET even later ;)
ssst... verleid me nou niet NOG meer geld uit te geven :P
Het lijkt mij waarschijnlijker dat ze wachten op de launch van de Nvidia kaartjes. De drivers zullen ze toch echt wel op orde hebben. Ik ben wel benieuwd naar de 1e 3dmark challenge tussen dit kaartje en de GTX480.
ik kan je de globale uitkomst al wel vertellen :
GTX480 gaat sneller zijn.
GTX480 gaat veel duurder zijn.
Wat ik mis bij de performance meeting is wat de rest van de settings zijn.

1920x1080 kan mij PC ook nog wel een paar keer, maar wat ik er de rest bij aan zet gaat de grootste slag leveren.

Verder wel mooi.

Wel vreemd is de performance increase met crossfire. Je kunt dan 3+3 renderen. Dan zou de performance increase toch makkelijk bijna 200% moeten kunnen zijn, terwijl het in veel gevallen nog niet eens de helft oplevert.

En ik vind het een beetje tricky om daad werkelijk te kunnen zien wat de stats zijn.

Op alle 3 de plaatjes zijn er andere spellen (of settings) gebruikt en alleen op de eerste staan framerates.
Niet overal staan de settings bij, maar bijvoorbeeld bij Crysis staat erachter Medium. In Crysis kun je kiezen uit bepaalde settings, de rest heeft 2xAA erbij of iets?

En hoezo is de performance increase met CF vreemd, het gaat niet alleen om de videokaart in de fps. In sommige gevallen halen ze 80% winst en in sommige 30%, verschil per game. Die ene game heeft misschien meer baat bij een snellere cpu dan die andere. Niks vreemds toch, en overall gezien hebben ze zo'n 45% increase; niet slecht toch?

En in plaatje 2 en 3 zijn percentages gebruikt om het verschil beter weer te geven, niks tricky aan..

Anyway, ik vind het een mooie kaart. Erg welkom onder de Flight Simulator fans gok ik zo.. :)

[Reactie gewijzigd door Freaky Maus op 11 maart 2010 18:05]

Afhankelijk van de prijs en wat Nvidia precies gaat doen met zijn GTX470- en GTX480-kaarten heb ik zeker interesse in dit kaartje, niet direct voor een EyeFinity met zes schermen, maar voor het aansturen van zes verschillende monitoren.
Vraag me af of er onder gamers een afzetmarkt is voor de Eyefinity.

Ik kijk vooral uit naar de release van de GTX 470 en GTX 480.
Zullen wel aardig prijzig zijn, voor mij onbetaalbaar maar hopelijk zorgt het voor concurrrentie. :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True