ATI Eyefinity kan zes beeldschermen aansturen met één videokaart

AMD heeft zijn technologie met de naam ATI Eyefinity onthuld. In combinatie met de juiste videokaart zorgt Eyefinity ervoor dat er zes beeldschermen met een maximale resolutie van 2560x1600 pixels aangestuurd worden.

AMD heeft bekendgemaakt dat het videokaarten gaat uitbrengen die maar liefst zes beeldschermen aan kunnen sturen, met een maximum resolutie van 2560x1600 beeldpunten. Daar moet echter een kanttekening bij gezet worden, want alleen een speciale editie kan straks daadwerkelijk zes beeldschermen aansturen, terwijl de doorsnee videokaarten er drie tegelijk van pixels kunnen voorzien. De videokaart in kwestie heeft zes mini-displayport uitgangen, zoals te zien is op foto's genomen tijdens het persevenement in de Verenigde Staten. Vier kaarten zijn in staat om maar liefst 24 beeldschermen tegelijk aan te sturen.

Displayport uitgangen 24 schermen

AMD hield bij een persevenement in Londen een presentatie, waarbij het bedrijf een zestal Samsung-monitoren gebruikte, die elk een resolutie van 1920 bij 1080 beeldpunten weergaven. Aangestuurd door een enkele videokaart kon zowel het spel Tom Clancy's H.A.W.X. als Colin McRae: Dirt 2 gespeeld worden waarbij het blikveld zich uitbreidde naar alle zes de schermen. De framerates leken daarbij meer dan acceptabel. De spellen draaiden overigens op Windows 7, maar of dat een vereiste is, is niet bekend.

De monitors kunnen in een aantal verschillende configuraties neergezet worden, van 3 bij 2 zoals op de foto, tot drie naast elkaar in portret-modus, met aan de zijkant nog eens drie beeldschermen boven elkaar. Het enige probleem dat zich voordoet betrof de heads-up display, die bij H.A.W.X. deels op de bezels van de monitoren viel. De komst van ATI Eyefinity zal een gevoelige klap zijn voor hardwarefabrikant Matrox, die speciale apparatuur maakt voor de aansturing van meerdere beeldschermen waarbij het beeld over de monitoren wordt uitgerekt.

ATI Eyefinity 3 ATI Eyefinity 6

Door Marc Rademaker

Redacteur

10-09-2009 • 22:00

92

Reacties (92)

92
89
66
2
0
0
Wijzig sortering
Hier is nog wat meer info te vinden over deze nieuwe fantastische GPU: http://www.anandtech.com/video/showdoc.aspx?i=3635
Om op die manier HAWX goed te kunnen draaien moeten het wel krachtige kaarten zijn lijkt me.
Stiekem heb ik het idee dat het geen basis versie van HAWX is, en dat het gedemonstreerd werd op een vroeg HD5XXX-gebaseerd platform.
Als je goed kijkt dan lijkt het inderdaad een 5870 te zijn, de zelfde rode rechthoekjes als bij de gelekte 4870 foto's.

Edit1: Het is op zekers een 5xxx kaart Anandtech heet er net een artikel over geschreven.
Edit2: meer reviews maar vooral meer foto's
PC Perspective
The Tech Report
[H]ard|OCP
LegitReviews
SemiAccurate

Edit3: wat ik mij af vraag als je eerst een HD5870 koopt met DVI en dan later een DisplayPort uitvoering er bij koopt voor 3 schermen setup, kan je ze dan in CF gebruiken?
(ik denk het wel maar word nergens vermeld)

[Reactie gewijzigd door player-x op 25 juli 2024 09:56]

op die manier ja, maar verbazend genoeg is H.A.W.X. grafisch wel een zeer licht spel.
als het moet kan het nog redelijk op een laptop onboardje draiien, en zelfs helemaal soepel op een 6 jaar oude grafische kaart.
24m pixels is imho nog steeds "impressive" en Left 4 Dead op een 3 monitor setup @7680 x 1600 of de nieuwe Dirt 2 @7680 x 3200 DX11.

Natuurlijk pakken ze games die lekker lopen maar dat neemt nog steeds niet weg dat het best imponeert is.
Ik denk ook dat er nu op eens een hele boel 3 schermen setjes zullen worden verkocht onder de Nerds en hardcore gamers

Denk wel dat met deze technologie een nieuwe grotere 4:3 resolution best welkom zou zijn van bv 1920x1440 (Ik zou de extra hoogte in ieder geval waarderen

[Reactie gewijzigd door player-x op 25 juli 2024 09:56]

als je deze techniek combineert met een lcd/plasma zonder noemenswaardige rand kan dit nog wel een acceptabel alternatief worden voor beamers. al moet de gpu wel erg veel vermogen hebben om op dergelijke resoluties nog enigsinds vloeiend beeld te geven...
Ik denk niet dat LCDs beamers snel gaan vervangen. LCDs nemen fysiek veel meer plaats in, kosten in totaal meer en verbruiken in verhouding ook echt meer.
Niet echt rendabel voor het voordeel van het grote beeldoppervlak (bij dingen als presentaties enzo toch niet).
100% de waarheid, maar als je een kamer er speciaal op bouwt, en een monitor koopt met geen/weinig bezel (niet geheel onrealistisch meer, zeker met OLED), dan kun je als resolutie belangrijk is met dit soort technieken wel iets HEEL extreems krijgen qua resolutie. 7680*3200 is érg scherp. Meeste beamers die ik ken halen nog niet 1/8e daarvan!
Je zal nooit met meerdere panelen een naadloos oppervlak kunnen krijgen. Ze hebben altijd meer ruimte tussen elkaar dan de breedte van 1 pixel. (En laat nu net mijn cross hair die breedte hebben... ). OLED komt misschien in de buurt van een 5 mm rand. Resulteert nog altijd in een streep van 1 cm.

Beamers echter kunnen wel naadloos aansluiten, let er dan wel op dat je een projectiescherm kiest met zo weinig mogelijk gain (anders krijg je vignetting).

Oja, je zou eens naar een Sony 4K beamer moeten Googlen, die biedt de helft van de resolutie van jouw 'extreme' geval.

(edit: oja)

[Reactie gewijzigd door jjkewl op 25 juli 2024 09:56]

Laat je crosshair nou in het midden van je totale beeld zitten.

En bij 3 (of 2x3) schermen zit hij in principe altijd op het middelste scherm, no problemo dus.

Of je moet een spel spelen waar de crosshair alle kanten op schiet.
bij 2x3 zit de crosshair dus precies op de rand van middelste twee schermen....
Samsung komt anders toch met mooie schermen hiervoor. Welliswaar nog een rand, maar in vergelijking met de huidige, een stuk kleiner
nieuws: Samsung introduceert beeldschermen met dunne bezel - update
dude, op 6 beeldschermen is jou crosshair echt geen 1 pixel groot. dan zie je hem nooit niet, daarnaast zit die vaak in het midden van je scherm dus zelfs als je instaat was die ene pixel te onderscheiden, dan zou hij als nog gewoon altijd in het midden zitten, dus niet bij die randen.
Dude, het spel wordt niet uitgerekt hoor, de reswolutie word hoger en het blikveld wordtgroter... als je die buitenste 2 schermen in het voorbeeld weg haalt ziet de middelste er nog exact hetzelfde uit en zal die niet ineens groter/kleiner worden...

Oftewel als hij en spel heeft waar de crosshair 1 pixel is dan blijft dat zo (we meten namelijk in pixels :) en die worden 1:1 op het scherm getoverd).

En dan nog waarom zou volgens jouw 1 pixel uit het niks kleiner worden en niet te zien zou zijn... Op me werk een dooie pixel en die irriteerd me mateloos :D
ah, ok, dus 1980x1080 is nog niet 1/8e van 7680x3200.. cool, dat is nieuwe wiskunde voor mij, thanx........ laten we daar dus maar 1/3e van maken....
tja, alsof er films zijn die op een hogere resolutie zijn dan 1980x1080 (de volgende stap is QHD, maar dat duurt nog wel heel wat jaartjes voordat dat uberhaupt op de markt komt), en de film upscalen naar 7680x3200 heeft dan weinig nut.. en trust me, jij zult het verschil echt niet zien tussen de 2 als jij +/- 2.50m breed aan het projecteren bent, en bij kleiner zul je het verschil al helemaal niet zien.. Voorlopig is het onzin voor een gamer/filmliefhebber om zulke resoluties aan te kunnen.
1920*1080 = 2073600 pixels
7680*3200 = 24576000 pixels

100/2073600 * 24576000 = 1185,19%

Oftewel zo'n 11x meer oppervlakte. En dát aan kunnen sturen is zwaar voor een videokaart.

Overigens: ik ben het wél met je eens dat dit niet zo snel 100% benut gaat worden door consumenten (hoe wel het me persoonlijk héél geil lijkt om een volledig duistere home cinema-achtige kamer te maken en met een MASSIEVE muur vol schermen met deze resolutie een homeworld-achtige game te spelen. ECHT fleet command zijn!). Het hele feit dat er voor een displayport aansluiting is gekozen in plaats van HDMI/DVI geeft dát aan. De enige OEM die consumenten voorziet van (mini)displayport is Apple, en om nou te zeggen dat die zo normaal zijn. Functioneel-technisch zijn HDMI en displayport aan elkaar gelijk sinds HDMI 1.3. Het enige punt wat ik hier kan bedenken is dat een mini-displayport kleiner is, maar met een dual-slot kaart kun je daar ook wel wat op verzinnen, dunkt mij. Daarnaast scheelt het een fortuin aan adapters omdat 99% van de schermen nu géén Displayportisch verstaat, maar wel de taal der HDMI-ers.

[Reactie gewijzigd door Umbrah op 25 juli 2024 09:56]

Ik heb op me werk een HP (z'n miniding voor achter je scherm) daar zit toch echt een displayport op en vga...
Nouja, als je een beetje flauw doet en rekent in oppervlaktes :P :(7680x3200)/(1980x1080)=11,5...

Een opstelling met zo'n kaart en 4 of 6 goede beamers lijkt me wel wat in een fotostudio ofzo... Heb je nog eens wat aan je 16MP camera.

Voordeel met meerdere beamers t.o.v. één HD beamer is (behalve de resolutie) dat je de lichtbundels dan kleiner en dus feller kunt houden. Kan in een beetje verduisterde ruimte wel een erg mooi beeld opleveren denk ik.

[Reactie gewijzigd door Qualian op 25 juli 2024 09:56]

Dat klinkt erg lekker verwoord zo! :D
Mwah een zestal oled schermen zonder rand, denk dat het toch wel mooi film kijken is daarop, stuk mooier dan op een beamer. Hoewel films dan wel van een te lage resolutie zijn.
Uhm.. het zal toch heel moeilijk zijn om die zestal oled schermen aan elkaar te 'koppelen' zonder dat je enige rand ziet....
Enuh, wat denk je dat een zestal oled schermen van fatsoenlijk formaat wel niet kosten, daar kun je met een beamer toch gemakkelijk tegen op...
Hoeveel schermen moet je wel niet in een grid zetten om een groot scherm + beamer te kunnen evenaren? Tel daar de kosten van deze kaart bij op en ik heb zo'n vermoeden dat een full HD beamer prima uitkan. Ik zie het nut niet zo heel erg in dus.
Je kan misschienw wel combinaties maken:
Voor een flightsim bv een beamer voor je frontview en dan een X-aantal schermen voor je diverse control panels.

RadioKies:
Je kan normaal gesproken wel beelden van verschillende beamers naast elkaar zetten, niet 100% zeker of je vervorming krijgt als je ze echt vlak tegen elkaar laat schijnen.
Proffessionelere beamers kunnen zo gecalibreerd worden dat ze naadloos op elkaar aansluiten (geavanceerde keystone opties en randen in elkaar over laten faden e.d.).
Wat dacht je van ipv tv's meerdere beamers. Dat zou ook moeten kunnen lijkt mij. Of verstoren de beamers elkaars beeld?
Lijkt mij hele mooie kaart. Het eerste wat mij ook te binnen schoot was de videowall van Nasa.
het hoeft ook geen grote resolutie te zijn hoor, je kan perfect een beeld volledig vullend zetten op alle beeldschermen in een resolutie van 800 X 600.

en inderdaad ja als je elk beeldscherm gaat aansturen op volle resolutie zal het heel scherp beeld worden maar een enorme fill rate vragen van je grafische kaart. want dat zal elke pixel op een normaal beeldscherm er hier ineens 16 innemen.
Ik hoop dat het een beetje een universeel platform wordt. Dat de meeste games in PC land op windows werken zegt niet dat er geen andere doelen voor kunnen zijn.. ;)

Mac OS X of Linux support zou geweldig zijn 8-)
ATI heeft tegenwoordig de gewoonte om open -spec te gaan en meehelpen met open source drivers voor hun waren. Je kan er dus van op aan dat deze grappen (allicht met enige vertraging) op Linux zullen werken.
Wat OSX betreft hangt het 100% af van Apple. Als ze werk maken voor support hiervan op de Mac Pro dan helpt ATI graag mee met drivers, lijkt me.

Wat ik me zelf afvraag is of je met deze setup ook minder monitoren met hogere resolutie kan zal kunnen sturen.
Monitor boeren hebben engineering samples klaar liggen die veel hoger kunnen dan 2560*1600 (een paar gezien bij de IBC beurs vorig jaar). 4x3000*1875 (ofzo) lijkt me namelijk handiger voor een CAD/CGI professional dan 6x2560*1600 omdat de gewoonte is om met 4 aanzichten te werken.

@RefriedNoodle
Je kan toch niet je eigen Mac Pro bouwen of er een van een 3rd party kopen?
Ja het KAN wel (hackintosh) maar dat is niet echt eh... mainstream....

[Reactie gewijzigd door SuperNull op 25 juli 2024 09:56]

Natuurlijk. 3D tekenen op 4 monitoren. Alle views in 1 oogopslag op hun eigen monitor. Leuk dat je er ook op kunt gamen, maar bij 3D tekenaars zie je over een paar jaar niet anders meer. Behalve als 40"schermen een beetje betaalbaar zouden worden natuurlijk.
Wat OSX betreft hangt het 100% af van Apple. Als ze werk maken voor support hiervan op de Mac Pro dan helpt ATI graag mee met drivers, lijkt me.
Waarom hangt dit 100% van Apple af? Elke fabrikant kan gewoon zelf drivers bouwen voor OS X, daar heb je Apple helemaal niet voor nodig.
Volgens deze bron:
AMD's software makes the displays appear as one. This will work in Vista, Windows 7 as well as Linux.
Als het op Linux gaat werken zal het ook wel door de MAC ondersteund (gaan) worden.

Moet toegeven dat dit soort berichten mij toch een heerlijk warm gevoel geven. Dit is waar ik al een tijdje van droom... en het komt steeds dichterbij!

Als AMD de prijzen een beetje binnen de perken kan houden, maar dat het toch een leuke winst oplevert voor ze, voorspel ik goede tijden voor AMD en mindere tijden voor vooral Matrox. Volgens mij word het tijd om wat aandelen in te kopen ;)

[Reactie gewijzigd door Remco Kramer op 25 juli 2024 09:56]

Als het op Linux gaat werken zal het ook wel door de MAC ondersteund (gaan) worden.
OS X is niet op Linux gebaseerd, maar op BSD. Het drivermodel verschilt aanzienlijk hiertussen. Jouw conclusie is wat voorbarig.

Hoewel ik wel denk dat ATI zowiezo wel met OS X drivers komt (hoewel ik niet weet hoeveel mensen 6 LED Cinema Displays a 850 euro zouden aanschaffen hiervoor).
dezelfde mensen die met hoge resolutie RED camera's aan de slag gaan ;)
Wow heel erg mooi !
Ik vind het geweldig om te zien dat ATi/AMD met zo een innoverend product komt, het klassieke limiet van 2 monitors is toch vaak een probleem bij mensen die net iets meer willen. Mooi dat ATi/AMD het oplost op deze manier.
Anoniem: 136863 @Kosty10 september 2009 22:08
Hier de oplossing 4870X2 + 4350 voor een extra DVI om 3×24" @ 5760×1200 te toveren.

i.c.m. SoftTH heb ik ook geen Matrox nodig met rare resolutie beperkingen en toren hoge prijzen

Edit: En de 4870X2 neemt het renderen voorzich waar de 4350 eigenlijk niks meer dan z'n frame buffer vult met de data van de 4870X2.

[Reactie gewijzigd door Anoniem: 136863 op 25 juli 2024 09:56]

SoftTH is leuk maar werkt niet altijd, puur omdat een aantal games niet is ondersteund.

Was ook de reden dat ik voor een Matrox TripleHeat2Go ben gegaan in samenwerken met drie 19" schermen. (maar de TH2G heeft ook zijn beperkingen en problemen met hogere resoluties)

Als dit goed werkt gaan mijn drie 19" lcds vervangen worden door door b.v. drie Asus VW266H schermen.

1.8m aan schermen @ 5760x1200 zal toch wel een aparte ervaring worden, hoop alleen wel dat het makkelijk word om tussen extended en singel desktop te kunnen schakelen
Vooral als je bedenkt dat een enkele desktop over meerdere beeldschermen niet meer mogelijk was in Windows Vista en 7. (Voor de duidelijkheid; ik bedoel dus geen 2e extended desktop maar een single desktop van 2560x720px zoals je die nog in XP met nView of CCC in kon stellen.) Het lijkt er op dat AMD dit met Eyefinity terug gaat brengen naar Vista / 7.

[Reactie gewijzigd door d3vlin op 25 juli 2024 09:56]

Matrox? Bestaan die nog? Op de consumentenmarkt in ieder geval niet meer. Vroeguh waren zij de eerste met een dualhead (was helemaal hot onder de video-editors) echter toen Ati en Nvidia ook dualhead leverden was Matrox plots verdwenen.
Blijkbaar richten ze zich nu meer op de zakelijke markt.
Matrox doet nog wel mee, hoor, maar dan met de TripleHead2Go waarmee je er drie naast elkaar kan zetten. Wordt bij high-end surround gaming nog wel gebruikt, maar - uiteraard - je ziet het niet veel wegens kosten en ruimte die het inneemt.
Ik ben nog niet zo heel lang geleden Quad Head kaarten van Matrox tegen gekomen. Het is dan wel geen consumenten spul, dan moeten de prijzen toch echt anders zijn
Hebben jullie naar de setup gekeken van de Hawx opstelling? Als je kijkt wat voor videokaart daar in zit lijkt het heel erg op de gelekte plaatjes van de HD5870. Die rode intakes (of wat het dan ook zijn) zijn namelijk heel herkenbaar.

En het feit dat ze juist HAWX en Dirt2 kiezen (DirectX 10.1 / DirectX 11) lijkt me logisch voor de framerates, maar dus misschien ook wel dat DX10.1 / DX11 nodig is voor dit soort geintjes.

Aan de andere kant, als de driver / software er voor zorgt dat het net zo lijkt alsof er maar 1 monitor is aangesloten van 5760 x 2160 pixels dan zou het met alles moeten werken natuurlijk.
Dat is hem ook :)
De andere kaart met 6 mini displaypoorten is de HD5870 Six
Ik heb even in de settings rondgespeeld en dx10.1 stond mij niet eens aan. De hele DX10-tab ontbrak zelfs. Erg vreemd aangezien het in Windows 7 draaide. Ook kon ik geen benchmark draaien (ingebouwde hawx bench geeft avg/max fps) :P

Maar het zag er mooi uit, dus wss gewoon hoge/hoogste instelling en 4xaa stond ook aan. En nog draaide het prima met 3x2 1920 bij 1080, dus eh dat is 5760*2160.
Dan moet je de HAWX_dx10.exe oid draaien, dan pas heb je de DX10 opties. Wat betreft de benchmark, wacht totdat die afgelopen is en je krijgt FPS stats. Niet zeker of Min/Max er bij staat, maar dacht het wel.
Mooi :)

Zou het heel mooi vinden als ze ook van verschillende grote kunnen zijn. Heb nu 2 17 inch schermen met in het midden 1 20 inch scherm. Met 1024 voor de 17 en 1050 voor de 20 zou ik dan maar 16 pixels hoeven inteleveren :)
Kan wel volgens mij, werd kort aangestipt, maar werd volgens mij ook niet echt aangeraden. Dat wordt namelijk een troep en zal lastig GOED werkend te krijgen zijn, en dat hebben ze natuurlijk liever niet :P
Kan wel, maar niet als SLS (Single Large Surface).
Windows ziet dan dus 2 (of meer) monitoren, en games zullen over het algemeen dan 1 van die surfaces kiezen om op te draaien.

Dat is ook het mooie van Matrox TH2G. Windows ziet dat kastje als 1 monitor, en je games worden dus automatisch geschaald naar 3 schermen. Alleen die ruk-console ports doen het niet altijd, omdat die een vaste resolutie hebben.
In combinatie met de juiste videokaart
Dit duid op nieuwe kaarten van ATI? Vraag me af of deze ook voor de consument bedoelt zijn. Ik zie een kantoor-persoon niet snel Tom Clancy's H.A.W.X. aanzetten..

[Reactie gewijzigd door kywr op 25 juli 2024 09:56]

Anoniem: 136863 @kywr10 september 2009 22:11
Zal waarschijnlijk op de FireGL series uitkomen, ik zie even niet in waarom een consument dit zou willen, die kan dan beter een 2 extra 4350's kopen ;)
Aangezien een 23" acer beeldscherm met 1920x1080 pixels al voor 120 euro gekocht kan worden hoeft dit (6 schermen set-up) niet eens duurder dan een 30" scherm te zijn. Enig nadeel dat ik mij kan inbeelden is het stroomverbruik en de rand rond het scherm.

Ik werk met een SyncMaster 2343BW met een in mijn ogen zeer dunne rand, van ver valt het volgens mij goed mee met 6 beeldschermen aangezien je niet 30cm van zo'n set-up gaat zitten.
En dat niet alleen. Met die goedkope monitoren zit je met TN paneeltjes die een inkijkhoek van 3x niets hebben. Op een groot oppervlak heb je altijd dat je op bepaalde stukken onder een flinke hoek kijkt. Dan wil je toch wel een iets beter paneeltje dan een TNgevalletje.

Dit is leuk bedacht, maar ik denk dat dual monitor voor het gros van de mensen nog wel genoeg is. Een grotere monitor kopen kan natuurlijk ook altijd (hoe fijn ik dual monitor ook vind, sinds ik een 30" TFT heb staan gebruik ik een 2e monitor eigenlijk een heel stuk minder).
Als je meerdere monitors gebruikt dan kun je de monitors aan de zijkant toch juist onder een hoek plaatsen? Daarmee voorkom je dus juist de inkijkhoek.

Daarnaast vind ik het ook prettig werken met meer dan 1 monitor omdat je dan makkelijk even een window van monitor 1 naar monitor 2 kan slepen en dan dubbelklikken om te maximaliseren.
Op 1 grote monitor moet je al je windows zelf met je muis op de juiste grootte trekken.

Op dit item kan niet meer gereageerd worden.