Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 86, views: 22.913 •

AMD heeft het Open Stereo 3D Initiative aangekondigd. Hiermee gaat het bedrijf de concurrentie aan met het 3D-Vision-systeem van Nvidia. Beide technieken maken gebruik van een 120Hz-scherm in combinatie met een speciale bril.

AMD maakte de plannen bekend op de Game Developers Conference in San Francisco. In tegenstelling tot Nvidia's systeem is het de bedoeling dat meerdere bedrijven in het Open Stereo 3D Initiative samenwerken om verschillende configuraties en oplossingen aan te bieden. Nvidia ontwikkelde zijn 3D-Vision systeem zelf en verkoopt deze als kit. AMD heeft al meerdere partners gevonden, waaronder Samsung en LG, die zich zullen bezighouden met het fabriceren van geschikte 3d-brillen en -schermen. ATI's EyeFinity techniek, waarmee het beeld over meerdere schermen uitgespreid kan worden, zal ook ondersteund worden.

AMD's systeem vereist niet dat gebruikers de nieuwste videohardware aanschaffen: de technologie werkt al op kaarten uit het DirectX 9-tijdperk. Door de techniek openbaar te maken en aan te sturen op het ontwikkelen van standaarden, hoopt AMD de kosten voor stereoscopisch gamen omlaag te halen. Naast games moet de technologie ook de nieuwe Blu-Ray 3D standaard gaan ondersteunen.

Het is nog niet bekend wanneer de technologie daadwerkelijk op de markt gaat komen. Wel geeft AMD zijn gebruikers alvast een voorproefje met de toevoeging van anaglyph-rendering in versie 10.3 van de Catalyst-driver die deze maand uit moet komen. Hierbij worden spellen in rood en cyaan weergegeven. De gebruiker kan dan met een simpel brilletje al een 3d-effect creëren.

ATI Open Stereo 3d Initiative

Reacties (86)

Dus AMD wil niet gebruikers uitmelken door een nieuwe GPU te eisen ;)
Maar zal het niet zo zijn dat AMD of Nvidia deze techniek gepatenteerd heeft?
Nvidia heeft haar eigen techniek niet vrijgegeven. Hier kunnen andere fabrikanten dus geen hardware voor uitbrengen.
En zoals te lezen in het artikel heeft AMD voor een open standaard gekozen zodat elk bedrijf hier onderdelen voor kan maken waardoor dit op termijn waarschijnlijk veel breder ondersteund gaat worden dan de gesloten techniek van Nvidia.
nieuws is een groot woord. Het nV systeem werkt al op een 8800, toch ook niet meer de jongste kaart op de markt.
Maar toen het uit kwam wel en een 8800 is toch een DX10 kaart en geen DX9 kaart en daar gaat het denk ik om.
Think you're missing the point here ..
En iedereen waarschijnlijk want de VooDoo kaarten hadden de zelfde stereoconnectors als de GF2, en we hebben nogsteeds de zelfde stereoconnectors.

Oh boy, zou het misschien gewoon al een standaard zijn die een jaar of 20 bestaat?
Dx9 kaarten werken wel: iZ3D is een alternatieve 3D leverancier (welliswaar met eigen monitoren en brillen), maar op hun site is te lezen dat een 7900GT ook werkt. Dat is wel een Dx9 kaart.

>For ATI Graphics Cards, we recommend a minimum of an ATI Radeon 4870.
>For nVidia Graphics Cards, we recommend a minum of an nVidia Geforce 7900.

http://www.iz3d.com/compatible

Trouwens, op een HD4830 werken games ook prima met die drivers: Je moet gewoon een videokaart met ballen hebben, het boeit niet uit welk jaar die komt, als die maar goede performance levert voor de game waarvoor je 3D wilt. Met een 6600GT'tje kom je wel uit de voeten met een spel zoals GTA SA in 3D, maar om een spel als Crysis in 3D te spelen heb je inderdaad een sterker dingetje nodig. Dus houd het maar op: Als je 3D wilt gaan gamen, neem een videokaart een tandje hoger dan de reccomended specs! Komt alles goed.

(Offtopic: Hoe 'quote' ik stukken tekst in reactie? Ik gebruik voor dit geval even pijlen > om aan te duiden dat het een quote is, heb ik van 4chan :D ) (Stuur me maar een PM o.i.d.)

[Reactie gewijzigd door ikt op 14 maart 2010 16:43]

Eeeh Elsa had eind jaren 90 al de revelator die met een TNT of TNT2 werkte. Helaas had ik weer eens een afwijkende kaart van diamond (afwijkende printplaat) waardoor mijn brilletje nooit heeft gewerkt en als zonnebril is ie niet geschikt :(.
Nvidia heeft later de techniek van Elsa in haar drivers ingebouwd. Overigens kan het spelen met een rood blauw brilletje ook al jaren met NVIDIA drivers. Op die manier kun je goedkoop spelen hiermee.
Nu hoop ik dat er snel een mogelijkheid komt om de nieuwe generatie 3d films ook via de NVIDIA of AMD driver in anaglyph om te zetten. Op die manier kan ik toch 3d kijken zonder gelijk een hele nieuwe tv te moeten kopen. Het mooie hiervan is dat je eindelijk dan zelf de parallax kunt bijstellen (wat nu met 3d dvd's) helaas niet het geval is. Nu is deze vaak afgeregeld op een kleine tv om een redelijk effect te bereiken. Op een grote lcd moet je dan 10 meter ervanaf gaan zitten om niet gek te worden van het dubbele beeld.
Spannend allemaal ik ga mijn 3d webcam ook weer eens voor de dag halen. Als steeds meer mensen straks 3d kunnen kijken op hun computer is dat ook weer een interessant speeltje.
Dat AMD het ook wil laten werken op oude GPU's klinkt heel klantvriendelijk en goedkoop - maar je hebt er vrees ik weinig aan. De eeuwenoude discussie over wat een speelbare framerate is wil ik hier niet oprakelen, maar laat duidelijk zijn dat om in stereo beeld te kunnen spelen, je twee beelden nodig hebt, dus dubbel zoveel werk voor de graka's. In effect kun je verwachten dat je framerate bij het spelen in 3D met brilletje ongeveer 40% is van wat het zonder 3D is. Wil je het grafisch een beetje leuk houden - kwaliteit en resolutie - dan heb je dus behoorlijk wat GPU power nodig.

Misschien is de slimmigheid van AMD om mensen met een oudere kaart eraan te laten snuffelen, die komen erachter hoe leuk het is en hoe brak hun kaartje, en kopen vervolgens een nieuwe snelle kaart.
Dat ze oude kaarten ondersteunen is wel degelijk interessant voor het kijken van films/foto's.
*Appelsap : In effect kun je verwachten dat je framerate bij het spelen in 3D met brilletje ongeveer 40% is van wat het zonder 3D is
Waarschijnlijk valt dat wel mee.
Om real time shadows te bereken zoals in veel spellen, maak je eerst een render met als camera positie de lichtbron, de shadowmap kan je daarna voor beide (3D) gezichtspunten gebruiken. Daarnaast hoeven textures ook maar 1x naar de locale caches worden geladen. Waarschijnlijk zit je dus maar met een snelheid verlies van iets van 20 tot 30%
Haha, toch mooi die strijd tss AMD en nVIDIA. Laat hen maar vechten. Alleen jammer van die 120Hz en shutter-bril. Het verdonkert het beeld toch heel erg sterk (heb ik nog mogen ervaren woensdag op het SAMSUNG-event voor dealers)

Wel tof dat AMD anaglyph toevoegt, gewoon om ff te spelen...
Jappelke vind da racespelleke waarbij dat standaard zit ook steeds vermakelijk, al is het niet echt van topkwaliteit (kan niet op naam komen)
Trackmania Nations
Doe maar trackmania zonder nations als toevoeging, er zijn meerdere edities van die het ondersteunen;)

Edit: Overigens vind ik de spellen (en het gaat hier vermoedelijk inderdaad over Trackmania Nations) wel degelijk van zeer goede kwaliteit, of heb je het over de 3dkwaliteit van het spel?

[Reactie gewijzigd door hottestbrain op 12 maart 2010 18:43]

Vind het juist niet slim van ATI om gamers warm te maken voor 3D-gaming d.m.v. analglyph. Want ik herinner me nog hoe een maat van mij zat te kl**ten met iZ3D. Beter is gewoon met Active Shutter lenzen. Zo gaan krijgen gamers een verkeerde indruk van 3D gaming dat er eerst veel gestoeid moet worden met parameters voordat je fatsoenlijk 3D kunt gamen.
Of het nou anaglyph of shutter is, bij beide moet er gestoeid worden met een hoop parameters voordat je kan spelen zonder koppijn. Het enige nadeel van anaglyph is het kleurverlies.

[Reactie gewijzigd door Boxman op 12 maart 2010 19:36]

Active shutter brillen? Doe mij maar een bril met gepolariseerde glazen, of Phillips' "passieve" 3D beeldschermen.

Vorig jaar nog zo'n "gepolariseerd-scherm" (?) gezien en hoewel je wat resolutie mist (die ik niet opmerkte toendertijd), voel ik mij daar toch beter bij.
Al is het alleen maar omdat je die brillen dan voor een prikkie kan aanschaffen en je geen actief-apparaat op je neus hoef te zetten.
En als je een bril heb kan je makkelijk een clip-on met gepolariseerde glazen nemen. Volgens mij heb je dat voor active shutter niet.

[Reactie gewijzigd door Calamor op 12 maart 2010 22:19]

In de meeste gevallen kan je de shutter-bril over je huidige bril zetten (er is aan de voorkant genoeg ruimte). Of het lekker zit weet ik niet, maar werkt wel.
Het zit in mijn geval niet lekker.
Shutterbril vereist een accu/batterij en is voorlopig nog topzwaar (bovenop de eventuele bril die je draagt). Dat zijn toch aardige nadelen vergeleken met een passief polaroid brilletje.
Het gevaar in dit anaglyphic voorproefje van AMD lijkt me eerder dat mensen vergeten dat de uiteindelijke techniek heel anders wordt. Ze proberen voor de gein de anaglyphic versie even, vinden het niks en schrijven meteen heel het 3D gebeuren van AMD af.
Door de 3d drivers van nvidia te installeren kan je ook voor anaglyph kiezen hoor. Werkt perfect met elke rood/blauw bril.
NVIDIA doet ook aan anaglyph, ik gebruik ze vaak voor het spelen van spellen. het beeld word wat grijzig, maar ik vind t prima voor het effect.

Eigenlijk verschilt het allemaal helemaal niks.
ATI doet 3D en NVIDIA doet 3D...
Je kan die dingen gewoon gaan combineren, al zal je misschien wel een nvidia brilletje moeten hebben als je een nvidia kaart hebt. Maarja, die prijzen zullen wel t zelfde zijn ongeveer, dus wat maakt het uit!

Nvidia heeft de voorsprong doordat ze eerder zijn


Bovendien is het allemaal niet zo heel gesloten zoals mensen beweren, je kan zo de 3Dvision SDK downloaden van de nvidia site :P
Voor developers is de standaard met een SDK natuurlijk wel toegankelijk, ze willen juist zoveel mogelijk spellen op hun eigen platform, zodat mensen NVidia kaarten en brilletjes moeten kopen...
Uuuhhh... tja ik zie consumenten ook nog geen monitoren ontwikkelen, toevallig omdat het een open standaard is van ATI!

zoals ik al zei: je kan monitoren van ieder merk kopen zolang ze maar 120Hz zijn, dan hoef je alleen maar zo'n brilletje te hebben.

Ieder DX9 spel of hoger valt met 3Dvision te spelen, dus ja, een SDK heeft enkel een kleine toegevoegde waarde om spellen iets meer te optimaliseren.
Nvidia heeft de voorsprong doordat ze eerder zijn
dat ze eerder waren is fijn voor nvidia maar het zal me echt aan mijn reet roesten.
wat mij betreft heeft ATI opnieuw een voorsprong omdat ze (opnieuw) voor een open standaard kiezen (hiervoor al met physics , openCL, en eyefinity)

edit : zou nvidia dat express gedaan hebben? die mededeling van epic voor de unreal ondersteuning van 3d expres vandaag vlak voor ATI zijn mededeling zou doen?
noem me een fan-boy maar het zou me niks verbazen.

[Reactie gewijzigd door Countess op 12 maart 2010 23:39]

Het verdonkert het beeld?

Dan heb je dus niet de juiste instellingen.
Een goede driver gaat ook de wit balans aanpassen op de bril.
Witbalans heeft weinig te maken met helderheid :)
Waar het op neerkomt bij shutterglasses, is dat elk oog de helft van de frames ziet, dus pro rato ook de halve hoeveelheid licht krijgt -> beeld is per oog donkerder.
Bij polariserende glazen hetzelfde verhaal: elk oog ontvangt ongeveer de helft van het schermlicht.
Wat men normaal zou doen, is de helderheid van het scherm verhogen om dat te compenseren.
Ze zullen wel mee moeten in het 3d geweld, 2010 wordt het jaar van de 3d tv's.
Als je bij Nvidia 3d wilt ervaren ben je bakken met geld kwijt. Helemaal top dat ATI met software upgrades komt zodat je alleen nog een scherm en bril hoeft aan te schaffen.

3d schermen zijn zo gek duur nog niet. Sterker nog, er zijn er al een paar die 200 euro kosten.
Met een blauw rood brilletje en de juiste nvidia driver kon ik toch meteen 3d ervaren zonder ook maar iets te betalen... Met een 8800 of nieuwere kaart kan je 3d aan zetten. Niet echt schokkend. Een 120Hz scherm en bril kost wat meer maar dat is bij zowel ATI als nvidia het geval. Waar zijn die bakken met geld nu precies voor nodig?

Als je doelt op het feit dat het met iedere dx9 kaart kan van ATI dan vraag ik me af welke kaart je wil gebruiken die wel snel genoeg is om een spel soepel te draaien in 3d modus want er zijn wel 2x zoveel beeldjes nodig om de zelfde soepelheid te ervaren.
Maar dan krijg je ook de beste kwaliteit. AMD kan wel komen met iets wat op oudere DX9 hardware draait maar je kan het echt vergeten als je denkt dat je dan de beste graphics krijgt. Daarvoor moet je toch echt dieper in de buidel tasten, 3D techniek is nu eenmaal niet goedkoop,m ook bij AMD niet. Dat kan gewoon niet anders draaien ze toch echt verlies.

Trouwens NVidia is er al een paar jaar mee bezig, wat nergens wordt vermeld. Dus ze lopen de tijd ver vooruit met hun techniek. Ik denk toch dat als AMD mee wil ze verder en harder moeten aanpoten.
De NVidia techniek is toch al veel verder ondersteund.
De techniek van NVidia is misschien verder ondersteund, maar dan wel alleen door NVidia zelf. ATI deelt haar technieken met oa Samsung en LG (zie het artikel), die echt geen groentjes zijn op het gebied van 3D-techniek (3D-tv's ;) ).
NVidia sluit zichzelf weer eens op en zal dus alleen voor de NVidia die-hards zijn (zoals jij, aan je post te lezen). De mainstream haalt gewoon spul dat compatible is met ATI.
3D vision van Nvidia bestaat pas iets meer dan een jaar hoor.

En de eerste paar maanden was het alleen in Amerika verkrijgbaar dus zo een grote voorsprong heeft Nvidia niet.

Overigens wel ironisch dat Nvidia die ooit Glide van 3DFX heeft weggeconcurreerd nu met een eigen gesloten standaard komt.
Ik heb hier ergens wel een Anaglyph brilletje liggen.
Uiteindelijk ga je toch wel weer terug naar de normale 2D wereld, maar het is wel eens grappig de IZ3D driver te gebruiken.
Helaas schortte het ene en het ander aan die driver (vooral merkbaar in de Sims 3, waarin alles een gigantische groene tint kreeg). En daarnaast wat andere probleempjes.
Ik hoop wel dat die van AMD beter wordt.
Ik blijf het niet eens met 120Hz schermen als uitgangspunt. Is het nou inmiddels ng niet bekend genoeg onder de juiste mensen dat veel/de meeste mensen koppijn krijgen van 60Hz effectief beeld? Dan zou je toch denken dat bij een nieuw idee men eerst denkt van : "Hey, laten we eens kijken naar bestaande problemen"..

Een beter alternatief zou zijn 200Hz+ schermen(dus 100 per oog), en dan 200fps opnames(100 per oog). Dit puur omdat het vrij moeilijk is om nog verschil te detecteren voor mensen tussen 100Hz of hoger(echter <100 is duidelijk zichtbaar)

[Reactie gewijzigd door grind op 12 maart 2010 18:42]

Vergeet niet dat er videokaarten moeten zijn die 200fps kunnen toveren in hoogste resolutie. ;)
die zijn er al hd 4870x2 op assault cube nog zelfs 250 fps.
Videokaarten zijn nog niet zo het probleem, vind maar eens een fatsoendelijke 200hz LCD monitor. Een TV is nog wel te vinden maar een monitor?

Ik heb een van de eerste 120hz full HD 24" schermen, en die is net een maand uit.
Die 200Hz TVs zijn niet bruikbaar, omdat die alleen de huidige standaarden van binnenkomende signalen ondersteunen (24/25/30/50/60 Hz). Je moet inderdaad, zoals jij hebt gedaan, nieuwe beeldschermen aanschaffen om van deze techniek gebruik te kunnen maken (of je oude CRT scherm opzoeken, die kan vaak wel 120Hz aan)
Het spel zelf hoeft naar mijn weten geen 200fps te kunnen halen. Het beeld voor het linker en rechter oog kunnen gewoon los van elkaar (met desnoods 10fps) naar twee aparte buffers gerenderd worden. Het is dan enkel nog maar het switchen tussen die twee buffers wat wel met 200fps moet gebeuren.
Bron? In mijn persoonlijke ervaring is dit namelijk niet zo. Waarom denk je dat films met 24 fps worden opgenomen?
Wat heeft dat er nou weer mee te maken (naast dat het allang niet meer waar is)?

24fps geeft echt flikkerend beeld, kijk maar eens een oude 16mm film op een projector...

Het gaat nu om de refresh rate van het beeldscherm, die is niet afhankelijk van de framerate van de content.

De meeste LCD/TFT schermen zijn 60hz, wat (vanwege de techniek) prima rustig beeld geeft, in tegenstelling tot CRT schermen op 60hz.
alle films zijn tegenwoordig nog 24 fps, en dat is idd vervelend.
film beelden zijn bij beweging altijd onscherp om te compenseren dat ze maar zo weinig frames hebben. dat valt dat niet op. bij games gaat dat niet, die geven altijd scherp beeld en dan vallen lagere framerates veel meer op.
daar heeft de gamemarkt ook oplossing voor als motion blur en in mindere mate bloom.
Alleen jammer dat het minder aangenaam kijken is wanneer de bloom te aanwezig is, en het ironische: die effecten belasten de videokaart nog meer.
60Hz LCD, krijg er echt geen hoofdpijn van hoor ;)
het gaat om die shutterglasses. De lcd heeft gewoon een continue lichtstroom en de pixels worden aangepast op 60 hz, maar omdat de lichtstroom niet geblokkeerd wordt zie je gewoon een continue lichtstroom.

Met shutterglasses op een 120 hz scherm ga je weer terug naar het 60hz crt tijdperk. 1 oog ziet nu namelijk een knipperend 60 hz beeldsignaal, net als bij crt.

ik sluit me aan bij grind, 200 hz zou veel beter zijn. het mooist zou die 3d techniek van de bioscoop zijn, maar die schermen zijn nu nog belachelijk duur.
Bioscopen gebruiken hier een heel andere techniek voor (2 projectors met allebei een polarisatiefilter waardoor het licht een bepaalde golf-richting heeft, het brilletje kan deze golfrichtingen weer van elkaar scheiden wat de kleuren niet beinvloed.)

Helaas is het voor LCD-schermen niet of nauwelijks mogelijk om dit toe te passen, dan zouden 2 pixels naast elkaar elk een polarisatiefilter moeten hebben wat gigantische kosten met zich meebrengt, en een noodzakelijke dubbele pixeldichtheid.
Niet mogelijk ? Waarom was Zalman dan een van de eerste om een monitor die met polarisatie werkt, uit te brengen ?

"Zalman maakt daarentegen gebruik van een bril met gepolariseerde glazen, waarbij de volledige kleurweergave intact blijft, en er bovendien geen hinderlijke flikkering optreden. Zalman levert bij elke monitor n normale bril en een speciaal clip-on brilletje dat over een normale bril geklemd kan worden."
bron: http://www.hardware.info/..._Trimon_3Dmonitoren_test/
Wel als je een brilletje draag die met 60fps afwisselend een oog bedekt.
(dat bedoeld grind dan ook met "effectief beeld")

[Reactie gewijzigd door SirNobax op 12 maart 2010 19:44]

Daarnaast zijn is 10ms om een image te bouwen behoorlijk kort voor de huidige games.
Daarnaast is het zo dat je twee frames moet renderen in deze tijd rekening houdend met een parallax offset, dat betekent dat je frustum groter word en er dus meer objecten zichtbaar zijn.

[Reactie gewijzigd door NC83 op 12 maart 2010 18:59]

Uhhh dat jij wil beweren dat elk LCD scherm bij de meeste mensen hoofdpijn verwerkt? Want alle LCD schermen voor de pc zijn namelijk 60Hz...
60Hz voor de meeste, niet voor alle.

deze monitor bv heeft een 120Hz LCD scherm.

[Reactie gewijzigd door darkcarlaza op 12 maart 2010 19:24]

Zie de reactie van haarbal iets verder naar boven. Bij lcd's heb je een backlight die een continue lichtstroom geeft, je ogen zien dus geen knipperend beeld. Bij een shutterbril zien je ogen wl een knipperend 60Hz beeld, wat bij de oude crt monitoren ook het geval was.

Een andere manier om het te zeggen is dat bij lcd de backlight de lichtbron is (continue lichtbron), terwijl bij crt de pixels zelf de lichtbron zijn (60Hz). Daarom was de advies refreshrate bij crt's ook iets van 72-75Hz minimaal, pas bij die rate verdwijnt de irritatie/hoofdpijn. Vandaar dat een 200Hz shutter oplossing beter is, die geeft per oog 100Hz, wat ruim voldoende is om geen klachten te krijgen.

[Reactie gewijzigd door Bonez0r op 13 maart 2010 11:10]

Denk je nou echt dat ATI/NVIDIA etc geen gebruikers onderzoek hebben gedaan? Of geen specialisten ingehuurd om de effecten van deze hz te onderzoeken?

Blijkbaar is de implementatie goed genoeg, anders stoppen ze er niet zoveel geld in. Dat jij het er niet mee eens bent heeft meer te maken met het feit dat je er waarschijnlijk te weinig vanaf weet. De onderzoekers van ATI/NVIDIA weten er 100x meer vanaf dan wij allen bij elkaar x 1000.
Dit komt uit de tijd dat we nog met beeldbuis monitoren werkte, tegenwoordig is de techniek veel beter met lcd schermen. Bij de beeldbuizen zag je inderdaad dat 60Hz flikkerde (heel duidelijk vanuit je ooghoek) dit resulteerde inderdaad bij veel mensen hoofdpijn.

LCD schermen knipperen niet, deze verversen de pixel met een nieuwe kleur ipv het hele beeld even uit te zetten en erna opnieuw te tekenen.

Kortom, net als bij de rest boven mij wil ik hiervan een bron zien, anders gaat je opmerking bij mij direct de prullenbak in.
Ik geef je deels gelijk.
Uit http://en.wikipedia.org/wiki/Refresh_rate

Liquid crystal displays

Much of the discussion of refresh rate does not apply to the liquid crystal portion of an LCD monitor. This is because while a CRT monitor uses the same mechanism for both illumination and imaging, LCDs employ a separate backlight to illuminate the image being portrayed by the LCD's liquid crystal shutters. The shutters themselves do not have a "refresh rate" as such due to the fact that they always stay at whatever opacity they were last instructed to continuously, and do not become more or less transparent until instructed to produce a different opacity. Most of the TFT LCDs used in portable devices and computer monitors need a continuous refresh. The driving voltage determines the transmittance of the liquid crystal.
The closest thing liquid crystal shutters have to a refresh rate is their response time, while nearly all LCD backlights (most notably fluorescent cathodes, which commonly operate at ~200 Hz) have a separate figure known as flicker, which describes how many times a second the backlight pulses on and off. However they also have a refresh rate that governs how often a new image is received from the video card (often at 60 Hz).

Maar de onderstaande paragraaf geeft toch aan dat er toch een soort van flikkeren is met de backlights. Of dit merkbaar is is een andere vraag.

[Reactie gewijzigd door nadorst op 13 maart 2010 10:41]

Op gamekings hadden ze laatst de 3D Vision van NVidia laten zien. Een leuke review maar ze zeiden wel als je geintresseerd bent moet je eerst maar kijken of je het lang kan spelen. De een krijgt kop pijn naar een uur en iemand anders kan er uren mee spelen.

Wel mooi dat er wat concurentie komt, Hopelijk gooit NVidia dan de prijzen wat naar beneden en dat de 120hz+ schermern wat goedkoper worden!
Kan iemand mij uitleggen waar al die heisa om gaat? Mijn Elsa 3d Revelator brilletje van 8 jaar(?) geleden gebruikt ook een 120 hz beeld scherm om via shutters een 3d beeld te vormen...
Ik snap niet waarom je zo naar beneden gemod wordt. Ik had jaren gelden ook zo'n bril, ik heb er toen speciaal een Elsa set voor gekocht. Werkte prima op een CRT. Wel vermoeiend vond ik.
Ik snap het ook niet echt, mja...
Sterker nog, ik had ooit een boek met 3d plaatjes, was dan zeg maar een bril met 1 rood en 1 groen glas, en dan kwamen die plaatjes eruit als 3d.
Vond ik heel cool als kind :)
Alleen is dit *iets* geavanceerder en beter dan die rood/groen brilletjes van toen je kind was.
Maar toen waren er dus geen fatsoenlijke 3D games die zo'n set konden rechtvaardigen, terwijl het realisme momenteel dermate is toegenomen dat het wellicht nu wel aanslaat.
Echt wel, ik heb op mijn tnt2 met elsa revelator mooi emperor battle for dune gespeeld. Dat was echt GAAAAAF!!!! Overigens kon die bril van elsa, in combinatie met een goede crt monitor die genoeg Khz had, ook draaien op 140 hz, dat was net even wat lekkerder kan ik me herinneren.
Zolang de hardware op beide systemen gebruikt en omgewisseld kan worden, vind ik het best. Anders krijgen we dadelijk dat gezeik dat je spellen alleen in 3D kunt spelen als je OF Nvidia OF AMD hebt, en dat zou erg conta-productief zijn.

Met omgewisseld bedoel ik dat je met de Nvidia bril ook gewoon 3D kunt zien op een AMD systeem en omgedraaid.
Nope, dat gaat dus niet lukken.
NVidia houdt haar techniek geheim en daar kunnen andere fabrikanten niet op in spelen. In theorie zou NVidia wel ATI kunnen ondersteunen, want de techniek van ATI is openbaar. Maar we kennen NVidia, dus dat zal niet gebeuren.

Toch weer jammer, zeker van NVidia die weer eens de markt dichtgooit met haar geheime technieken.
120 Hz alternating beelden kan niet echt verschillen dacht ik zo. Het word pas een ander verhaal als AMD op 140Hz zou werken bijvoorbeeld.
dat is een parameter die bij beide gewoon in te stellen is. dat is iets heel anders.
het probleem hier is hoe de schermen worden aangestuurd en misschien nog wel belangrijker hoe de game aan de drivers duidelijk moet maken dat er nu 2 cameras zijn.
Ik hoop vooral dat dit de 120hz schermen goedkoper en makkelijker te krijgen maakt. Voor m'n volgende systeem wil ik niet vast zitten aan 60fps. Van het hele 3D effect word ik nog niet echt warm.

Op dit item kan niet meer gereageerd worden.