Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 84 reacties
Bron: AnandTech

Vroeger, voor de tijd dat 3d-effecten hardwarematig op het beeldscherm getoverd werden, hadden spelontwikkelaars de kwaliteit van de grafische weergave nagenoeg volledig zelf in de hand. Met de komst van de 3d-kaarten wordt het uiteindelijke beeld veel meer door de fabrikant van de grafische processor bepaald dan door de spelprogrammeur, omdat het simpelweg niet te doen is om naast het ontwikkelen van een game ook bezig te zijn met het finetunen van de grafische weergave. Zaken als pixelshading, anisotropisch filteren, anti-aliasing, mipmapping en nog vele andere aspecten zijn van grote invloed op de uiteindelijke weergavekwaliteit van een spel. Deze effecten worden echter op verschillende wijzen uitgewerkt door de GPU-fabrikanten - en dan in het bijzonder door nVidia en ATi - welke door AnandTech in een review zijn vergeleken.

Allereerst worden we (uiteraard) getrakteerd op een uitgebreide beschrijving van de toepassingen en problemen die komen kijken bij het werken met bovengenoemde effecten. Vervolgens wordt een aantal screenshots voorgeschoteld die de verschillen tussen de weergaven van een ATi Radeon 9800XT en een nVidia GeForce FX 5950 duidelijk maken. In de meeste gevallen zijn deze niet al te groot, maar soms zijn ze wel opmerkelijk. Zo zien we bijvoorbeeld duidelijk dat ATi (nog steeds) een stukje vooruitloopt op nVidia op het gebied van anti-aliasing, het wegwerken van de kartelige randjes in het beeld. nVidia is echter weer verder wat betreft alpha-blending, wat terug te zien is in de weergave van objecten achter doorzichtige voorwerpen. Uiteindelijk bestaat er op het gebied van grafische weergave natuurlijk geen duidelijke scheidslijn tussen 'goed' en 'fout', wat het maken van een eenduidige conclusie moeilijk maakt:

At this point, ATI uses a more visually appealing algorithm for antialiasing, while NVIDIA does a better job calculating texture LOD and does more alpha blending. The question we are asking now is whether or not these optimizations degrade image quality in any real way. We feel that NVIDIA needs to refine its antialiasing algorithms, and ATI needs to do a better job of rendering alpha effects. We are still looking into the real world effects of the distance calculations that ATI uses in determining LOD, but the problem definitely manifests itself in a more subtle way than the other two issues that we have raised.

The decision on what is acceptable is out of our hands, and we can't really declare a clear winner in the area of image quality. We can say that it appears from the tests we've done that, generally, NVIDIA hardware does more work than ATI. Honestly, it is up to the reader to determine what aspects of image quality are important, and how much of what we covered is relevant.
Jedi Knight: Jedi Academy (ATi)
ATi's weergave van Jedi Knight: Jedi Academy
Jedi Knight: Jedi Academy (nVidia)
nVidia's weergave van Jedi Knight: Jedi Academy (zie de gloed van de lightsaber)
Moderatie-faq Wijzig weergave

Reacties (84)

Ligt de beeldkwalitiet ook niet heel erg aan het gebruikte filter, wat dus onafhankelijk is van nVidia of ATI? Volgens mij is deze vergelijking alleen zinvol voor de werkelijk gebruikte kaarten, en is dus niet zozeer maatgevend voor alle kaarten met een nVidia of ATI chip
Je kunt een plaatje rechtsreeks uit de framebuffer halen, zodat je echt de digitale versie hebt van het beeld. Dan kun je het verschil in monitor en filters geheel teniet doen door op dezelfde hardware beide plaatjes te bekijken.
Dat is dus niet helemaal waar. Je kan wel een plaatje rechtstreeks uit de framebuffer halen, maar dat is niet noodzakelijkerwijs hetzelfde plaatje dat je op de monitor ziet. nVidia heeft namelijk nog verschillende post processing functies die plaats vinden in de stap tussen het beeld uit de framebuffer halen en deze naar de monitor te verzenden.
Met welk programma'tje doe je dat?
Met welk programma'tje doe je dat?
Met elk willekeurig screen-capture proggie.
Of denk je dat bijvoorbeeld de capture functie in PSP het beeld ergens van je monitor kabel plukt terwijl het onderweg is? :P
Naast alle filters heb je natuurlijk ook verschillende implementaties van alle functies op videokaarten.Omdat ATI en nVidia niet voor iedere versie van hun kaart het wiel opnieuw gaan uitvinden proberen ze zich vervolgens met nieuwere kaarten zo veel mogelijk aan hun vorige implementatie te houden. Ze willen al hun kaarten compatible met de vorige hebben, Via die manier is het voor softwaremakers het duidelijks wat er van een kaart verwacht wordt, zonder dat ze de kaart zelf hebben gezien.

Als ze iedere keer de invulling van een standaard iets anders zouden maken, dan zouden softwaremakers natuurlijk helemaal gek worden.

Het is alleen jammer dat door deze "eigenwijze" opstelling er (op dit moment) 2 verschillende lijnen ontstaan. Van alle functies is er dus een ATI en een nVidia implementatie. (misschien nog wle andere van nog andere fabrikanten). Softwaremakers moeten vervolgens maar een middenweg kiezen zodat hun effect er op beide kaarten er goed uit ziet.

Eigenlijk zou het zo moeten zijn dat alle "functies" van een videokaart zo strak gespecificeerd zijn, dat er geen ruimte voor eigen opvatting meer is. Helaas is vaak van te voren moeilijk om iets zo exact te definieren.
Je wens is al verhoord.

Er IS namelijk al een standaard implementatie. Die is afgesproken in een overleg tussen systeem, videokaart en spel fabrikanten.
Die standaard heet DirectX 9.

De enige die het nodig vondt daarvan af te wijken, en zijn eigen implementatie te maken was NVidia. Zij zouden zelf wel eventjes de nieuwe standaard gaan neerzetten....

Je kunt alleen maar hopen dat NVidia flink gestraft wordt voor zijn arrogantie, zodat we over een paar jaar wel een eenduidige standaard hebben waar iedereen zich aan houdt.
Daar zijn spel fabrikanten en spelers beiden zeer bij gebaat. Alleen de videokaart fabrikanten moeten natuurlijk meer met hun billen bloot, en kunnen niet meer zo makkelijk hun zwakheden camoufleren, en sterke punten overbelichten.
dat is met name van toepassing op de 2D beeldkwaliteit: scherpte en kleuren bij hoge resoluties. Bij 3D games maakt het allemaal niet zo heel veel uit...
Ik heb de test op anandtech eens bekeken, en mijn (persoonlijke) conclusie is dat er inderdaad redelijk grote verschillen te zien zijn bij een 1 op 1 vergelijking van frames, vooral op het gebied van antialiasing.

Maar ik denk toch dat deze verschillen niet groot genoeg zijn om voor de een of de andere kaart te kiezen op basis van die verschillen: Antialiasing is idd een goeie feature, maar door stijgende resoluties (door oa krachtigere kaarten), neemt het nut ervan af.
Andere verschillen zijn (volgens mij) niet groot genoeg om op te vallen tijdens het spelen van die games, zonder 1 op 1 vergelijking. Ook denk ik dat deze verschillen sowieso grotendeels teniet worden gedaan door beter of slechter gekozen beelscherminstellingen, grafische opties in de games, etc.
Conclusie: ik vind heel het gedoe rond beeldkwaliteit in games overroepen....
Wat betreft die AA ben ik het niet met je eens. Ik draai standaard alles in 1280x960, maar ik zie het heel duidelijk als ik AA aan zet. Als het spel het toelaat, dan draai ik altijd in 4x AA.

Het grootste probleem bij aliasing is dat die pixels gaan lopen. En dat is dus bij een bewegend beeld veel hinderlijker dan bij een screenshot.

En verder is het natuurlijk zo dat je appels met peren wilt vergelijken. Duidelijk is dat ATI's AA veel beter is dan NVidia's variant. ATI's 2x is vergelijkbaar met NVidia's 4x. Dat is nogal relevant als je prestaties gaat vergelijken.

Wat betreft zaken als anisotrope filtering geef ik je wel gelijk. Die verschillen zijn vaak te klein om je zorgen over te maken.
Maar ik denk toch dat deze verschillen niet groot genoeg zijn om voor de een of de andere kaart te kiezen op basis van die verschillen: Antialiasing is idd een goeie feature, maar door stijgende resoluties (door oa krachtigere kaarten), neemt het nut ervan af.
Ben ik niet helemaal met je eens, want door het eveneens stijgende gebruik van lcd-schermen, die vaak een relatief lage maximale/optimale resolutie hebben, kun je vaak die erg hoe resoluties niet gebruiken, en is het dan dus juist fijn als AA wel goed werkt.
Inderdaad zie je de gloed van het zwaard dat hij VOOR zich heeft op zijn rug en achterhoofd.
Ik vraag mij af wie zich van deze verschillen wat aantrekt. Als je aan het spelen bent gaat alles zo snel dat je dit echt niet opmerkt. FSAA is imo veel belangrijker, zeker op een TFT scherm. Op mijn 17" TFT speel ik nu Star Wars KOTOR op 1027x768. Dan is FSAA eiegenlijk verplicht anders ziet het er niet uit...
Maar is de gloed of flare van het zwaard niet het gevolg van verstrooiing van het licht in de oog (of lens) van de toeschouwer i.p.v. verstrooiing door de omgeving (lucht?).

Als het de verstrooiing door de lucht wordt veroorzaakr mag de gloed niet over de schouder vallen maar als het oog van de waarnemer de verstrooiing veroorzaakt dan natuurlijk wel.
Het komt niet door je oog, maar door de luicht.
De render van Nvidia is dan ook gewoon fout.
Is dat effect van de gloed van de light-saber op de schouder van de Jedi niet hetzelfde effect wanneer je een pingpong balletje voor de zon houdt? dan wordt het balletje ook "kleiner", en lijkt het licht eromheen te "buigen".

Of ebn ik nu een }:O?
Dat effect bij dat balletje heb je alleen bij hele felle lichtbronnen. Verder is dat effect maar heel beperkt, en zal het de contouren van dat balletje volgen.

Bij de Nvidia render is het duidelijk dat de glow getekent wordt alsof het hoofd er helemaal niet is.

En dat is echt niet wat jij met dat pingpong balletje ziet. Probeer het maar.

Over buigen van het licht gesproken. Kan je je die zonsverduistering nog herinneren? Bij een "Nvidia zonsverduistering" zou je dus geen verduistering hebben :-)
betere uit op de nvidia kaart? ik vind dat die kaart zwaar overdrijft met zijn gloeieffect. Ik vind het gerenderde plaatje van ATI mooier dus het is ook zeker een kwestie van smaak.
Matrox heeft idd een geweldige 2D , en 3D valt mee als je niet te veel verlangt, maar dit is dus een test voor 3D; en voor het echte werk hinkt Matrox mijlen achterop ... (Matrox is dan ook niet meer bedoeld voor de games-markt, maar voor professionals die perfect 2D willen (en soms nog eens en 3D'tje willen)
2e keer dat ik zo'n reactie zie...

Hou a.u.b op over 2d en 3d vergelijking. De vergelijking die jij wilt maken heeft niets met 2d of 3d te maken, maar met de beeld output kwaliteit.

Als je een videokaart hebt die haarscherp beeld levert in 2048x1536 op je desktop, doet ie dit ook in Direct3D of OpenGL game.
Een videokaart van een boutfabrikant met nvidia chip die wazig beeld geeft boven de 1024x768 (heb er een paar gehad, gelijk solderen die handel) vanwege slechte output filters, is net zo wazig als in een Direct3D of OpenGL applicatie. (btw, boven de 1024x768 begint het op te vallen, betekent dat het beeld ook wazig is in 320x240, alleen zijn de pixels zo groot dat het niet stoort)

Dit heeft alles te maken met het kunnen onderscheiden van pixels, zodat pixels niet onderling met elkaar storen. Dit geeft een waziger effect. Hoe storingsvrijer dat circuit is, hoe scherper je beeld. Matrox gebruikte altijd hele goeie filters, vandaar scherp beeld. nVidia zou dit ook graag willen, alleen waren er fabrikanten die zomaar goedkopere onderdelen gingen gebruiken om zo kosten te besparen. Zolang ik weet heeft ATi ook altijd prima output gehad, misschien ook enkele fabrikanten die er mee hebben gerotzooid.
Persoonlijk vind ik dit dus geen issue, beeldkwaliteit van tegenwoordig, van een 'ok' merk, is altijd supergoed, niets op aan te merken.

Nou koop je echt geen matrox voor de 2d, want dat kan elke kaart tegenwoordig op het beeld gooien. Misschien dat matroxen sneller zijn in 2d berekeningen, een heel ander verhaal dus, maar dat betwijvel ik. Aangezien een snellere core en geheugen ook snellere 2d moet opleveren (zie nvidia/ati), zouden Matroxen al niet eens meer interessant zijn, tjah voor multimonitor grappen enzo. In een studio zou ik me zo'n matrox kaart kunnen indenken. Daarnaast is een output kwaliteit vergelijking alleen van toepassing op een analoge output, een DVI uitgang is digitaal en aangezien pixels op een TFT niet onderling kunnen storen wordt deze hele vergelijking al teniet gedaan.
Sommige tweakerbeez blijven te lang hangen bij iets wat ze ooit gehoord hebben, hou er nou eens over op.

In deze test word er gekeken naar de 3d kwaliteit op het gebied van de berekeningen die worden uitgevoerd door de kaart, heeft dus niets met output filters enzo te maken.

Wat ik nog even kwijt wil over deze test, is dat het natuurlijk altijd interessant is om de verschillen eens te zien, toch is het wel zo dat de verschillen tegenwoordig wel nihil zijn. Moet je de Voodoo kwaliteit eens bekijken, en hoe de eerste nVidia kaartjes renderden, niet echt geweldig, de gaten zaten in de muur van de onnauwkeurigheid (quake2)
Kijk eens hoe de eerste Triliniaire filtering eruit zag, niet erg vet hoor!. De Rendition Verite videokaarten renderden ook weer heel anders. Andere 16bit rasters enzo, niets was hetzelfde.
Het is tegenwoordig zo 'nice and smooth' geworden dat verschillen eigenlijk niet meer te zien zijn. Zelfs de kleuren zijn nagenoeg gelijk!. Dit soort vergelijking vind ik dus een beetje miereneukerij geworden, maar wel leuk om even te bekijken.

edit:


Wat me ineens te binnen schiet... vroeger waren de verschillen onder Direct3D niet zo heel erg groot, zelfs met 3dfx/nvidia vergelijkingen. Maar onder OpenGL spellen als Quake2 was het verschil heel erg duidelijk, andere kleuren etc.
Zullen er dan niet meerdere verschillen te zien zijn tussen nVidia en ATi onder OpenGL applicaties??

Heel mooie uitleg, petje af.
Maar op een paar punten wil ik toch nog wat bijsturen.
De Matrox Parhelia is gewoonweg een baggertrage kaart. Maar dat wil niet zeggen dat de 3D daarom niet goed kan zijn. Dus ik begrijp de mensen wel die vinden dat een Parhelia moestmeegenomen zijn in deze test. Feit is natuurlijk dat DX 9,0 niet volledig hardware matig ondersteunt wordt.
Ik heb lange tijd gewerkt met een ATI fireGL 8800 en ondanks heb ik een Parhelia met 256mb in mijn workstation geplaatst. Mijn 3D werk bestaat voornamelijk uit bouwkundig tekenwerk. Niet het meest extreme CAD/CAM werk dus. En ik moet zeggen dat ik na mijn eerste ontwerp versteld stond van de preciezie waarmee de Parhelia de afwerking van de objecten verzorgt.
Wanneer je op deze kaart wat 3D benchmarks los laat is het natuurlijk huilen met de pet op.
De gloed van de lightsaber ziet er inderdaad iets beter uit op de nvidia kaart, maar het is wel jammer dat die gloed ook op de schouder van de jedi zit.
Je kunt helaas ook aan de rechterkant van het lichtzwaard op het NVidia screenshot een verkleuring in de vloer zien die ingeveer 10x de diameter van het zwaard is bij de tip. Het lijkt bijna een vierkant vak te zijn waar het zwaard schuin in ligt. Op de schouder is dit het duidelijkst.

Ik vind dus dat ATI dit effect aanzienlijk beter weet te beheersen
Idd, nu je het zegt, de gloed om het zwaart(saber) is vierkant. en klopt niet. Waar op het eerste gezicht nvidia wint ben in het er mee eens dat ati het eigenlijk beter doet ondanks dat er geen gloed is.
Ik denk dat de vorm van de gloed niks met Ati of Nvidia te maken heeft, maar meer de shader die de spelmakers voor die zwaard gemaakt hebben. Als viedo kaarten nu opeens zouden gaan bepalen hoe de gloed moet verlopen op een 3D object, dan ben je nog verder weg van huis dan de fouten die je nu ziet.

Ik zie ook een groene gloed op de Ati rug, alleen veel minder. Kortom dit lijkt nu door nVidia te komen, maar is volgens mij gewoon omdat de alpha blending niet perfect is uitgewerkt in het spel wat nVidia kaarten duidelijker weergeven.
Ooit al eens op het idee gekomen dat dit ook zou kunnen komen door de programmeercapaciteiten van de makers van JK? ;)

Dat vierkant valt wel mee trouwens.
Waarom zou je daar van uit gaan als er maar 1 kaart is die het fout rendert?
Ik denk dat wat jij ziet als gloed op de schouder nog het zwaard is wat iets verder doorloopt. Volgens mij loopt het zwaard door tot aan de handen maar is het laatste gedeelte hiervan niet te zien omdat zijn arm ervoor zit.

Ik zie althans geen gloed op de schouder of ik ben blind natuurlijk :)
Als je goed kijkt zie je de gloed van het zwaard op het achterhoofd doorlopen, een foutje dus bij Nvidia lijkt mij, heb nog geen licht gezien welke een gloed op de achterkant van een blokkade kan geven.

Mischien is het in 32bit kleuren minder zichtbaar, maar in 256 kleuren (terminal sessie) loopt de gloed in het nvidia plaatje van de punt tot midden blote arm door op de achterkant van de Jedi :)
Hmm,.. misschien is dit met opzet gedaan. Fel licht bij een donkere voorgrond heeft dit effect namelijk.
Voorbeeldje (al is het niet helemaal wat ik zocht) : http://i.timeinc.net/time/potw/20011102/brightlight.jpg
Kijk eens beter naar dit plaatje. Bij Nvidia wordt de glow gerenderd alsof het hoofd er helemaal niet tussen zit.
Is dat wat je bij dit plaatje ziet? Dacht het toch niet.
En volgens mij is AA niet echt van toepassing blijkbaar :?
In mijn ogen blijft de gemiddelde kwaliteit van Ati beter dan die van NVidia.

In deze post http://www.tweakers.net/reacties/?Action=Posting&ParentID=885626 kreeg ik hier nog een Troll voor, maar als je kijkt naar het totaalplaatje (en niet alleen naar deze ene screenshot van Jedi Knight), dan zie je toch een algehele betere beeldkwaliteit bij Ati!

edit:

Raar dat een crew van AnandTech wel mag oordelen over de grafische kwaliteit, en een T-net gebruiker niet...
Mijn post is namelijk niet om NVidia zwart te maken, maar om mijn persoonlijke mening tegenover die van de AnandTech-crew te stellen.
Gaperd!

Lees ff de revieuw dan zie je dat die gleod helemaal niet de bedoeling was
Volgens mij (als ik goed naar beide plaatjes loer) ondersteunt Jedi Knight FSAA niet echt... Vreemde keus om dit spel toch in de beeldkwaliteits-test op te nemen dan.
volgens mij staat FSAA gewoon niet aan.
denk dat dit plaatje is bedoeld om de gloed te laten zien.
een gloed op je achterhoofd kan toch zowiezo niet? schijn maar eens in het donker met een zaklamp naar schuinboven, dan is je achterhoofd toch ook niet verlicht?

daarom vind ik de weergave van nvidia misschien wel mooier, maar het is niet gelijk aan de werkelijkheid.

ja, ik heb een ATi :)
een gloed op je achterhoofd kan toch zowiezo niet? schijn maar eens in het donker met een zaklamp naar schuinboven, dan is je achterhoofd toch ook niet verlicht?
Dat kan zeker wel. Kijk irl maar eens in het donker naar een lantaarnpaal die aan is, terwijl deze bijvoorbeeld 10 meter bij je vandaan staat, en dat tussen jou en de lantaarnpaal een boompje staat. Dit boompje valt gedeeltelijk over de lichtbron heen vanuit je oogpunt. Dan zul je zie dat het licht van de lantaarnpaal op 10 meter afstand, vr het boompje langsgaat die dichter bij je staat.

M.a.w. bij de ligthsaber is dat aspect bij nVidia realistischer als bij ATi.
Deels, want de lightsabre gaat van de persoon af. Het verschil in afstand is het grootst bij het hoofd. En juist daar zou dan een gloed optreden ?

Zoals het op de plaatjes te zien is is de versie van NVidia dus niet goed.
Leuk bedacht maar hier klopt helaas weinig van. Dat effect van die lantaarnpaal komt door overstraling: die lichtbron is geen ideale puntbron waardoor jouw ogen ook indirect licht opvangen. En dat licht is ten opzichte van de donkere achtergrond erg sterk, zodat jouw ogen dat als dominant ervaren.

Nee, ik ben het met een aantal van de sprekers hierboven roerend eens. De groene gloed op de achterkant van zijn hoofd en arm KAN niet, tenzij het licht meervoudig gereflecteerd wordt, en het plaatje geeft geen enkele aanleiding om dat te vermoeden.

Kortom, ATI is hierin iets realistischer dan nVidea. Maar uiteindelijk zegt dat niet alles want wie heeft bepaalt dat realistische weergave tot maximale tevredenheid van de kijker zou leiden?

Als dat zo was zou de Playboy er heel anders uitzien :9
@Tichelaar, wat jij beschrijft heet Radiosity. Er is geen videokaart die Radiosity-berekeningen doet en de gloed op het achterhoofd is daar dan ook niet afkomstig van. Hij is gewoon afkomstig van verkeerde rendering en dat is nog duidelijk te zien ook.
het kan aan mij liggen hoor, maar ik snap je verhaal echt niet.
Kan je een tekening ofzo maken van je verhaal (of het in het nederlands opschrijven?), want zoals het er nu staat begrijp ik dat jij twijfelt aan de rechtlijnigheid van licht....
Het is gewoon overduidelijk een bug van nvidia

Dit is de echter de tweede keer dat Anandtech dit plaatje gebruikt en de tweede keer dat ze deze bug uitleggen als beter plaatje.

De vorige keer was er daar bij anandtech zelf al ontzettend veel commentaar op gekomen. Maar ze trekken zich er niets van aan.

Hieruit blijkt gewoon dat anandtech niet meer objectief is. Heel jammer omdat ze de beste site waren nadat Tom zijn objectiviteit kwijt geraakt was.

Voortaan maar naar beyond3D gaan voor de reviews.

(Bovendien weet iedere SW fan dat de glow van de lightsaber bij Nvidia veel te groot is. Kijk eens bij elk ander spel en illustratie. De ATI lightsaber zit daar veel en veel dichter bij)
Mooie bug dan ;)

Bij die ati zie ik gewoon een enigszins doorschijnende keiharde groene rand, de nvidia geeft een veel 'natuurgetrouwer' beeld weer, voor zover je daarvan kunt spreken bij een plaatje van een lightsaber.
Dan moet je eens beter naar zo'n glow in werkelijkheid kijken. Die ziet er namelijk veel meer uit zoals bij ATI weergegeven.

Overigens is het natuurlijk belachelijk van Anantech om alleen die twee screenshots te laten zien en niet het resultaat van de reference DX9 renderer.

Ondanks dat het ATI screenshot veel natuurlijker is, is het veel belangrijker hoe de JK programmeurs het bedoeld hebben. En dat kan je op deze manier totaal niet beoordelen.

Deze review van Anandtech (en de andere twee in deze serie) zijn gewoon erg slecht. Het ligt ver onder het normale nivo van Anandtech. Erg jammer.
Hangt dat er ook niet van af hoe "hard" het licht is, en hoe sterk?

Mij lijkt het meer dat de Nvidia-saber meer licht uitstraalt en de ATi-saber op de energiespaarstand staat.
Waarom nemen ze nou ook niet even de tv out mee in de test. Daar besteden de fabrikanten nog steeds te weinig aandacht aan (en wat kost het nou..... niks :( )
En nou zeg je me wat, dat ik daar zelf niet even opgekomen ben. Dit is zeker heel belangrijk, gebruik zelf elke dag TV-out, voor zowat elk spel en elke film die ik kijk. Die van ATi was in de GF4 tijd nog duidelijk een stuk beter. Ik weet ook niet hoe dat nu is met nVidia, maar ergens zegt mij iets dat ATi ongetwijveld nog steeds beter is.
Heel erg jammer dat hier zo ontzettend weinig aandacht aan wordt besteed, het zal ze echt een worst wezen heb ik wel es. Die drivers van ATi zijn ook elke release weer wat anders geweest op TV-OUT gebied, soms hele vervelende problemen alsof er gewoon niet naar gekeken word. Jammer indeed!

Overigens is de TV-OUT van ATi wel de reden waarom ik ineens een ATi heb gekocht... kreeg me daar een dikke sony Trinitron 72cm tv, en toen zag die nVidia tv-out er echt niet uit!
Ook veel beter dat je met ATi 1024x768 op je tv kunt draaien.
Overigens is de TV-OUT van ATi wel de reden waarom ik ineens een ATi heb gekocht... kreeg me daar een dikke sony Trinitron 72cm tv, en toen zag die nVidia tv-out er echt niet uit!
Ook veel beter dat je met ATi 1024x768 op je tv kunt draaien.
Het slaat echt helemaal nergens op wat je nou zegt :? Die 72 cm valt nog wel mee, ik heb een Sony Trinitron 82 ;) En ik gebruik mijn Ti 4200 van nVidia voor TV-OUT. De beeldkwaliteit is super! En draait gewoon op 1024x768 :)

Ik heb het nooit kunnen vergelijken met ATi, dus ik kan niet zeggen welke mooier is, maar nVidia is beslist niet: 'ziet er echt niet uit' :) en draait dus ook op 1024x768.

Komt misschien omdat ik een dure Asus kaart heb, en jij misschien een budget kaartje ;) (niet lelijk bedoeld, maar zou misschien kunnen?)
Het klopt wel dat het beeld opzich wel ok is hoor :) anders zou je het niet eens kunnen gebruiken, dat gaat ook nog wel.
Misschien dat met wat nieuwere drivers en nieuwe tv-tool versies die 1024x768 wel mogelijk is, ik gebruikte die tv-out van een geforce4 ongeveer 1,5 jaar geleden, er kan best het een en ander verandert zijn. Toch blijf ik verder wel van mening dat de kwaliteit van de ATi een stuk aangenamer was en een tikkeltje scherper. Na een tijdje pal achter de tv een race spel te hebben gespeeld zag ik bij die nVidia vage vertikale strepen over het hele beeld. Dit heb ik niet bij de ATi's. Het valt niet heel erg op enzo, maar als je dan moet zeggen welke beter is, is dat toch ATi...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True