Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties
Bron: ExtremeTech, submitter: ferdinand

ExtremeTech bespreekt David Kirk's toespraak op de WinHEC2003, waarin het nodige op het gebied van de toekomst van 3D-graphics wordt besproken. Allereerst bespreekt Kirk de afgelopen tien en twintig jaar, en vraagt hij zich retorisch af of we de komende tien jaar een zelfde soort groei als in de afgelopen periode kunnen verwachten. In de nabije toekomst zullen GPU's op eenzelfde wijze "cinematic realism" weer kunnen geven als tot voor kort alleen door dure renderfarms voor hollywood-materiaal gedaan kon worden. Hierna gaat hij in op de toekomstige GPU in vergelijking met de toekomstige CPU's. Kirk is van mening dat de GPU-architecturen steeds meer naar CPU-architecturen gaan neigen, maar dat er een wezelijk verschil tussen beide zal blijven bestaan, omdat een GPU gericht is op het snel verwerken van grote hoeveelheden streaming-data, terwijl een CPU gericht is op het verwerken van data op verschillende manieren.

Internet algemeenDe integratie van 3D-graphics in het dagelijks leven stuit volgens de nVidia-topman nog op obstakels in zowel sociale acceptatie als de technologiŽen die op dit moment beschikbaar zijn. Bij toepassingen van deze technologiŽen zou gedacht kunnen worden aan een soort van "virtual-reality helm", die informatie op een voor de gebruiker zichtbare lens tovert. Lichtgewicht headsets die op een acceptabel niveau graphics weer kunnen geven zijn op dit moment nog niet beschikbaar. Toch denkt Kirk dat op dit gebied de komende tijd grote doorbraken verwacht kunnen worden.

Ook wordt er gesproken over het feit dat de huidige 3D-games niet volledig gebruik maken van de mogelijkheden die de hedendaagse GPU's bieden. Ook zou men zich meer op het verbeteren van de weergegeven pixels moeten richten, in plaats van het in steeds grotere hoeveelheden willen weergeven van pixels. Verder zou de GPU betrokken moeten worden in meer dan alleen grafische operaties:

Are GPU's limited to just graphics operations? Not at all, according to Kirk. Physics, collision detection, and other dynamic simulation problems are also now being performed with GPUs. You should check out this link for a number of creative uses of GPU horsepower beyond pure graphics functions.
Moderatie-faq Wijzig weergave

Reacties (49)

Je ziet in games en dergelijke een steeds verdere drang naar absolute realiteit (niet bij alle genres, maar bij de meeste wel). Zolang deze vraag naar betere graphics blijft bestaan, zullen de GPU's ook wel sneller en beter worden. Ik verwacht dus wel dat de 3D grafische prestaties spectaculair toe zullen nemen de komende 10 jaar. Ik kan verder hier geen verwachtingen over uitspreken.

Ik verwacht wel zoiets als die 3D bril, die samen met 3D geluid ons 'in' de games en films van dat moment laten zitten, maar hoe lang hier nog op gewacht moet worden voordat dit een acceptabel niveau heeft weet ik niet.

Mischien gamen we over tien jaar wel in een soort 'The Matrix' simulatiesysteem. Dat zou pas leuk en realistisch zijn. Maar ik kan dit natuurlijk niet met zekerheid stellen.

De toekomst zal in iedergeval anders zijn als nu. We zien wel hoe het word.
Mischien gamen we over tien jaar wel in een soort 'The Matrix' simulatiesysteem. Dat zou pas leuk en realistisch zijn.
die plug in de nek lijkt minder leuk... maar...
Misschien meer als het 'holodek' in StarTrek Voyager. Mogen ze van mijn part 7-of-9 ook meeprogrammeren :9
Ik herinner me een film genaamd "Existenz". Dat is vrijwel een Matrix-game environment, waarin je in een reŽle situatie speelt tegen anderen in die game.. maar wat daar allemaal fout kan gaan ;)
de plug lijkt idd minder leuk, maar er zal wel zoiets komen dat je op je nek "plakt" en zo de signalen overbrengt.

en reactie op NaliXL :
VR is idd niet echt geschikt voor games, want voor dat je het weet zit je tegen een muur op te lopen.


Andere toepassingen voor Matrix alike stuff is bv informatie projecteren op het netvlies van binnen uit

(allemaal nog Science fiction ja, da weet ik :) )
Ik heb mijn verwachtingen voorlopig meer gezet op een systeem gezet wat gewoon je zicht volledig kan overnemen. Dus dat je niet, zoals met de meeste huidige systemen, afhankelijk bent van een beperkt oppervlak om naar te kijken. Dat is een beperking die zelfs die VR-helmen nog behoorlijk hebben, heb ik wel gemerkt. Hoe dan ook : ik heb een jaartje of wat terug weleens gehoord over een soort laser-systeem, waarbij een beeld direct op je netvlies geprojecteerd word. Als dat je volledige netvlies bestrijkt, dan zou dat dus een geweldig systeem zijn.
Kan me voorstellen dat je het dan al af en toe bijna in je broek doet met een spel als Doom 3. }> :D
hehe als ik je stukje lees dan denk ik gelijk aan een tekenfim die ik vroeg keek, genaamd Johny Quest :D
dan deed je een soort koptelefoon op je likeroor en drukte je op de enter knop dan kwam er een lazer uit die over je ogen ging en dan was het net alsof je in de game Questworld kwam die johny dan speelde ofzo, maar in ieder geval was het heel gaaf :). als ze dat kunne maken dan hebben ze volgens mij wel het toppunt bereikt.
Ook wordt er gesproken over het feit dat de huidige 3D-games niet volledig gebruik maken van de mogelijkheden die de hedendaagse GPU's bieden.
Dit is nogal een voor de hand liggende conclusie. De ontwikkeltijd van een 'technologisch vooruitstrevende' game is relatief lang (neem nu Doom3 bijv.). Dan kun je niet verwachten dat de nieuwste technieken direct gebruikt worden.

Zeker niet als je kijkt naar bijvoorbeeld DirectX9, het duurt vrij lang voor deze software ook daadwerkelijk gebruikt wordt en nog langer voordat de features van DirectX9 gebruikt zullen worden omdat de wat oudere kaarten dan ineens een stuk trager worden omdat die een aantal features softwarematig moeten doen of helemaal niet kunnen en dat lijkt me dan ook meer een commercieel aspect.

Ook bouwen zowel ATi als nVidia specicifieke functies voor hun kaarten in die binnen DirectX9 niet ondersteund worden.

Ofwel 2 argumenten die de uitspraak van David Kirk nogal voor de hand liggend maken.
ik denk dat de ontwikkeling van nieuwe games met de laatste features de komende jaren eenvoudiger en sneller zal verlopen omdat men nu allerlei nieuwe standaarden voor pixel & vertexshaders aan het ontwikkelen is (GLslang of HLSL bv.), terwijl het vroeger nog onduidelijk was wat allemaal mogelijk was met nieuwe features.
Nu hoeven programmeurs zich gewoon bezighouden met die shaders, en niet meer met tientallen andere (opengl)-extensies.

en eenmaal ze een goed framework gemaakt hebben die shaders goed kan renderen is het een kwestie van nieuwe shaders schrijven en het resultaat zal onmiddelijk te zien zijn.
Zal ook niet meespelen dat niet zozeer de techniek maar de mens de beperkende factor is?

Zelfs al maken we de hardware en de software straks snel genoeg om de matrix in realtime te renderen, er zal iemand de modelen moeten maken en bewerken. En een model dat zo gedetaileerd is dat je niet meer het verschil tussen fake en echt ziet maar waar de artiest 2 jaar aan moet werken is waarschijnlijk niet echt economisch te verandwoorden, tenzij ze de prijzen van games heel erg zouden verhogen.
Dat is waar, maar eens er een standaardmodel is nemen verdere aanpassingen niet meer zo veel werk en tijd in beslag.

Stel: Je hebt het model van een mens. Als je voor ťťn onderdeel (lichaamsdeel, haarkleur, huidskleur) alle variaties hebt, hoef je die gewoon te veranderen en je hebt een totaal ander personage. Zo kan dat met mensen en verscheidene andere 'objecten'.

Bekijk het als met objecten werken in een object-georiŽnteerde programmeertaal, eens je een klasse gemaakt hebt hoef je die alleen nog maar te erven en/of aan te passen...
't is alleen dan jammer dat je dat standaard model niet kan gebruiken voor spellen. Een spel legt namelijk strikte beperkingen op; aantal polygonen, manier waarop het model is ge-rigged (hoe het skelet eruit ziet en hoe dat op de polygonen werkt), de stijl (heel belangrijk; hier kan een spel op doodlopen), de textures, de vertex en pixel shaders...alles moet goed passen.

Nu kun je heel af en toe hergebruik toepassen (vaak bij shaders en skeleten), maar vaak moet je dingen dusdanig tweaken om aan de specs te voldoen dat volledig van het niets bouwen een beter optie is. En dat zal wel een tijdje zo blijven.
ook hier staat de techniek niet stil he, met lasers kan met al behoorlijk gedetailleerde modellen maken zodat men gewoon iemand moet 'scannen' en dit gebruiken als model.
Als ik even het verschil tussen Doom 1 en Doom III bedenkt dan geeft dit wel zo'n beetje aan wat er op 3D gebied is veranderd.
Stel dat je over 10 jaar bijv een Doom 6 zou hebben hoe complex of realistisch zou deze in elkaar kunnen zitten?
Is het dan realistisch om te zeggen dat bijv de LCD technieken zo zijn verbeterd zodat je een monitor helm hebt met 270 graden visie en realistisch geluid en een 3D omgeving die zo echt is dat je niet zeeziek wordt als je die helm op hebt. (een van de manco's omdat je hersens zoiets niet aankunnen omdat je visie gekoppeld is aan de zwaartekracht)

En ik denk dat het realistisch om te zeggen dat de desktops dan op het nivo wat nu de grote renderfarms kunnen benaderen qua textures, polygonen etc. En dat die renderfarms nog veel eng echter zullen zijn dat je in de buurt komt als in de film 'S1m0ne' wordt voorgesteld.
Als je uitgaat van het huidige tempo waarin (desktop)computers krachtiger worden, dan evenaren we over 20 jaar de op dit moment krachtigste supercomputer op aarde...
Alleemaal leuk en aardig, maar wou dat ze eens een vette 3D standaard neertzetten, voor nu en de toekomst. Misschien dat we dan ooit eens van al die vervelende bugs afkomen. Vernieuwingen, prima. Maar 't is eigenlijk toch van de gekke dat er maandelijks nieuwe drivers uitkomen. En kijk es naar die waslijst aan fixes, krijg echt het gevoel dat we Beta-testers zijn. Tuurlijk, ken al de argumenten. Maar als iemand mij vraagt om een pc om zorgeloos mee te gamen krab ik wel ff achter mijn oren. En dat de heren zich verschuilen achter "de techniek" vind ik ook al magertjes. Nee, 't ligt niet aan de techniek. Het ligt aan het haantjes-gedrag, de eerste willen zijn. Vernieuwend. Op zich niks mis mee, ware het niet dat ze door de druk dingen gewoon te vroeg lanceren. En wie baalt er nou niet als nou net dat ene spel waar je helemaal gek van bent niet wilt draaien zoals het hoort.
Ik denk dat de vooruitgang van de GPU stopt wanneer de gerenderde beelden niet meer van de realiteit te onderschieden zullen zijn. Dan zal er geen behoefte meer zijn aan GPU's die sneller zijn en meer features hebben, de mens kan het immers toch niet meer onderscheiden.

Het mooiste dat ik tot nu toe gezien heb is 'Final Fantasy: The Spirits Within'. Ik wacht vol spanning op de volgende 3d-film. Nog 5 ŗ 10 jaar en we zijn er: realtime gerenderde fotorealistische beelden.

ArtificiŽle intelligentie daarenten zal wat meer tijd in beslag nemen. Stel je voor: elk personnage in een game heeft z'n eigen karakter, eigen intelligentie, verschillende gemoedstoestanden, persoonlijke meningen, eigen beslissingen gebaseerd op de omgeving,... Hiervoor is echt veel meer rekenkracht nodig, met name van de CPU, elk personnage zou wel zijn eigen CPU kunnen gebruiken.
In The Matrix Reloaded zijn ook stukken gewoon door computeranimaties 'gespeeld'. Daar hebben de 'echte' acteurs dus niks meer mee te maken...
Dat is eigenlijk al niet meer van echt te onderscheiden, terwijl ik bij Final Fantasy toch te vaak zag dat het computermodellen waren.

Wel een leuke film overigens.
StarWars Episode II ook. Zie DVD met extra's. 8-)
Even uitgaande dat de wet van Moore blijft standhouden, krijg je Final Fantasy niet over 5 tot 10 jaar real time.

Op sommige gebieden zijn de huidige 3D graphics nog diep triest. Echte schaduwen bijvoorbeeld zie je nauwelijks. En die paar die er zijn, zijn dusdanig gehacked (vanwege prestatie problemen) dat ze allerlei artefacten opleveren.
Realistisch haar, is ook zo'n lekker probleem. Dat vergt niet alleen verschrikkelijk veel polygonen, maar ook nog eens collision detection ertussen.
Maar dit zijn juist wel de zaken die nodig zijn voor cynematisch weergave.

In tegenstelling hiermee, is het juist de AI waar je wel enorme stappen zou mogen verwachten.
Niet omdat AI simpel is, maar omdat de huidige AI zo ongelooflijk stupide is. Eigenlijk mag je bij het gros van de spellen niet eens van AI spreken.
En dat is NIET omdat de CPU het niet aan zou kunnen, maar omdat de programmeurs er geen zin in hebben. En zolang de gamers het niet vereisen, komt het er niet in. En als ik kijk naar welke spellen populair zijn, dan zal het nog heeeeeel lang duren voordat er serieuze AI in spellen komt.
In de nabije toekomst zullen GPU's op eenzelfde wijze "cinematic realism" weer kunnen geven als tot voor kort alleen door dure renderfarms voor hollywood-materiaal gedaan kon worden
Als dat zo is vraag ik me af waarom men nog steeds massaal gaat investeren in renderfarms voor de filmindustrie. Ik denk dat ze zich bijnVidia weer aan't overschatten zijn wat betreft mogelijkheden. Het is een feit dat CPU's en GPU's steeds krachtiger worden. Maar als ik me niet vergis is er voor dat cinematic realism een hoop renderwerk vereist.
De mensen van het trein- of museum project zullen wel beamen hoeveel power er nodig is om iets heel realistisch op te bouwen. Volgens mij is dat met de huidige technologie niet haalbaar in 1 enkel systeempje.
Hangt van je definitie van 'nabije toekomst' af. Als je ziet dat tegenwoordig computerapparatuur het veelal maar 3 jaar uithoudt, dan wil een investering in een renderfarm dus zeggen dat je daar 3 (misschien wat meer) jaar mee vooruit moet, en dan weer moet upgraden.

Dus als het over 3 jaar al real-time op cine-kwaliteit kan, dan is een investering in een renderfarm nu nog een goede keuze.

En cine-kwaliteit heb je ook nog in verschillende 'sterktes'. Wat ze voor een film maken is vele malen beter dan wat bij computergames nodig is voor kwaliteit die 'goed genoeg cinematic realistisch' is. Kijk maar naar die info over toy story. Je kunt daar enorm veel data reduceren zonder dat veel mensen dat waarschijnlijk zien... Maar ja, filmbudgetten zijn zo groot, dus dat geld moet ergens aan op he... :)
Bij toepassingen van deze technologiŽen zou gedacht kunnen worden aan een soort van "virtual-reality helm", die informatie op een voor de gebruiker zichtbare lens tovert.
dat vind ik niet logisch, en ik denk dat niet veel mensen dat fijn zullen vinden

ik denk eerder dat er iets van een 3dscherm word ontwikkeld (en nee, anders dan die we nu hebben)
meer in de stijl van die hologramschermen die je wel eens op een beurs ziet hangen, en dat de kaarten daar op worden afgestemt
want wie wil nou de heledag met zo'n ding op zn kop zitten
Hopelijk heeft Nvidia rond die tijd zijn warmte uitstoot beetje onder controle anders zullen het vooral straaljager simulatie spellen zijn :+ met wel verbluffend realistisch geluid }>
en niet te vergeten het zuurstoftekort ;)
Komende jaren zal het denk ik gestaag doorgaan met de 3D-technologie. De GPU's worden sneller en sneller en zullen steeds meer taken van de CPU overnemen.

Zoals in de Matrix al te zien is, zal de computer een nog grotere rol gaan spelen in de vervaardiging van films, wat zal leiden tot spectaculaire camera-effecten en animaties van hoofd-figuren die door een mens normaal niet te doen zouden zijn. Haal menig hollywood-acteur maar alvast door de 3D-scanner, dan kunnen we ze later nog eens gebruiken. Sean Connery wordt er tenslotte ook niet jonger op :)

Eigenlijk is het heel moeilijk te zeggen wat er zal komen. 1 ontdekking kan de planning weer helemaal in de war schoppen. Daarnaast is de mens erg geneigd om door te denken op de huidige technologie (deze te extrapoleren). Denk aan de eerste star-trek films. Als je keek naar de computer die de crew gebruikte zag je allemaal lampjes en grote draai-knoppen, geen touch-panel te zien.
Tja... mensen worden er niet jonger op they're "only human" O+
Graphics in een spel zijn natuurlijk belangrijk.
Als een spel de realiteit goed benaderd wordt de beleving ervan een stuk intenser.
Neem bijvoorbeeld zo'n spel als Vietcong voor de PC, geweldig gewoon.

Toch vindt ik nog steeds het belangrijkste aan een spel de gameplay oftwel het spelconcept.
Een spel al Galaxian (de bejaarden onder ons kennen het vast wel ) :D blijfjt leuk, terwijl de graphics ondertussen toch wel antiek aandoen.
Bij een spel als Counterstrike is de gameplay echt belangrijk (ook in teamverband), de graphics mogen realistischer, maar die doen toch weinig aan het spel af. Als de graphics verbeteren maakt het het spel natuurlijk nůg beter.

Wellicht dat Condition Zero die grafische stap voorwaarts is :9

Grafische verbeteringen zullen er altijd zijn,
anders kunnen bedrijven als Nvidia en zo wel stoppen, dat is tenslotte hun enige bestaansrecht.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True