Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 107 reacties

Volgens Mark Rein, vice-president van Epic Games, krijgen we later dit jaar de eerste demonstratie te zien van Unreal Engine 4. Programmeur Tim Sweeney denkt echter dat de eerste games met de nieuwe engine pas in 2014 verschijnen.

Rein en Sweeney spraken tijdens DICE 2012 over de toekomst van hun veel gelicenseerde game-engine. Rein liet daarbij los dat versie 4 voor het eerst later dit jaar wordt getoond. Sweeney tekende daar later echter bij aan dat het nog wel tot 2014 duurt voordat de eerste games verschijnen die gemaakt zijn met de engine.

Over de technische specificaties van Unreal Engine 4 liet geen van beiden zich uit. Sweeney ging in zijn toespraak wel in op de toekomst van het technische aspect van games, maar hield het bij een algemeen verhaal over het bereiken van fotorealisme in games. Sweeney vermoedt dat ongeveer 2000 keer zo veel computerkracht nodig is als tegenwoordige systemen bezitten om een 'perfect' beeld te krijgen. Zo moet de framerate omhoog; het menselijk oog kan tot 72 frames per seconde waarnemen, terwijl beeld bij hedendaagse games op hooguit 60 frames per seconde wordt weergegeven.

In computertermen betekent dit volgens Sweeney dat 5000 teraflops nodig zijn om een fotorealistisch beeld weer te geven. Dat is ver van de huidige werkelijkheid verwijderd, volgens de programmeur. Voor de Samaritan-demo die Epic in 2011 toonde, waren 2,5 teraflops nodig. Sweeney stelde dat de Xbox 360 in staat is om 0,25 teraflops te halen, wat wil zeggen dat de opvolger van de Xbox 360 tien keer zo krachtig moet zijn om de Samaritan-demo te kunnen draaien.

Over de volgende console van Microsoft doen al veel geruchten de ronde. De verwachting is dat Microsoft de console tijdens de E3 van dit jaar gaat presenteren. Het hart van de console zou gevormd worden door een Radeon HD 6670 en de console zou zes keer zo krachtig worden als de huidige Xbox 360.

Epics Samaritan-demo

Gerelateerde content

Alle gerelateerde content (25)
Moderatie-faq Wijzig weergave

Reacties (107)

Fotorealisme vind ik een lastige term. Er komt zoveel meer bij kijken dan textureweergave. Animaties, framerate, lighting en polygonen. Maar zelfs als dat allemaal goed is zie je vrijwel altijd dat iets niet echt is, helemaal als je kijkt naar de emulatie van mensen waar zelfs de beste CGI niet goed genoeg is momenteel. Er is altijd iets dat je ziet waardoor je opmaakt dat het geen echt persoon is.

Deze CGI video is 1 van de betere die ik ken:

http://vimeo.com/7809605?hd=1

Hier zie je soms bijna niet dat het CGI betreft.
Ziet dr idd erg realistisch uit!

Vraagje: Heb je Cars2 gezien (ja ik weet dat het niet realistisch is :P)? Daar heb ik gemerkt dat ze realtime en animatie door elkaar gebruikt wordt. In een film snap ik hoe en waarom ze dat doen. Ik vraag me af of dit ook mogelijk is binnen games? Gewoon een wereld maken en daar textures overheen zetten die van een foto afkomen? Of is het te lastig/ veel werk om al die "reallife" textures gelijk te krijgen qua kleurstelling?

Ik vraag dit omdat ik het echt gaaf vond hoe ze dat hadden gedaan. Nu begrijp ik dat het bij een flim niks anders is dan een opgenomen film met daarvoor "geplakte" annimaties.

[Reactie gewijzigd door Mellow Jack op 13 februari 2012 12:56]

Zeker mooi.. Maar er zijn ondertussen al tientallen films waarbij je niet doorhebt dat je naar 3d gebouwen of characters kijkt.. Zoals de "Curious case of benjamin button"...
Jammer van die opmerking over "72 FPS". Er is geen vast aantal FPS dat onze ogen (beter gezegd, hersenen) waarnemen. Het hangt af van de snelheid/kleur/vorm/<voeg willekeurige eigenschap in> van het bewegende object. Afhankelijk van waar je naar kijkt kan 10 FPS al genoeg zijn om het vloeiend te laten lijken, maar het kan ook 300 zijn. En dat "zien" wij gewoon; er treden vervolgens allerlei natuurlijk effecten als motion blur op, maar hoeveel "FPS" wij kunnen "zien" is geen vast aantal.

Daarnaast kun je dit eigenlijk niet eens vragen in deze context. Een betere stelling was geweest dat wij pas bij 72 FPS de meeste bewegingen in games als vloeiend ervaren. Net zoals je voor video materiaal een soortgelijke vraag is hoeveel FPS je weer moet geven om geen flikkeringen te zien. Of in dat laatste geval de bewegingen vloeiend lijken weet je dan nog steeds niet, want dat staat daar volledig los van.

Edit: om mezelf even te verduidelijken, onze ogen "zien" niet in termen als "FPS". Het aantal frames dat op een monitor of TV wordt weergegeven pikken we ook niet allemaal op in de zin dat we elk frame volledig "zien". Meerdere frames worden als het ware over elkaar heen geschreven en dat is wat het "vloeiend" maakt.

Even wat linkjes erbij:
- BBC Research over >300FPS opname (op 100 FPS weergave) voor snel bewegende beelden (voetbal): http://downloads.bbc.co.u.../whp-pdf-files/WHP169.pdf
- Ietwat amateuristisch, maar wel simpel uitgelegd: http://amo.net/NT/02-21-01FPS.html + http://amo.net/nt/05-24-01FPS.html (staat ook nog wel wat leuks bij de references)

[Reactie gewijzigd door Werelds op 13 februari 2012 11:55]

Ouch. De Samaritan-demo zou dan te zwaar zijn voor de volgende generatie consoles, en de pc zou al meteen aan het begin een stuk betere beelden kunnen tonen? Dat zou een misser zijn zeg.
Nah, na optimalisatie kunnen de nieuwe XBox en de Wii U die wel draaien denk ik.
Voor de Samaritan-demo die Epic in 2011 toonde, waren 2,5 teraflops nodig. Sweeney stelde dat de Xbox 360 in staat is om 0,25 teraflops te halen, wat wil zeggen dat de opvolger van de Xbox 360 tien keer zo krachtig moet zijn om de Samaritan-demo te kunnen draaien.
En dat is hij lang niet met de Radeon HD6670 die ze gaan gebruiken. Die kaart doet volgens de specs 0,768 teraflops single precision. Komt dus niet in de buurt. Verdubbel het voor de cpu erbij plus optimalisatie, en dan haal je het nog (lang) niet.

Een enkele nvidia gtx 590 haalt wel nu al 2,5 tflops volgens de specs. PC zal dus flink voor lopen qua graphics. (hoewel flops een rare maat is en niet alles zegt)
Tsja.. als je rekening moet houden dat het allemaal niet te veel mag gaan kosten voor de consument, en qua totaal stroom verbruik en hitte het allemaal goed te doen moet zijn dan kunnen ze nu eenmaal geen high-end pc hardware gaan gebruiken als de basis van de volgende consoles.

Als je nu een leuk mini-ITX game kastje samensteld voor 400,- a 500,- dan heb je iets wat al over de (geruchten!) nieuwe xbox heen gaat (maar niet zo heel veel)... maar ze kunnen nu eenmaal geen 400,- a 500,- vragen voor een console lijkt me.

Sony wil absoluut geen console meer nieuw in de markt brengen voor 600,- zoals de eerste prijzen van de PS3, want daar was veel over te doen. Microsoft wil absoluut geen RROD verhalen meer... dan heb je niet al te veel keuzes.

Enige wat hier nog bij zou helpen is dat ze de consoles nog wel eens tegen verlies willen verkopen. Maar volgens mij doen ze dat alleen als ze vertrouwen hebben dat ze de produtiekosten in de loop van de jaren naar beneden kunnen krijgen.

De originele Xbox360 was geloof ik op 90nm gemaakt (gokje). Als ze nu beginnen op 28nm bijvoorbeeld moet je realistisch nadenken of het wel echt zoveel goedkoper kan na 5 jaar. Denk niet dat daar nu zoveel rek in zit als 5 a 8 jaar geleden.
[...]

En dat is hij lang niet met de Radeon HD6670 die ze gaan gebruiken. Die kaart doet volgens de specs 0,768 teraflops single precision. Komt dus niet in de buurt. Verdubbel het voor de cpu erbij plus optimalisatie, en dan haal je het nog (lang) niet.

Een enkele nvidia gtx 590 haalt wel nu al 2,5 tflops volgens de specs. PC zal dus flink voor lopen qua graphics. (hoewel flops een rare maat is en niet alles zegt)
Vergeet niet dat op de consoles op een laag niveau geprogrammeerd kan worden waardoor het maximale eruitgehaald kan worden. De 6670 zal in de console vele malen krachtiger zijn dan wanneer hij op de pc zou worden gebruikt. Verder is het ook niet duidelijk of het om de 6670 gaat of om een 7000-versie. De geruchten zijn verschillend.

De samaritan demo zou zeker wel gedraaid kunnen worden. De huidige 360 heeft een x1900 kaart. De 6670 is zoveel maal krachtiger en gezien het huidige niveau van graphics op de consoles kunnen we een aanzienlijke bump in graphics verwachten. Vooral gezien AMD avatar graphics heeft beloofd voor de volgende consoles.

[Reactie gewijzigd door Relief2009 op 13 februari 2012 12:03]

De samaritan demo zou zeker wel gedraaid kunnen worden. De huidige 360 heeft een x1900 kaart. De 6670 is zoveel maal krachtiger en gezien het huidige niveau van graphics op de consoles kunnen we een aanzienlijke bump in graphics verwachten
Ten eerste, de 6670 wordt niet gebruikt, bullshit, veel te oud veel te weinig rekenkracht, geen enkele reden voor, waardeloos gerucht zonder enige basis. Wat je zelf ook al aangaf :)

Ten tweede, de 360 is niet gebaseerd op x1900. Dat staat wel zo op wikipedia maar dat is ook niet waar. De Xenos GPU is een prototype van de R600 chip die in de HD2900 belande.

Ten derde, de 6670 is ongeveer 6x krachtiger dan de Xenos GPU. Hij haalt bij lange na de 2.5 TFLOP niet, dus gaat de samaritan demo zeker niet aankunnen. Voor de demo die Epic destijds heeft gegeven werd 3x een 580 in SLI gebruikt als ik me niet vergis, en close to metal programmeren heeft misschien een keer 40% winst in het meest optimale geval, dan nog komt de 6670 niet eens in de buurt van een halve 580, laat staan 3x.
[...]


Vergeet niet dat op de consoles op een laag niveau geprogrammeerd kan worden waardoor het maximale eruitgehaald kan worden. De 6670 zal in de console vele malen krachtiger zijn dan wanneer hij op de pc zou worden gebruikt.
Tip... het boeit helemaal niks :P Ook op de PC kan je zo laag programmeren. De 6670 is dus exact zo krachtig in een PC vergeleken met een console. Je moet dan wel direct de hardware gaan aanspreken en verlies je dus comptabiliteit (maar dat staat los van de stelling)
Ook op de PC kan je zo laag programmeren
Op een Xbox kan een programmeur blokken L2-cache claimen, en toewijzen aan bepaalde threads binnen de game.

Het lijkt me erg stug dat een pc met Windows dezelfde faciliteit aan programmeurs biedt.
PC =! Windows.

het enige wat ik zeg is dat het theoretisch goed mogelijk is op een PC

wat ik dus eigenlijk zeg, geeft de hardware niet de schuld van iets waarvan de oorzaak bij de software ligt (even los gelaten van het feit dat de software weer gedwongen wordt door de te ondersteunen hardware)

Edit: Vreemd dat wanneer ik dit bij een PC topic plaats gelijk commentaar krijg terwijl dit bij een telefoon topic vrijwel altijd wordt gemeld

[Reactie gewijzigd door Mellow Jack op 13 februari 2012 12:46]

En word dit dus nooit gedaan en is het dus een loze stelling.
Vergeet niet dat op de consoles op een laag niveau geprogrammeerd kan worden waardoor het maximale eruitgehaald kan worden. De 6670 zal in de console vele malen krachtiger zijn dan wanneer hij op de pc zou worden gebruikt.
Ik snap niet dat mensen dat maar blijven roepen. "Vele malen krachtiger" -- als dat zo is denk je dan niet dat AMD dat zou gebruiken om hun kaart als twee keer zo snel te promoten? Als je twee keer de performance kan halen uit je hardware, dat iedereen het er maar bij laat zitten op de PC? Tuurlijk, een low level optimalisatie zal je misschien 10 of zelfs 20% winst opleveren, maar vele malen krachtiger... Waarom een console als de xbox360 nu zo snel lijkt ten opzichte van de PC is omdat ze op een kwart van de resolutie draaien...
Ik denk dat je de overhead op een pc ook niet moet overschatten, als je naar huidige performance op consoles kijkt dan haal je hoogstens enkele tientallen % meer uit vergelijkbate hw op een console.
Ik denk dat ze wel aardig op weg komen met het close to metal programmeren wat op de consoles mogelijk is.
Denk het ook; met minder vertices (ik noem maar wat) en minder real-time berekeningen kan deze demo wel op de volgende generatie consoles draaien denk ik.
Ja en als je de textures nog wat naar beneden schaalt, dan kan het ook wel draaien op de huidige generatie consoles....

Dat is natuurlijk niet de bedoeling
Die optimalisaties betekenen in de praktijk dat ze de resolutie naar beneden schroeven en vervolgens de beelden upscalen. Er bestaan geen trucjes om 2 tot 3 keer zoveel pixels op je scherm te tonen. Met optimalisaties kun je hoogstens 10 tot 20% meer performance uit de hardware persen.

Zolang je de beelden niet naast een high-end pc toont met hetzelfde spel, zul je niet merken dat je naar beelden zit te kijken met 5 keer minder pixels.
Wat opzich niet boeit, omdat je bij een console vaak een meter of 2/3 er vanaf zit.
De Wii U is qua kracht ongeveer gelijk aan de huidige consoles (misschien iets krachtiger) dus zodra de volgende generatie consoles uitkomen loopt dat alweer achter. Dus de Samaritan demo op de Wii U? Waarschijnlijk niet mogelijk ;)
Consoles lopen al achter als ze gereleased worden, dat is niets nieuws. Daarbij komt dat er een betere specialisatie is in de bepaalde videokaart bij consoles.

OT: Unreal engines zijn toch erg populiar onder beginnende ontwikkelaars. Mooi om te zien dat de engine ook doorontwikkeld wordt. De video ziet er ook geweldig uit.
Volgens mij viel dat behoorlijk mee met de release van de xbox 360 als ik mij niet vergis en was dat behoorlijk gelijk of beter dan de grafische kaarten voor pc's die toen uit waren.
Mwah. Xbox360 videochip design lijkt op de ATI X2900xt (toen 'modern'), maar qua hoeveelheid shaders en power en zo komt hij meer in de buurt van de 1950XT (dus al oud). Dus toen de xbox360 uit kwam was hij netjes 'bij', maar nog geen 6 maanden daarna of zo kwam de 8800GTX en maakte de PC een gigantische sprong.

nvidia heeft het toen 'rustig' aan gedaan met de ontwikkelingen op pure ruwe kracht. ATI deed hun best om bij te benen, en met de GTX260 / GTX280 kaarten en de ATI HD48xx serie was er _weer_ een gigantische sprong in PC land. Relatief snel gevolgd door de grote sprong naar de HD58xx en Fermi.

Dus achterlopen gebeurd sowieso wel, en iets van de power van een 6670 lijkt me geen slechte keus. Ja, een 6850 was al veel beter geweest, maar als die al snel 120+ watt trekt en er moet dan nog een CPU bij dan zit je heel snel aan je limiet. Denk dat ze hem onder de 200 watt willen houden. 6670-'achtig' is gewoon de eerst volgende keuze, en qua productiekosten en powerdraw stukken beter om een leuk apparaatje van te maken wat niet mis-staat in je TV meubel.
Onder de professionele developers wordt de Unreal Engine echter niet zo gewaardeerd. Deze engine gebruikt namelijk erg veel dynamische allocaties die langzaam zijn. Daarnaast zijn sommige delen van de enigne enkel toegankelijk in Unreal Script en dat is een managed taal die ook langzaam is helaas.
Ouch. De Samaritan-demo zou dan te zwaar zijn voor de volgende generatie consoles, en de pc zou al meteen aan het begin een stuk betere beelden kunnen tonen? Dat zou een misser zijn zeg.
Dat is juist geen misser. Een console moet bereikbaar zijn voor het grote publiek, maar dat maakt ook dat het nooit de hardware zal bevatten van een super-high-end game machine. Een console met 2 videokaarten in SLI/Crossfire is een leuk idee, maar het zou 't ding ook onbetaalbaar maken.

Ik snap persoonlijk het fanatisme niet van PC gamers, die perse 60fps in 4K resoluties willen halen. Doe mij maar een console. Nu nog Full-HD, over X tijd gaan we 4K doen. Daarna? Hoeveel nut heeft 't opkrikken van de resoluties dan nog? Is het dan nog waarneembaar?
Console games zijn niet Full-HD. Een handje vol console games zijn 720P en 1080P games zijn met uitzondering van schaken nergens te vinden.

Je hebt mensen die vele duizenden euro's uitgeven om maar de beste geluidskwaliteit te behalen.

PC gaming is in die zin niet anders. High-end pc gamers willen optimaal van hun games kunnen genieten en zijn bereid daar wat meer voor te betalen dan de console gamers.

Er zijn ook miljoenen mensen die genoegen nemen met een goedkoop homecinema setje. Het hangt allemaal af van hoeveel je bereid bent er aan te spenderen. En met welke kwaliteit je genoegen neemt.

[Reactie gewijzigd door Seth_Chaos op 13 februari 2012 11:57]

Console games zijn niet Full-HD. Een handje vol console games zijn 720P en 1080P games zijn met uitzondering van schaken nergens te vinden.
Ik heb er toch diverse in m'n collectie anders. Maar het merendeel is inderdaad nog 720p. Niet dat iemand dat merkt.
Het hangt allemaal af van hoeveel je bereid bent er aan te spenderen. En met welke kwaliteit je genoegen neemt.
Klopt. Maar dan is de console markt de mainstream markt, terwijl high end game pc's van vele duizenden euro's in jouw analogie in het audiofiel segment vallen.

[Reactie gewijzigd door arjankoole op 13 februari 2012 14:13]

Die zijn allemaal gescaled naar 1080P. Geen enkele game op enkele na die in het begin uitgegeven zijn worden gerenderd op 1080P.

Alles wat op de Halo 3 engine is gemaakt haalt geen eens de 720P.
Dit is weer zo'n mooie "waarom een Porche, Ferrari of Audi als m'n VW Polo ook 120Km/u haalt?" stelling...

En het moment dat de VW airco en GPS nav krijgt, is dat toch wel echt het minimum en is iedere andere auto zonder minderwaardig. Terwijl alle bovenstaande merken-bestuurders dat al een jaar tegen je riepen.

Ik wil het graag omdraaien: Waarom denkt MS dat ze een jaren meedraaiende next-gen console kunnen uitrusten met een instap videokaart!? De norm voor "next gen" is langzaam toch wel 2GB (snelle) vram en iets over de Tflop voor graphics en MS kiest voor de Xbox een kaartje dat op 0.75 Tflop draait met slechts 1GB bandbreedte capped vram.

Deze tech demo is mooi hoor, maar ook weer niet ontzettend veel beter dan wat je tot nu toe hebt kunnen zien in Games / Demo's.

High-end performance anno 2010 (GTX 470 kaart is sneller dan een 6670) in een 2013 console en dan deze (ook niet helemaal nieuwe) techdemo niet kunnen draaien is naar mijn idee zeker een misser.

Alles wat Sony dan zou hoeven doen is de PS4 een 6950 / GTX570 geven en ze staan grafisch weer bovenaan met hun console. (maar goed, dat zijn ze niet van plan, dus MS heeft amper concurrentie en komen ze dus wel weg met goedkope matige hardware)
De xbox console doet het met de x1900 helemaal niet zo slecht. Dus een factor 10 hogere power mag je wel verwachten van nieuwe consoles.

Vergeet niet dat er op de pc nauwelijks gebruik wordt gemaakt van de grafische kracht. Technisch is de 470 vele malen sneller dan een 6670, maar devs halen uit een 6670 het maximale eruit terwijl er uit een 470 hooguit 20% wordt benut.

[Reactie gewijzigd door Relief2009 op 13 februari 2012 12:07]

20%? Dacht je dat echt? Misschien dat je 20% winst maakt in bepaalde situaties als je "direct" op de hardware kan werken, maar bij normaal gebruik zal het verschil echt niet hoger zijn. En de xbox doet het verschrikkelijk slecht, maar devs gebruiken een heleboel trucs om er voor te zorgen dat je dat niet ziet. Wie een beetje verstand heeft van 3D graphics ziet aan alle kanten (low poly count, low-res textures, geen AA, sub 720p resoluties) dat het zwaar verouderd is
Damn wat een mooie graphics, maar dit is een cinematic neem ik aan? Zou wel eens een testdrive/demo willen zien vanaf third of first person. Kijken hoe de videokaartindustrie hierop reageren, zal het Nvidia of AMD zijn die het eerst een kaart ontwikkeld met stabiele fps op ue4? We gaan het zien!
Het is een cinematic, maar dan wel real time, dus niet prerendered zoals in CG in film. Ikzelf werk nu 11 jaar in de visual effects industrie en elke keer val ik achterover van de eyecandy dat die mannen kunnen faken door slimme programming voor iets dat wij in veel gevallen bruut moeten renderen...heel demotiverend :'(

[Reactie gewijzigd door jan van akkere op 13 februari 2012 11:22]

Real time op 3 580 TI's. Dan is het nog bij lange na niet zo mooi als met echte raytracing met global illumination enzo.

Ik heb alleen een vaag vermoeden dat Epic met Intel heeft lopen praten en straks real time raytracing als renderer aan gaat bieden in UE4.

[Reactie gewijzigd door Wolfos op 13 februari 2012 11:44]

Deze video is van de UE3.
zal het Nvidia of AMD zijn die het eerst een kaart ontwikkeld met stabiele fps op ue4?
Deze vraag is echt onzin, wat heeft de engine nou met de framerate te maken? Ook als je in de UE4 een kubus rendert zal je boven de duizend FPS halen op zo'n beetje alle hardware.
Alsof je in UE4 geen low-end games kan maken...
Er valt een hoop te zeggen over dit stuk...
het menselijk oog kan tot 72 frames per seconde waarnemen, terwijl beeld bij hedendaagse games op hooguit 60 frames per seconde wordt weergegeven.
Dit geldt misschien voor getrainde ogen, meeste onderzoekers claimen dat het menselijk oog maar rond de 30 frames kan waarnemen. (ben ik het niet mee eens)
Sweeney vermoedt dat ongeveer 2000 keer zo veel computerkracht nodig is als tegenwoordige systemen bezitten om een 'perfect' beeld te krijgen.
Er worden altijd shortcuts genomen (zie bumpmapping, anistrophic filtering en betere renderingmethodes) waardoor de benodigde rekenkracht terugloopt en tevens mooi beeld te geven.
Sweeney stelde dat de Xbox 360 in staat is om 0,25 teraflops te halen, wat wil zeggen dat de opvolger van de Xbox 360 tien keer zo krachtig moet zijn om de Samaritan-demo te kunnen draaien.
Flops zeggen niet alles, zoals ik hierboven zei, er worden altijd shortcuts genomen. Het feit dat een dergelijk apparaat een quadcore en midrange-gpu met shared memory heeft zegt al een hoop als je naar de grafische kwaliteit kijkt. (Dat is zelfs nu nog redelijk)

[Reactie gewijzigd door Blue_Entharion op 13 februari 2012 11:20]

Dit geldt misschien voor getrainde ogen, meeste onderzoekers claimen dat het menselijk oog maar rond de 30 frames kan waarnemen.
Check de onderstaande link eens. Vrijwel iedereen kan het verschil tussen 30 en 60fps zien.
http://www.boallen.com/fps-compare.html
Niet helemaal eerlijk, want je monitor draait waarschijnlijk op 60Hz. Vandaar dat de 30 en 15 Hz voorbeeld judder vertonen. Dat is een ander effect dan puur de refresh rate. Het zorgt ervoor dat je objecten ook dubbel ziet. Hier wordt het goed uitgelegd: http://msdn.microsoft.com/en-us/windows/hardware/gg463407
Judder is the brain's way of saying: "What was that ?"
The reason you see judder is that your eyes and brain are trying to track the smooth motion of the object. If the video electronics presents the object in the wrong place (because it is just repeating the previous frame) then your brain gets confused and does a double take. That is the perceived judder.
(30 of 60 FPS in een spel scheelt 15ms input latency, en dat merk je wel zonder dat je het direct ziet.)

[Reactie gewijzigd door Zoijar op 13 februari 2012 11:28]

Ik ben het er zelf ook niet mee eens, maar vind jij een typische dvd/bluray choppy?

video is namelijk bijna altijd 24fps, ligt aan het toepassingsgebied denk ik.
Video is een ander verhaal. Lees het stukje onderaan die website eens. Voor spellen loopt 60fps enorm veel beter dan 30.
Video is totaal anders, zelf vind ik deze site wel een goede uitleg geven:

http://www.100fps.com/how_many_frames_can_humans_see.htm

Je merkt toch ook het verschil tussen 50/100/200Hz tv's
video is namelijk bijna altijd 24fps, ligt aan het toepassingsgebied denk ik.
En de 'nabewerking' die erop gedaan wordt. CRT-televisies hadden bijv. interlacing en de 'nagloei' van de pixels, waardoor de beelden veel vloeiender aan elkaar gelinkd werden. LCD televisies van tegenwoordig hebben '100-hz techologie' waardoor ze tussenliggende frames erbij bedenken of '200-hz technologie' waarbij er zwarte frames tussen de frames getoond worden. Er is ook 400 hz, geloof ik, en het is goed mogelijk dat ik alles door elkaar haal.

hoe dan ook: 24 hz zonder nabewerking op een LCD scherm is niet om aan te zien, zeker niet als je beweegt. Bij FPS games - waar de Unreal engine van origine voor gemaakt is - is dat nog belangrijker vanwege de snelle bewegingen die je maakt.
Films draaien vaak op 24fps, onder andere omdat dit het typische film effect geeft, niet omdat het het maximum waarneembare is.

Het verschil tussen 30 en 60FPS is overduidelijk. Hier is geen discussie over mogelijk. De http://www.boallen.com/fps-compare.html test zegt genoeg.

Het menselijk oog kan echter ergens tussen de 70 en 85FPS waarnemen, afhankelijk van het type scene/spel en persoon. Dit kun je makkelijk testen door een systeem(instelling) en monitor te gebruiken die de volledige 85 of 100Hz kan weergeven. Begin dan bijv. bij 60Hz, schroef de refreshrate op tot 70, 75, 85. Veel mensen zullen ook tussen 60 en 70Hz nog verschil zien en veel getrainde gamers tot 85Hz of soms zelfs nog iets hoger. Simpel en effectief. Ik ben blij dat het eindelijk eens ongeschreven wordt dat het menselijk maximum boven de 60FPS ligt.

60FPS is nog steeds behoorlijk vloeiend en prima speelbaar, begrijp me niet verkeerd, maar dat wil niet zeggen dat het maximaal waarneembare niet hoger ligt. Of dat 72FPS is betwijfel ik, maar in ben er zeker van dat het dichter bij het maximaal waarneembare ligt dan 60FPS. Mooi dat dit eens onderschreven wordt door mensen in de game industrie met een bepaalde status.

[Reactie gewijzigd door Yokozuna op 13 februari 2012 12:12]

Natuurlijk kun je het verschil tussen 15, 30 en 60 Hz zien. Geen enkele onderzoeker zal beweren dat je oog dat niet kan waarnemen. (Tenzij ze volkomen gestoord zijn.)

Je moet echter onderscheid maken tussen 'waarnemen' en iets 'als een vloeiende beweging' zien.

De sensors in je ogen hebben een verversings frequentie tussen ~50 en ~70 Hz. Is een beetje afhankelijk van het type sensor. De verschillende kleuren hebben iets andere verversingsfrequentie. Die ~70Hz is dus je waarnemingslimiet.

Maar dat wil niet zeggen dat je perse 70fps moet halen om een bewegend beeld af te beelden. We weten al heel lang dat 24fps (analoge film) voldoende is om de illusie van een vloeiend bewegend beeld te scheppen. Dat is simpelweg een interpretatie van je hersenen van het beeld dat de ogen leveren. Ga je daar ver onder zitten, dan gaan de hersenen het als aparte beelden interpreteren.

Het verschil tussen 30 en 60fps is derhalve wel degelijk waarneembaar, maar het valt niet direct op. Het verschil tussen 15 en 30 fps is opmiddellijk opvallend, omdat je hersenen die 15fps als aparte beelden interepreteert.
Je kan echt makkelijk het verschil tussen 30 en 60FPS zien, en in racegames bijvoorbeeld is dit een must.
Ik kijk erg uit naar de engine. Epic Games maakt altijd wel mooie en duidelijke engines waar mooie dingen meegemaakt kunnen worden. Ik ben benieuwd of de volgende generatie consoles de engine goed zullen aankunnen. Er is nog weinig over de volgende generatie consoles bekend en dus moeten we echt even afwachten tot die specs bekendbaar gemaakt worden.
Zover ik weet is de unreal engine behoorlijk schaalbaar. Tuurlijk moeten bepaalde toeters en bellen terug geschroefd worden, maar mooie plaatjes zullen er wel uit gehaald kunnen worden. Bovendien wordt er constant aan de engine gesleuteld.

[Reactie gewijzigd door D-rez op 13 februari 2012 11:13]

Kijk wel uit naar deze demo, toen de unreal 3 engine pas uitkwam viel bij iedereen het kwijl uit de mond. De verwachtingen zullen dan ook erg hoog zijn aangezien dat toen een van de beste engines was op dat moment, verwacht eigenlijk niks anders. De enige engine die meekon op dat moment was de crytech engine dus dit beloofd ook weer een stevige competitie te worden tussen de 2.

Hopelijk ook een nieuwe unreal tournament game :D.
Dat ze deze engine een toepassen op UT99 en dat ze dat spel eens een graphics update geven :+

Het lijkt me in ieder geval een goede engine.
Als MS serieus een GPU op basis van een Radeon HD 6670 in hun nieuwe console gaat stoppen dan koop ik dat ding dus zeker niet.. Mijn Nvidia GTX570 van bijna een jaar oud is al veel sneller.. Lijkt me dan ook een beetje onzin bericht, ik kan het me niet voorstellen dat MS niet meer voor highend gaming gaat maar net als Nintendo voor "budget"..
Ik vind het wel prima dat het nog lang duurt totdat we fotorealistisch beeld hebben. Als we daar zijn valt er verder weinig te verbeteren. Het filmpje ziet er al erg indrukwekkend uit.

Dat het menselijk oog tot 72 frames per seconde kan waarnemen is ook leuk om te lezen. Zijn we ook gelijk klaar met die discussie.
Huh ? Doe mij maar direct fotorealisme, dan hoeven we ons daar geen zorgen meer over te maken en kan men zich focussen op gameplay en mooiere animatie.
Wat ik bedoel is dat we de komende jaren telkens weer kunnen genieten van betere graphics. Direct het beste krijgen zorgt ervoor dat je niet meer kan genieten van de stappen die er tussen zitten. Beter dan fotorealistisch is er niet. Het is ongeveer hetzelfde als moeten werken voor steeds betere spullen. Dan geniet je er meer van dan dat je 20 miljoen hebt en alles wat je wil direct kan kopen.
Nouja, beter dan fotorealistisch... Als we daar ooit geraken zullen ze denk ik wel speciale effecten toevoegen die toch weer meer verwerkingskracht nodig hebben.
Nou, 'beter dan fotorealistisch is er niet' vind ik een gewaagde opmerking. Realistischer dan fotorealistisch is er natuurlijk niet, maar er zijn nog zat interessante grafische mogelijkheden die het menselijk brein nog ná fotorealisme bezig kunnen houden.
Dan doe je gewoon wat research en kom je er achter dat het ook zeker geen 72 "fps" maximum is, in de ooghoeken namelijk een stuk hoger wegens het ontbreken van detail, en veelvouden van 72 met daar kleine schommelingen in kan je ook nog relatief eenvoudig onderscheiden!
wat mensen maar niet willen begrijpen is dat de menselijke ogen / hersenen helemaal niet als een soort 'FPS' systeem werken,


Ik sluit me trouwens aan bij Yokozuna

En ik raad iedereen aan om een keer Quakeworld (of een ander derivaat) op 120 of 160hz op een CRT te spelen, het is zo ontzettend vloeiend!
Ik geloof het anders wel. 72FPS zit veel dichter in de buurt van het menselijk maximum dan 30 of 60FPS en ik zal vertellen waarom.

Je kunt dit zelf heel simpel testen. Vroeger speelden we bijvoorbeeld Quake1/Quakeworld op systemen die het spel makkelijk met 200FPS konden draaien. De CRT monitoren die we toen hadden waren dus de 'limiterende' factor. Refreshrates konden vaak opgekrikt worden tot 100 of 120Hz. Door de refreshrate in shooters in te stellen tussen 60-70-75-85Hz-100Hz enz. kon je zien vanaf waar je niet meer kon zeggen dat het vloeiender ging draaien. De sweetspot lag, afhankelijk van de persoon, tussen de 70 en 85Hz. (veel gamers stelden ondanks dat de refreshrate in op 100Hz+, meer omdat het kon, dan dat het nuttig was). Dit was het geval voor vrijwel alle Quakeworld gamers waarmee ik op LAN parties heb gespeeld en dat zijn wel een aantal schoolklasjes vol.

Dit neemt niet weg dat je 60FPS over het algemeen gewoon kunt beschrijven als "vloeiend", maar maakt het wel aannemelijk dat de meeste gamers wel degelijk meer dan 60FPS kunnen zien. Daarom zagen velen nog het verschil tussen 60 en 75Hz. Het verschil is voor vrijwel iedereen na een simpele test gewoon zichtbaar. Simpel.

Dat films nog steeds op 25 of 30FPS draaien, heeft niet te maken met het menselijk maximum, maar met het typische film-effect dat deze lage framerate geeft. Het effect dat gewenst is bij dergelijk medium.

[Reactie gewijzigd door Yokozuna op 13 februari 2012 11:59]

Ik heb zelf een helicoptertje gemaakt in de 3dstudio max, met draaiende wieken..
Gerenderd op 60 fps, 120fps en 200fps, en afgespeeld op een 200Hz monitor.. je ziet DUIDELIJK het verschil tussen 100fps en 200fps..
Daar kwam ik achter in 1999.. Jammer dat de discussie na 13 jaar nog steeds op gang is.
En nu zitten we (bijna) allemaal met onze 60hz TFTtjes :'(
Het verschil tussen 60 en 70Hz was uitermate zichtbaar, bij 60Hz had je zo'n flikkering in je beeld, heel onrustig, bij 70Hz een stuk minder, 85Hz was lekker rustig beeld.

Toch zijn er een aantal figuren(straaljagerpiloten, F1 coureurs) die wel het verschil tussen 120Hz en 240Hz op CRT zien, maar dit is een enkeling. Op een lcd is het verschil veel slechter merkbaar en maakt het minder uit.
Dat heet Narcisme
Of je bent gewoon beter. Er moet iemand nr1 zijn ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True