Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 95 reacties, 23.735 views •

De Samaritan-demo van Epic's Unreal Engine 3, die vorig jaar voor het eerst werd getoond, is opnieuw gedemonstreerd, maar nu op een enkele Nvidia Kepler-kaart. Eerder waren daar nog meerdere Nvidia GTX580-kaarten voor nodig.

Epic Games logo nieuwVolgens een interview dat Venturebeat van Epic-topman Eric Rein afnam, is er maar een enkele Nvidia Kepler-videokaart nodig om de Samaritan-demo in Unreal Engine 3 soepel te renderen. Met die demo wilt Epic tonen wat zij verstaan onder 'next-generation 3d graphics in a game'.

De demonstratie van nu toont een enorm verschil aan met maart vorig jaar toen er nog drie Nvidia GTX580-videokaarten, met een enorme psu, nodig waren om de demo te renderen. De Kepler-architectuur is de volgende stap in Nvidia's line-up. Nvidia's GeForce GTX 600-lijn zou nog moeten uitkomen in het eerste kwartaal van 2012, vermoedelijk eind maart of in april.

De nieuwe engine van Unreal kan, met behulp van Adobe Flash 11.2, ook in de meestgebruikte browsers draaien zoals Safari, IE, Firefox en Chrome. De Flash-versie, waarvan enkel nog maar release candidates bestaan, kan direct grafische kaarten aanspreken, in plaats van enkel op de cpu te draaien. Dat kan al sinds Flash 11, maar de 11.2-update verbetert die functionaliteit.

Epic is ook bezig aan de ontwikkeling van Unreal Engine 4, maar zal deze pas uitbrengen als de volgende generatie consoles uitkomen. Tot dan blijft het verbeteringen doorvoeren aan de huidige, derde generatie engine. Het eerste spel dat gebruik maakte van Unreal Engine 3 was Gears of War, dat in 2006 uitkwam.

Reacties (95)

Reactiefilter:-195085+136+26+30
Moderatie-faq Wijzig weergave
Kwam volgens Nvidia niet alleen door de Kepler maar ook door de Fast Approximate Anti-Aliasing (FXAA) van Nvidia

http://www.fudzilla.com/h...on-kepler-gpu-at-gdc-2012

http://www.hardocp.com/ar...antialiasing_technology/1
ik weet niet wat mijn verwachtingen waren maar dit lijkt mij niet echt geweldige graphics.
die spiderbot rond 2:45 liep wel soepel, maar de matige JJ Abrams lens flares en de slow motion druppels in het begin die na het valen in duizenden deeltjes uitspatten. :D

meh de laatste tijd komt er niks spectaculairs meer, alleen de oudere graphics worden beter ondersteunt op nieuwere hardware, maar echte vooruitgang is er voorlopig niet meer.

en als een niet-blanke persoon valt het mij wel op dat de bad guys niet blank waren :>
ik kijk al uit naar de Unreal 4 engine :)
dit is al vrij strak
inderdaad wat een graphics en belichting vraag me ook af wat de unreal 4 engine dan wel niet kan
Mischien zal de U4 engine veel kunnen, maar je zult het toch nooit te zien krijgen.
Dit is een demo van de U3 engine en ik heb nog nooit een game gezien die zoveel data wist te verstoken.
Want dat is namelijk het punt.
In dat filmpje hierboven zit zo belachelijk veel informatie dat je daar rustig meerdere 'normale' games in zou kunnen omderbrengen.

Neem als voorbeeld Rage.
Op de pc is die zo'n 20G geinstalleerd.
Rage is dan een relatief korte game met weinig lokaties.
Qua kwaliteit komt Rage echter lang niet in de buurt van wat in dit filmpje te zien was.
Het zou me niet verbazen als die ene lokatie in het filmpje al meer dan 20G aan data in beslag neemt, laat staan dat je meerdere levels wilt maken in die kwaliteit.

Verwacht dus niet dat je heel binnenkort dit soort graphics gaat spelen.

Edit: Was nog even vergeten op te merken dat de textures in Rage zwaar gecompressed zijn met een jpeg-achtig algoritme, daar is in de U3 demo niks van te zien. :)

[Reactie gewijzigd door koelpasta op 8 maart 2012 18:59]

Niet alle data hoeft van disk te komen, er wordt tegenwoordig ook veel procedureel gegenereerd in runtime. Mooiste voorbeeld blijft fr-08 the Product, een 3D demo in 63.5 kb. :D

Verder heb je helemaal gelijk dat deze scene qua shading/effecten/textures een bijzonder hoog detailniveau heeft. Maar daar zit ook meteen de crux, het is ook maar een enkele scene. Het is nog een heel ander verhaal om een hele (open) spelwereld op dit niveau te renderen. Natuurlijk heb je LOD (popup) e.d. maar dat wil je nou net niet om deze kwaliteit te halen.

Met snellere/betere GPU's en API's is er natuurlijk wel steeds meer mogelijk. Ik herinner me nog een fragment uit een Unreal 3? demo filmpje waarin lachend een character getoond werd waarin in meer polygonen/textures etc. zaten dan een heel level uit de eerste Unreal.

[Reactie gewijzigd door d3vlin op 8 maart 2012 20:23]

Zeg nooit nooit, de tech demo's van 10 jaar geleden zouden er nu ook aardig oud uit zien. Dat het lang kan duren voor het er uit ziet zoals in deze trailer wil ik wel geloven.
"Zeg nooit nooit,"

Met nooit bedoel ik nooit binnen de generatie van de U4 engine.
Tegen de tijd dat we bij U5 of U6 zijn zal het wel anders zijn.
We krijgen het vast wel te zien als de volgende generatie consoles uitkomen.
Dat kan mij niet snel genoeg zijn als PC gamer ;)

UT2012 assault lijkt me wel wat :)

Vwb de perf .GTX580 tri SLI vs GK104, de UE3 zal ook wel wat geoptimaliseerd zijn denk ik.

Ik zal er veel voor over hebben deze demo eens zelf te kunnen draaien sgghhh..

Overigens is er wel een glimp van te zien in de nieuwe Unreal UDK:

http://www.udk.com/news-beta-feb2012

[Reactie gewijzigd door edward2 op 8 maart 2012 20:55]

ik heb graag (en ik denk meerdere mensen met mij) 100 euro over voor een game van deze kwaliteit als deze bijvoorbeeld op een HDD systeem geleverd zou worden ipv DVD/BLU-RAY/Download.

Kunnen ze gelijk een hardwarematige copyprotection maken waardoor piracy minder word (hoewel Epic nooit echt moeilijk deed daarover).

Biosfilms worden ook al op schijf geleverd om een voorbeeld te noemen :P
Als ik het goed begrijp (en dat kan best van niet :P),

is het voornamelijk de workflow / tools

http://www.gametrailers.c...out-of-epic-vp-mark-rein/

maar grafisch gezien zal er ook wel een grote push zijn, of een compleet andere setup. Workflow is heel belangrijk, maar zal niet het 'jaw-drop' effect hebben waar hij zo trots over sprak , denk ik.
al verbetere ze alleen maat de belichting dan ben ik al bij (als het ooit gebruikt gaat worden)

ik vind de belichting in alle games echt zwaar waardeloos.
ik speelde gister syndicate en ik kon bepaalde dingen in het spel niet eens zien omdat er een lichtsource in de buurt was die de hele kamer en dus mijn scherm wit van het zogenaamde licht maakte.
ook ramen waarbuiten de zon schijnt zorgen dat je gewoon niks meer kan zien in de hele kamer wat gewoon ver van de werkelijkheid is en niks toevoegt.
sterker nog het verpest de game experiance omdat ik alle ruimte waar deze zooi in gepropt word snel verlaat en ik heb games gehad die ik zelfs zo weg gepleurd heb vanwege het continu gebruik van lichteffecten die me blind maken.
Vind je, ik heb dit filmpje nu al 5 keer op zien duiken in verschillende nieuwsberichten en ik begrijp echt niet wat er nou zo speciaal aan is. Ik zie het verschil niet met de Unreal 3 engine, want deze heeft zo te zien dezelfde nadelen: te veel bloom accenten op de verkeerde dingen. Alles lijkt van metaal/glanzend plastic. Ik word hier nou niet bepaald enthousiast van, laat onwikkelaars liever een engine maken die goed met physics om kan gaan. Een geestelijke opvolger van Garry's mod zonder de limitaties van de source engine zou niet misstaan.

[Reactie gewijzigd door Neophyte808 op 8 maart 2012 19:45]

Die bloom effecten zijn een artistieke keuze. Het gaat ook meer om de surfacing denk ik. Alle karakters in UE3 zien er nog veel kunstmatiger uit. Ook is de belichting van deze demo veel verder. Ik ken niet veel engines die fatsoenlijk hun karakters kunnen belichten met omgevingslicht. Frostbite 2.0 doet dat bijvoorbeeld door het gewoon heel donker te maken of heel licht waardoor er weinig subtiliteit in moet.

Epic zou dit moeten combineren met de technologie van Rockstar voor facial expression. Ik denk dat, omdat het gezicht van die kerel er al zo realistisch uit ziet, het jammer is dat hij zich nog niet natuurlijk beweegt. Daar ga je je dan sneller aan irriteren. De robot beweegt trouwens ook niet heel vloeiend.

[Reactie gewijzigd door JohnAD op 9 maart 2012 13:42]

Een enkele kaart met een enkele chip? Ik kan me niet voorstellen dat de 600-serie een verdrievoudiging van de rekenkracht gaat opleveren. Ongetwijfeld is het de grootste winst behaald op optimalisatie en niet pure rekenkracht. Desalniettemin ben ik zeer benieuwd wat de winst wordt met de 600-serie en hoe deze zich zal verhouden tot AMD's 7XXX.

Wat is hier trouwens offtopic aan? Meneer soldaatje hierboven krijgt wel ontopic?! Kom op zeg...

[Reactie gewijzigd door Maruten op 8 maart 2012 19:31]

Ik denk dat je zelf ook wel beseft dat ze flink veel optimalisatie hebben toegepast. Het zou me niet verbazen als je deze demo met een 7970 met gemak kan draaien.

Nvidia is ook een grote sponsor van dit soort projecten. Dan is het niet gek dat ze gebruikmaken van een Nvidia kaart.
Wanneer er 3 GTX580's voor nodig zijn ga je dat met een nagenoeg gelijkwaardige HD7970 niet redden hoor ;)
Jij denkt dus dat de Kepler 3x zo snel wordt als de gtx580? Ze hebben gewoon enorm veel geoptimaliseert. Stel dat de Kepler 20% sneller wordt dan de HD7970 (wat best een prestatie is) dan draait die HD7970 het wss ook vrij aardig.
als dit echt zo is dan wordt de 7000 series weggeblazen met een verdrievoudigen (ervan uitgaande dat hij even sterk is als 3 gtx580) want één gtx 580 is niet zo veel slapper dan een hd 7970 qua gaming

reviews: XFX en Asus HD 7970-kaarten in de ring
3x gtx580 in SLi is niet even snel als 3x een enkele gtx580. Er gaat altijd wat prestatie verloren aan het verdelen van de rendering taak. Je krijgt in een SLi setup dus nooit 60fps waar een enkele kaart 30fps zou halen. Hoe meer kaarten, hoe minder prestatiewinst je uit die kaarten haalt.

Verder kan het zijn dat 2x 580 nét niet genoeg was voor een constante 30fps.

Een verdrievoudiging van rekenkracht is dus niet nodig om Samaritan vloeiend af te spelen.

Optimalisatie zal ongetwijfeld een rol spelen en het is goed mogelijk dat de pure rendering kracht met 50-70% verhoogd is. Dat zou al genoeg kunnen zijn, denk ik.
Als je recente benchmarks bekijkt, kan je zien dat ze behoorlijk in de buurt komen van verdubbeling/verdrievoudiging. Ok, het zal niet exact 3x zijn, maar het zal er ook niet ver vanaf liggen. De scaling is een stuk beter dan vroeger.
Ik ben zeer onder de indruk hiervan, zeker als je bedenkt dat de engine natuurlijk al 6 jaar oud is, wat zou de unreal engine 4 dan wel niet kunnen :9~
Ik ben niet onder de indruk.
En wel om deze reden.

De game engine is het fundament kwa features wat mogelijk is.
Een brede feature set kan je wat meer mee.

Maar de content samen met de rekenkracht bepaald ook veel of het impact maakt.

Je kan Lichte content draaien op state of the art engine en dan valt het ook reuze mee.
Of zware complexe content die kwa thema goed gekozen is en brede effecten van een oudere engne benutten.

Daarnaast de impact van elke nieuwe feature wordt ook steeds minder.

De stap van 2d naar 3d is groot. De stap van wireframe naar flatshaded is groot.
De stap van naar hardware testalatie is wat subtieler en is toch een van de meer zichtbare nieuwe features.

Goed voorbeeld is Crysis wat meer een DX9 games met optionele dx10 init waar weinig mee gedaan werd.
Call of juras concurent deed meer met DX11.

En san zie je dat huidige stappen veel subtieler zijn.

Want de impact van bijna phote realistisch render tot phote realistisch renderen is dan ook meer een subtiel verschil

Probleem is vaak ook dat nieuwe features klienschalig benut worden en daardoor amper meerwaarde brengen.
Het probleem is niet zozeer dat de features kleiner worden.
Dat worden ze wel, maar dat is niet het basisprobleem.
De hele rendering pipeline zoals die geimplementeerd is op graka's heeft gewoon grenzen.
Wil je het er beter uit laten zien dan moet je met veel meer data moeten aankomen in de vorm van textures, polys en shaders.
Dat schaalt dus niet.
De volgende stap gaat meer richting ray-tracen of soortgelijke technieken.
En die vereisen weer ontzettend veel rekenkracht.

De grote stap die nu voor de deur staat is ambient occlusion.
Het wordt al hier en daar toegepast en lost een deel van de benodigde berekeningen op, namelijk die van indirect licht.
Dat is dus alvast een stap in de goede richting maar het gaat nog wel even duren voordat we echt photorealistiche games kunnen spelen.
Dat krijg je alleen voor elkaar met andere rendertechnieken dan wat we nu gewend zijn.
Engines worden zelden compleet herschreven. De huidige versie van UE3 (die uitgebracht word als UDK) word maandelijks voorzien van updates. De engine is dus niet 6 jaar oud, er zit alleen code in van 6 jaar (en langer) geleden. Ditzelfde geldt voor bijna iedere andere engine op de markt. Source engine ziet er nu ook een stuk beter uit dan toen HL2 uit kwam.

Ik vermoed dat UE4 een verbetering in gebruiksvriendelijkheid zal opleveren. Op dit moment is bijvoorbeeld Unity flink onderweg om UDK van de troon te stoten als development platform. Wat graphics betreft denk ik niet dat er veel zal veranderen, alleen makkelijkere implementatie van bestaande technieken. En het zal vast ook wel beter geoptimaliseerd zijn.
Is het niet de taak van een engine om de gamebeelden netjes terug te schalen naar minder snelle hardware? Anders is het zometeen hetzeflde als met Crysis: dat werkte pas twee jaar na release op een normale pc.

Maar zelfs het filmpje kan ik nog kritiek op uitkramen: de beelden geven geen goed overzicht van de omgeving, iets wat vaak te wijten is aan teveel detail en te krampachtig streven naar realisme. Ook een mensenhoofd is erg moeilijk om te renderen en tot nu toe nog nooit overtuigend geweest. Ook wat ik hier zie, leeft in de Uncanny Valley, want het ziet er erg plastic uit, een beetje zoals die Japanse "life-like robots".

[Reactie gewijzigd door _Thanatos_ op 8 maart 2012 17:54]

Heb soms het gevoel dat dit expres word gedaan. Een engine zo krachtig maken dat men wel een nieuwe kaart moet kopen.
Bij Crysis was dat duidelijk het geval. Ze waren ten slotte partners met Nvidia.
Los daarvan was Crysis een jaar na zijn release nog steeds het meest indrukwekkende spel qua graphics. Ze schalen dus naar de toekomst, wat ik geen slecht idee vind. Zo haal je nog wat uit je spel als je hem later nog eens opstart.
Of je koopt voortaan gewoon een game en wacht ruim een jaar of 2 voor je het gaat spelen? :+ :9
Dat doen ze inderdaad express. Maar niet om jou te pesten, maar om een schaalbare engine over te houden.

I.pv. een engine die een jaar later al verouderd is, kun je deze 2 of 3 jaar later nog steeds gebruiken.

Je moet alleen niet perse altijd alles op max willen draaien.
Videogame engines worden niet gebouwd om maar een jaar mee te gaan.
Ze worden gebouwd om er na een paar jaar ook nog mooie games mee te kunnen maken, en dat lukt de mensen bij Epic aardig.
Dat is schalen naar de toekomst, maar dat luit niet uit dat je kunt schalen naar langzamere hardware. Ook in de toekomst zal er hardware bestaan die nog niet kan meekomen met het snelste van vandaag. Daarnaast wil je een generieke game-engine ook kunnen schalen naar bijv een xbox360, waarvan de GPU nowhere near de Kepler presteert.

En misschien zelfs wel schalen naar een Apple A5 of een Tegra 3.

Ik zie het als een browser: daarin kun je allerlei mooie dingen doen die over vijf jaar in diezelfde versie browser nog steeds goed gaan, maar het draait toch ook op een pentium 4.
Het eerste crytek engine was inderdaad een beetje slap met schaalbaarheid maar is meer een soort van "kijk wat wij kunnen maken" engine. Deze had ook een probleem dat het erg complex in elkaar zat dat veel game studios er niet mee om kunnen gaan als ze niet de juiste expertise in huis hadden van niveau.

Het nieuwste engine daarentegen is volledig gericht op schaalbaarheid met onder andere consoles en dus ok oude langzame bagger PC's. Ze hebben ok een grote slag geslagen met tool ontwikkeling waardoor het "gebruikers vriendelijker" is voor dev's.
Feit blijft nog steeds dat het crytek engine het meest geavanceerde 3D engine op de markt is waar je een licentie voor kan kopen.

Het UT4 engine zal waarschijnlijk niet zo heel gek veel verschillen van crytek aangezien beide engines gebruikt worden als richtlijn in nieuwe GPU techniek. Welke gaat winnen is puur afhankelijk van de tools die ontwikkeld worden om ermee om te gaan.
Crysis op HD2900XT gespeeld en zag er geweldig uit op Verse Vista.
Je moet niet perse in extreem settings spelen.
Dat volk dat later een 8800 Ultra kochten konden het niet aan dat hun goddelijke high- end kaart crysis niet aankon in extreem settngs.

Samen met 8600GT was net te zwak voor crysis maar farcry2 op minimum en highres ging goed.

Nu een GTX580 3GB en een 5870 1GB.
"Is het niet de taak van een engine om de gamebeelden netjes terug te schalen naar minder snelle hardware?"

Alleen als je je engine daarvoor gemaakt hebt.
Elke engine is anders en van elke engine kan je andere dingen verwachten.
Dat klopt, maar het is een gevolg van het ontwerp, niet de renderer. Je kan bijvoorbeeld zelfs met een realtime raytrace renderer nog steeds ontzettend nep uitziende personages als in dit filmpje krijgen. Als we even een onderscheid maken tussen het gezichtsmodel, de animaties en de shaders dan kan je opmerken dat het model iets licht cartoonesks of karikaturaals heeft, de (gezichts-) animaties niet echt goed zijn, en ze bij Epic de shaders blijkbaar weer vergeten hebben om uit de "plastic" setting te halen wat een beetje weggemoffeld is met regen (die er trouwens wel goed uitziet, net als de omgeving, wat je ervan kan zien iig). Ik vind ondanks de regen en gezichtshaar en dergelijke details bijvoorbeeld personages uit HL2 er nog overtuigender uitzien; maar bij Mass Effect (een UEng3 spel) heeft BioWare wel de moeite genomen om bijv. gezichtsshaders goed te maken, en bovendien zijn de animaties en modellen (of ontwerp stijl) ook stukken beter, dus het is wel mogelijk.
Laat maar komen die 600 Serie.

Ik heb op dit moment een GTX580 met maar 1,5GB VRam. Ik dacht dat ik daar voorlopig wel ff mee door kon. Maar met Skyrim + HD Pack + Mods red ik dat gewoon niet. En om nu nog een GTX580 3GB te kopen is ook een beetje geld weg gooien.

Alleen nog ff kijken wat Arctic Cooling doet, ik ben namelijk een "sucker for silence" en heb al jaren Arctic Koelers op mijn Videokaarten.

Was er al iets bekend over hoeveel geheugen de 600 Series kregen? Zelfs 2GB word allemaal op geslokt als je Skyrim een beetje Mod. Dus een 4GB Zou wel lekker zijn ;)

[Reactie gewijzigd door TheDeeGee op 8 maart 2012 17:31]

O, dan heb je wel heel veel texture mods aanstaan, want ik draai de HD dlc, Skyrim HD, RWT, Deadly Dragons en nog een paar texture mods zonder problemen op mijn 6870 met 1 GB aan DDR5 :?
Skyrim heeft ook een Memory leak.

Om een paar van mijn mods te noemen.

Skyrim Official HD Pack
Vurts Flora Overhaul (High Res)
Pure Waters (High Res)
Willows HD Bugs
Bellyaches Animal and Creature Pack
Bellyaches Fur and Quilted Saddles
Enhanced Blood Textures
Enhanced Night Skyrim
Dramatic Clouds
Snow HQ Texture

Natuurlijk nog veel meer kleine dingen. Maar als ik Skyrim een Half Uurtje speel zit ik al over mijn 1,5Gb. En dat is met Mods die niet eens Ultra HD zijn.

De meeste Texture Packs die ik gebruik zijn eigenlijk maar 2x het orgineel.

Dus ja, ik heb dus meer VRam nodig, En als ik nu al boven de 1,5 Gb zit hoop ik dat er een 600 Kaart komt met meer dan 2Gb, zeker voor de toekomst. Zoals ik eerder al zei, Skyrim slokt zelfs 2GB op met de Unofficial HD Pack + een hand vol Mods.

Maar goed, dat is extreem natuurlijk maar niet onmogelijk.

[Reactie gewijzigd door TheDeeGee op 8 maart 2012 18:21]

is dit nu gewoon een technologie demo of staat dit er echt aan te komen?

U3 dat gebruik maakt van flash dat op zijn beurt de gpu kan aanspreken...

ok, het moet per se in-browser kunnen, is web-gl dan niet simpeler voor een ervaren gamedeveloper dan met flash lopen te klooien?
naar wat ik begrepen heb gaat adobe immers stoppen met flash voor mobile devices, dus voor dat doelpubliek doen ze het al niet... wat is er mis met opengl of dergelijke dan?
Het moet voor een game developer niet uitmaken, of je het draait in een browser, xbox360, pc of ps3, want daar gebruik je toch juist die engine voor.
En toch maakt het uit.. tenzij je een drag&drop engine gebruikt.. Als je je game een beetje geoptimaliseerd wil hebben zit je voor vele zaken toch liever met een low level taal zoals c++..
Volgens mij gebruikt de UT engine een scripttaal die erg vlot uitgevoerd wordt, maar nog zo'n 20 keer trager dan c++. Voordeel is dat de scripttaal niet platform afhankelijk is waarbij de in c++ ze waarschijnlijk voor ieder platform apart moeten coderen.
Hier weten we natuurlijk niet zo veel mee aangezien we niet weten welke kaart het is.
Als het op de GTX 690 is dan is het natuurlijk niet indrukwekkend.

3x GTX 580 is 35% sneller dan 2x GTX 580
2x GTX 580 is 80% sneller dan 1x GTX 580
3x GTX 580 is 242% van de performance van 1 GTX 580

Dus als de GTX 680 bvb 30% sneller is dan de GTX 580 en SLI schaalt iets beter (85% bvb) en de GTX 690 is gwn 2 GTX 680's op 1 kaart, dan krijg je het volgende:

130% x 1,85 = 241% van de performance van 1 GTX 580.
Dus zo raar is het niet dat het op 1 GTX 690 zou werken.


De reden dat ik zeg dat het op een GTX 690 draait is zeer simpel. Het is zeer onwaarschijnlijk dat de GTX 680 142% sneller zal zijn dan zijn voorganger.


Bron voor de schaling: http://be.hardware.info/r...2-way-sli-review-schaling

[Reactie gewijzigd door Zarnikon op 8 maart 2012 18:11]

Je vergeet echter mee te nemen dat nu sowieso al geen MSAA werd gebruikt, dus je vergelijking met de 3x580 setup gaat niet op. In plaats van MSAA ging het nu helaas om FXAA; dat scheelt al aardig. Daarnaast is de engine verder ontwikkeld sinds een jaar geleden, Epic geeft zelf ook duidelijk aan dat het geheel nu veel beter loopt dan toen. Als laatste weten we ook niet of in beide gevallen dezelfde settings zijn gebruikt (buiten MSAA / FXAA).

Overigens komt er nu naar alle waarschijnlijkheid geen opvolger van de GTX 580 wat de daadwerkelijke chip betreft. Alle geruchten wijzen nog steeds op GK104 - de directe opvolger van GF114 (560) en GF104 (460) dus. Dat ze het beestje 680 noemen zal zeker zo zijn als de performance naar behoren is. Een "690" zou dan ook geen ware opvolger van de 590 worden qua chips (aangezien ook dat 2xGF110 is).

Ik sta te popelen om meer te horen van Kepler, maar helaas kunnen we uit deze "demo" niets afleiden :(
Ik heb begrepen dat het om 1 GTX 680 draaide.
Mensen gaan er hier echt vanuit dat dit er veel beter uitziet op een kepler kaart dan op een HD7xxx of op een GTX5x0 kaart, het is puur een marketing verhaal dat dit op een Kepler chip gepresenteerd word.

Dat deze kaarten waarschijnlijk sneller worden dan HD79xx serie is vrijwel voorspelbaar aangezien er meer dan een half jaar tussen de releases zit.

Verder wel een erg mooie engine ;)
Niet mee eens. nVidia is laat omdat ze zoals gewoonlijk de snelste GPU moeten hebben en om dat te garanderen met een zeer grote chip aankomen. En dat lijd tot extra aanloopproblemen.
Beide merken moeten het doen met diezelfde chipbakker met 28nm.
Dus gelijke kansen. Met biggestchip wil nV gewoon die prestege kroon binnen halen.

Dus uiteraard zal nV per GPU sneller zijn. Door kolos van een chip.

Waar AMD voor save gaat en meer op tijd en volume markt richt.

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True