Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 164 reacties

Een gamer is er met behulp van een aangepast uitvoerbaar bestand in geslaagd om Crysis 3 op 8k-resolutie te laten draaien. Soepel draaide het echter niet: het spel behaalde op het systeem van de gamer slechts 2 frames per seconde.

Gamer K-Putt gebruikte een tool met de naam OnTheFly om de Crysis 3-executable te hacken. Zo werd het mogelijk om tal van grafische instellingen te wijzigen in de grafische motor CryEngine 3, zoals de resolutie en de draw distance. Dankzij een tweede tool, SweetFX geheten, konden ook de shaders via de game-engine gemanipuleerd worden, bijvoorbeeld om het contrast en de kleurweergave aan te passen.

K-Putt slaagde er in om screenshots te maken op resoluties van 8000x3333 en 3750x5000 pixels in plaats van de 'normale' 8k-modus van 7680x4320 pixels. Volgens de gamer levert de fraaie engine in Crysis 3 op dergelijk hogere resoluties aanzienlijk mooiere beelden, waarbij elk screenshot 24MB groot was. Een selectie plaatste hij op Flickr.

Om de screenshots te maken moest K-Putt steeds terugschakelen naar standaardresoluties om een mooie locatie te vinden voor een screenshot. Vervolgens schakelde hij over op de 8k-resoluties om een screenshot te maken. Daarbij zakte de snelheid van de game terug naar slechts 2fps. Het systeem van de gamer beschikt over een Intel Xeon 1230v3-quadcore en een overgeklokte AMD Radeon 7950. Onduidelijk is met welke hardware de 8k-beelden met 33 megapixels per frame wel soepel te draaien zijn.

Crysis 3-screenshot

Moderatie-faq Wijzig weergave

Reacties (164)

Is er dan helemaal niemand die hier de Tweak-factor in ziet. Het gaat K Putt er helemaal niet om dat Crysis 3 op een 8K resolutie gespeeld kan worden. En of dat allemaal ooit wel nuttig gaat zijn en wat voor hardware daar voor nodig is.

De nieuwswaarde (of de Tweak-factor) ligt 'm mijns inziens juist in het feit dat de Engine er zulke mooie beelden uit kan spugen en dat het gelukt is om dit spel zo te manipuleren dat ze geproduceerd worden.

De discussie over het nuttige en interessant zijn van 2 fps lijken me dan ook volledig overbodig.
Maar meer pixel betekent niet betere graphics! De pixels opkrikken is niet zo moeilijk, de kunst is juist om de manier waarop de beelden gerenderd worden mooier te maken
Maar als je het artiekel had gelezen dan zag je dat ie wel meer heeft gedaan dan alleen de resolutie verhoogd.
Ja contrast en kleurweergave, maar dit maakt de graphics nog niet beter! Schaduwen en alle toeters en bellen wil ik! Alhoewel dit natuurlijk altijd welkom is in de toekomst :D

Hopelijk heb ik nog even om te leven :p
"Ja contrast en kleurweergave, maar dit maakt de graphics nog niet beter! "

Ben ik het niet mee eens.,
Hoe realistischer games worden hoe meer kleurweergave en uberhaupt de rendermethode mee gaan spelen voor de kwaliteit van het beeld.
Oh nee? Duw jij die gamma slider maar eens een stuk te ver naar rechts in een willekeurige 3d game.

Dan zie je dat het weldegelijk zwaar van invloed is.
K-Putt slaagde er in om screenshots te maken op resoluties van 8000x3333 en 3750x5000 pixels in plaats van de 'normale' 8k-modus van 7680x4320 pixels. Volgens de gamer levert de fraaie engine in Crysis 3 op dergelijk hogere resoluties aanzienlijk mooiere beelden, waarbij elk screenshot 24MB groot was. Een selectie plaatste hij op Flickr.
Het is wel leuk dat precies de foto waar jullie in het artikel naar linken een resolutie van 7680x4320 pixels heeft :).

Even voor de volledigheid: Het is dit album, waarin 17 foto's staan. Veel hebben verschillende resoluties en aspect ratio's. De volgende resoluties (MP) en aspect ratio's komen voor:
  • 3750*5000 (18,8MP), 3:4.
  • 7200*3000 (21,6MP), 12:5
  • 8000*3333 (26,6MP), 12:5.
  • 4500*6000 (27MP), 3:4.
  • 8000*4000 (32MP), 2:1
  • 7680*4320 (33,2MP), 16:9.
Je vraagt je dus af, waarom heeft hij steeds verschillende resoluties en aspect ratio's gebruikt? Dat is om twee redenen, 1) voor het artistieke effect en 2) om de technische mogelijkheden te laten zien (en zijn skills natuurlijk).

[Reactie gewijzigd door Balance op 7 mei 2014 16:51]

Iedereen wil 4k gaming, niemand heeft een 4k scherm.
"een overgeklokte AMD Radeon 7950. "

Nu proberen met Radeon R9-290X/R9-295X en kijken hoeveel frames dan behaald worden.
dan haal je nog steeds maar 8fps, je GPU mag dan wel uit 2014 komen maar qua technologie en bandbreedte komt je CPU uit 2010/2012..

the raw-throughput isn't there, en zul je CPU limited blijven.
Hogere resoluties zijn vooral GPU bound. Dus dit zal zeker een verschil geven. De CPU is vooral bezig met de game engine, en geometrie naar de GPU te sturen, deze blijft hetzelfde voor alle resoluties. De GPU op zijn beurt gaat hierop pixels mappen, afhankelijk van textures en shaders. Hoie hoger de resolutie, hoe meer pixels, hoe meer werk de GPU gaat hebben.

Je hebt ook nogal veel geheugen nodig op de grafische kaart, dus quad titans zijn misschien nog het beste.

Hoe dan ook is de huidige GPU architectuur niet echt gemaakt voor 8k resoluties, maar de CPU gaat het minste van het probleem zijn.

@djunicron: Het is inderdaad niet enkel de GPU architectuur, maar ook de engines die niet aangepast zijn aan zo'n resoluties. Maar met wat meer GPU (en desnoods nog wat extra CPU) gaat het misschien wel werkbaar zijn.
@koelpasta: Een betere CPU zal ook nog wel een beetje kunnen helpen, maar op dat vlak staat hij er al vrij goed voor. De GPU gaat toch nog altijd voor het meeste voordeel zorgen, aangezien deze toch de grootste bottleneck gaat vormen.
@VOODOO_WILLIE: Zoals je zegt, de framebuffer is niet het enige dat in het geheugen zit. Met een hogere draw distance zullen er ook extra (highh res) textures bijkomen, en ook de shaders kunnen wel wat geheugen gebruiken om hun bewerkingen uit te voeren. Nog maar te zwijgen over AA levels. Waar juist de grens ligt valt nog te zien, maar eyefinity/NVsurround wordt occasioneel al beperkt door 4GB geheugen aan hoge AA levels in CF/SLI opstellingen. Hoewel meestal GPU power het grotere probleem gaat zijn.

[Reactie gewijzigd door IceTeaGX op 7 mei 2014 23:38]

Als de engine zou weten hoe er omgegaan zou moeten worden met zoveel geheugen, maar helaas zijn de meeste grafische applicaties niet in staat meer dan 6~8GB aan VRam aan te sturen. Nou is het wel zo dat je het vol kan proppen door de drivers extra te laten filteren, maar juist dat soort dingen trekken de framerate weer omlaag, omdat er processen het werk van de engine nog eens gaan bewerken. En dan nog custom shaders erbij en het is nog steeds een soepzooitje.

R29xX set of 780Ti / Titans, dit zal niet snel soepel te draaien zijn... Maar het feit dat het kan is al heel leuk, zet de inengine art-work shots van de huidige consoles weer lekker te kakken. Maar goed, daar is de maat weer gezet, 1080 was nog niet nodig anno 2013 / 2014 aldus Microsoft en Sony, 2K en 4K gaming zal dus nog wel even op zich laten wachten, 8K zoals hier zal voor engine bouwers voorlopig nog geen prioriteit genieten.

De grootste grap: in 2014 draaien Tablet games doorsnee nog op hogere resoluties dan desktop games en consoles...
Hehe, ja, onwetend much?

http://www.gamespot.com/a...sole-budget/1100-6418829/

Voor $550 (omgerekend 412 euro) kan je een pc bouwen die betere graphicssettings kan halen dan een ps4.

Bovendien zijn je spellen goedkoper. Nieuwprijs van Assassins Creed Black Flag op release date was op PC 20 euro minder dan de ps4 versie. (En bij de meeste pc games gaat diezelfde vlieger op)

Tevens heeft een pc backwards compatibility, kan een pc voor meer zaken dan alleen games gebruikt worden, gaat een pc zo lang mee dan een ps4 (als je de graphics settings gelijk met de console versies naar beneden laat gaan) en heb je verschrikkelijk goeie prijzen voor spellen. Tip: www.reddit.com/r/gamedeals .Ik denk dat ik voor de meeste spellen die ik bezit tussen de 5 en 10 euro heb betaald een half jaar tot een jaar na release. Rond diezelfde tijd lagen de meeste van die spellen voor consoles in de tweedehandsgames bak nog voor rond de 30 euro te koop.

Bovendien zijn er gewoon ook veel meer pc exclusives. (denk aan alle indie games zoals War-Z en Star Citizen). Als je backwards compatibility en deze exclusives samentelt hebben pc gebruikers een immens veel grotere spelcatalogus dan consolegebruikers.

Dus je kunt evenveel uitgeven als een ps4 en toch betere graphics hebben. Maar zelfs als je meer zou moeten uitgeven aan een pc, zou een pc toch evengoed goedkoper uitkomen: Mensen met een console moeten 2x geld uitgeven aan hardware: 1x voor een console en 1x voor een pc om op internet te kunnen en andere taken te kunnen doen. Dat terwijl een pc aansluiten aan de tv net zo eenvoudig is als het aansluiten van een console: een hdmi erin en klaar! En nogmaals: de spellen zijn goedkoper en bovendien is de multiplayer gratis! Het duurt niet lang voor de kostprijs van een console met spellen de kostprijs van een highend pc overtreft.

Om even terug te komen op het 1080p verhaal dat je zo uitgebreid doet. Het punt dat Battlefield 4 NU AL niet op 1080p kan draaien, terwijl een even dure pc met hogere graphics settings dit wel kan en tegen een hogere framerate dan 30fps, zegt volgens mij genoeg.

PS: Mods, het is niet mijn gewoonte om zo ver offtopic te gaan, maar een reactie met zoveel onwetendheid kan ik niet laten liggen. Downmod mij if you must. Ik maak er geen punt van.
" Voor $550 (omgerekend 412 euro) kan je een pc bouwen die betere graphicssettings kan halen dan een ps4."

En probeer dat eens te bouwen met de prijzen in Europese winkels. Anders kan ik ook een PS4 kopen uit Amerika, 400 dollars=287
Akkoord,

Ik heb snel met pricewatch even ongeveer dezelfde build samengesteld en kwam op dit uit:

pricewatch: AMD FX-6300 Black Edition ¤88,94
pricewatch: Asus M5A78L-M/USB3 ¤47,90
pricewatch: Fractal Design Core 1000 USB 3.0 ¤30,04
pricewatch: EVGA 500B ¤45,33
pricewatch: XFX HD7850 ¤129
pricewatch: Kingston HyperX Fury white HX318C10FW/4 ¤32,98
pricewatch: Seagate Momentus ST500LM012, 500GB ¤35,90
pricewatch: Microsoft Windows 8.1 NL OEM 64-bit ¤80,30
pricewatch: Microsoft Wired Desktop 400 for Business ¤12,48

Totaal: ¤502,87

Ligt nog steeds rond dezelfde prijs als een XBox One. En dan heb je alle voordelen die ik op mijn vorige post beschreven heb.

Dus zelfs al kost het ¤100 meer dan een ps4 (ik hou Windows 8 hiervoor verantwoordelijk), heb je wel betere graphics (en constant 1080p), alle voordelen van een pc en kom je sowieso snel goedkoper uit door de goedkopere game prijzen. (en nog meer als je normaal een abonnement voor online multiplayer zou nemen)

Ik ben er trouwens zeker van dat iemand die wat meer tijd zou nemen voor onderzoek op andere websites en andere onderdelen nog wat extra geld van die 500euro kan afschrapen zonder al te veel in prestaties in te boeten.

[Reactie gewijzigd door Moonsurfer_1 op 7 mei 2014 20:19]

+ je bespaart 50 euro per jaar aan online fees, playstation plus/xbox live
en iemand die een windows licentie heeft (of die pirate) kan er nog een beter grafische kaart opzetten zoals een gtx760 en zal dan nog maar 500¤ kwijt zijn

[Reactie gewijzigd door jeroen7s op 7 mei 2014 21:10]

Tjah, en iemand die er nog eens 300 euro bovenop gooit behaalt nog steeds niet de "console-ervaring".

Het eindeloze gezeur dat de PC grafisch zoveel beter is dan Console X of Y moet maar eens kappen.

Vrijwel elke Tweaker hier weet dat een PC qua kracht meer kan bereiken voor minder/hetzelfde geld dan de consoles. Waarom kopen er dan toch zoveel mensen (en dus ook Tweakers) een console en geen toffe PC? Omdat deze mensen kiezen voor een console.

- Lekker op de bank hangen en toch kunnen gamen.
- Console exclusives.
- Het speelt gewoonweg anders, plus je hebt een ander soort.community

Niemand hoeft nu met tegenargumenten te komen. Ik weet dat je ook met een PC lekker op de bank kunt zitten en toch kan gamen, maar het geeft gewoonweg niet dezelfde ervaring.

En ja, het is gewoon "fanboyism". Er hoeft niet bij elk console topic duidelijk gemaakt worden door de PC-gamer dat de consoles niet krachtig genoeg zijn. Klik vooral het topic niet aan, en game lekker verder op je PC. Ik weet zeker dat meer dan 90% gewoon blij en tevreden is met de huidige consoles. Ik geniet in ieder geval van de PS4.
De reacties hierboven zijn volgens mij vooral bedoeld aan segascope. En als je zijn post/comment leest, zul je denk ik wel begrijpen waarom...
Waarom reageer jij dan nog? Of ben je zo iemand die altijd het laatste woord moet hebben. :O
Zucht, nee, dit is geen pc-fanboy-isme. Ik merk op dat ik het erg kan waarderen dat er figuren zijn die tegen de stroming in op huidige, beperkte hardware toch proberen extreme grafische hoogstandjes uit bestaande engines te persen.

Daarnaast uit ik mijn ongenoegen over de algehele markt, inclusief de pc-markt, waar 4k en 8k totaal nog niet mogelijk zijn, simpelweg omdat nog niemand zin lijkt te hebben eraan te beginnen. Het moet weer uitgesmeerd worden, zodat we eerst duur aan de 2k kunnen, dat ze op de volgende generatie videohardware "4K gaming ready" kunnen stempelen, terwijl het eigenlijk niet waar is, enz enz.

Dat de PS4 voor het geld mooie performance levert zal je mij niet horen ontkennen. Net als bij de PS3 heb ik mijn twijfels of het genoeg is voor de komende 3 jaar, maar goed, we zullen zien. Ik had alleen graag gezien dat de PS4 XBOne wél 4K draaiden, dat had de hele industrie namelijk een boost gegeven. Stilstand is achteruitgang, het is leuk goed te zien dat er mensen zijn die met man en macht aan de limieten trekken.

Daar zijn we toch Tweakers voor? Het is hier toch niet *willekeurige mainstream console site*? En de downmods zijn niet simpelweg fanboiis, je komt met een amper gegronde aanval op mij aan in de reactie, die verder ook redelijk offtopic gaat.

No mad, no offence taken. PC master race? Yup, schuldig, al jaren. Ik koop liever een ¤300 videokaart en goedkopere games, de rest van de hardware heb ik toch al nodig voor werk. Daarnaast houd ik niet van gamepads. Tja...
Nou dat valt best mee: pricewatch: Dell P2815Q Grijs, Zwart
Op moment van schrijven ¤547 voor de goedkoopste 4K monitor. Aardig aan de prijs, maar eerlijk gezegd had ik minimaal het drievoudige verwacht. Zit je echter wel met een TN paneel, maar goed. En als de spellen die je speelt niet te veeleisend zijn of je zet het een of ander op medium dan kun je vast wel uit met een sli opstelling, misschien zelfs een enkele kaart. Dingen als anti-aliasing zijn toch niet heel hard nodig dus dat kun je weglaten.

Bij de buren waren ze bepaald wel positief over het gebruikte TN paneel en binnenkort vakantiegeld. Het jeukt eerlijk gezegd wel bij mij.....
Idem, vind het ook erg tof dat men de grenzen blijft opzoeken en je ziet ook dat het juist deze groep mensen is die de PC gaming industrie in beweging houdt. Zie bijvoorbeeld hoe Nvidia en AMD maar niet snel genoeg wilden zijn met 4k support in de driver niet al te lang geleden - de eerste geluiden kwamen naar buiten en vrijwel direct hoorden we kritiek over support. Die kritiek komt van deze early adopters natuurlijk.

Dus al met al sluit ik me volledig bij je aan: PC gaming en uberhaupt gaming in het algemeen heeft deze groep mensen heel hard nodig. Want de afgelopen jaren mag je met recht stilstand noemen, en er is nu eindelijk weer wat beweging...
Ik snap niet dat ik hier nou -1 voor krijg. Ik vind dit echt een belachelijke term en het is ook zeer fanboy achtig.
hehehehe....echt geweldige discussie hier 8)7
T is vooral gedownmod omdat het irrelevant is en omdat het lichtelijk onwenselijk is.

Ontopic,;

Damn, zo kun je pas goed zien hoe mooi die engine eigenlijk is. Ik vraag me af hoe lang het gaat duren voordat we dit soort spel ervaringen met een soepele 60 fps gaan krijgen
"Hogere resoluties zijn vooral GPU bound. Dus dit zal zeker een verschil geven. De CPU is vooral bezig met de game engine, en geometrie naar de GPU te sturen, deze blijft hetzelfde voor alle resoluties."

Ja, maar hij had ook aan de engine gesleuteld, draw distance enzo, mischien ook LOD. Dat levert ook voor de cpu meer werk op. En al die dingen moeten ook nog geanimeerd worden, evenuteel dynamisch, kost ook allemaal cpu.
Je hebt ook nogal veel geheugen nodig op de grafische kaart, dus quad titans zijn misschien nog het beste.
Waarvoor dan? Het is een -steeds maar weer- terugkerende opvatting dat je voor een dergelijke resolutie enorm veel geheugen nodig hebt.

Het meeste geheugen wordt ingenomen door textures. De schermresolutie heeft daar niet heel veel mee te maken.

Framebuffer (incl. backbuffer, depth buffer en stencil buffer) ligt bij 8K zo rond de 400 MB. Whooptie-doo!

Hier de uitleg (met linkje naar de uitleg met foute berekening) ;) :
VOODOO_WILLIE in 'nieuws: EVGA kondigt GTX 780-kaarten met 6GB geheugen aan'
Is het niet zo dat er op erg hoge resoluties met gebruik van, laten we zeggen, 8xAA er ook behoorlijk wat geheugen nodig is?? Die oversampling vraagt toch juist ook een hoop RAM en wanneer de resolutie groter wordt, wordt de vraag naar RAM ook groter lijkt me?
Dat ligt helemaal aan de methode die gebruikt wordt voor AA. Als je gebruik maakt van supersampling (SSAA of FSAA) schiet het wel lekker op ja.

In het geval van 8xAA wordt een beeld eerst op 8x de resolutie (horizontaal en verticaal) getekend en vervolgens omlaaggeschaald (waarbij pixelgroepen worden gemiddeld) naar de doelresolutie.

Dit betekent dus dat je een flinke extra framebuffer nodig hebt om het omhooggeschaalde beeld te kunnen tekenen.

Echter is dat niet het enige probleem want de snelheid waarmee dat moet gebeuren is natuurlijk ook nogal belangrijk. Dit vereist zeer snel geheugen en uiteraard ook een zeer snelle GPU. De gemiddelde hardware is nu al niet echt toereikend om dat op hoge resoluties toe te passen.

Ander technieken (zoals MSAA) zijn minder nauwkeurig maar hebben, bij lange na, niet zoveel geheugen of rekenkracht nodig om vrijwel hetzelfde resultaat te bereiken.

Overigens kan je je natuurlijk ook afvragen of je op dergelijke hoge resoluties nog echt iets aan AA hebt. Het hele doel van AA is namelijk om aliasing (de karteling van lijnen) te "verbergen". Op steeds hogere resoluties zal je steeds minder last hebben van aliasing en dus ook steeds minder heftige anti-aliasing hoeven toe te passen.

Zodra onze ogen een individuele pixel niet meer kunnen onderscheiden is het gedaan met AA.

Als "ze" nu eindelijk eens opschieten met het opkrikken van de resoluties van monitoren dan zou dat nog best eens heel snel kunnen zijn.

Op een telefoonscherm van 6 inch met een resolutie van 1920x1080 is het vrijwel onmogelijk om nog een pixel te onderscheiden op 30 cm afstand. Op een 24 inch 8K-scherm (en dan zit je er waarschijnlijk nog wat verder vanaf) zal dat niet heel veel anders zijn en dan is het dus gedaan met AA.
Nee precies, maar die AA snoept dus ook behoorlijk wat van de RAM weg en al helemaal bij zulke hoge resoluties.

Over of AA nut heeft bij zulke hoge resoluties; Dat zal een beetje per persoon verschillen lijkt me. Op mijn LG G2 kan ik af en toe in bepaalde situaties nog steeds pixels zien, of beter gezegd, lijnen die niet zonder kartels zijn. Daarom ben ik ook benieuwd naar de G3 en of voor mij dat dan de grens is. 5,5 inch met een 1440P scherm.
Het aantal DPI boven de 500 zou natuurlijk bij gamen ook een welkome ontwikkeling zijn IMHO
Nee precies, maar die AA snoept dus ook behoorlijk wat van de RAM weg en al helemaal bij zulke hoge resoluties.
Als je het aanzet wel ja maar het ligt er dan ook maar net aan op welk standje je de AA zet.

Op mijn 24" 1920x1200 monitor zie ik, op een afstand van zo'n 50 cm, het verschil tussen 4x en 8x AA vrijwel niet. Ik moet dan echt even gaan zitten staren naar een harde donkere rand tegen een lichte achtergrond voordat het enigszins opvalt.

Uiteraard heeft de één iets betere ogen dan de ander maar ik ben er vrij zeker van dat je (op dezelfde schermgrootte en afstand) bij die 8K resolutie het verschil niet meer ziet tussen 2x en 4x AA. Laat staan tussen 4x en 8x.

Laten we zeggen dat je dan dus op 8K nog net het verschil ziet tussen geen en 2x AA. Dan kan je er wel vanuit gaan dat bij een resolutie van 16K AA overbodig is geworden.

Uiteraard zijn er ook nog wel een stuk grotere schermen dan de 24" die ik heb maar zelfs dan vermoed ik dat het rond die 16K-resolutie wel gedaan is met de noodzaak van AA.
Crysis 3 is vooral CPU bound op hogere resoluties..
komt vooral door DX11.

[Reactie gewijzigd door stewie op 7 mei 2014 17:40]

Intel Xeon E3-1230 v3
  • Launch Date: Q2'13
  • Clock Speed: 3.3 GHz
  • Max Turbo Frequency: 3.7 GHz
Bron: Intel ARK

[Reactie gewijzigd door GewoonWatSpulle op 7 mei 2014 19:15]

Qua technologie iets wat in 2010 ook gemaakt had kunnen worden, en qua performance niet vooruit op sparc of Power architecturen (eigenlijk een paar jaar achter)
Grapje zeker? Want de super computers uit de jaren '90 kwamen al in de buurt..
Konden ze toen al..
Grapje zeker? Want de super computers uit de jaren '90 kwamen al in de buurt..
Konden ze toen al..
ik bedoel bij intel houden ze de ontwikkeling juist tegen, en moet je jaren wachten todat dingen zoals avx512bit er door heent komt.
want ja, je moet toch lekker consumentje uitmelken...
Je moet eigenlijk aan een (nog nog beter 3) van die 250 Sapphire R9 290X Vapor-X 8GB kaarten zien te komen.
Waarschijnlijk was de hoeveelheid geheugen het probleem waardoor hij op 2FPS uit kwam.

Als je videogeheugen de bottelnek is gaat CF of SLI je ook niet echt helpen. Met 3 kaarten die 8GB ram hebben zou het nog wel eens speelbaar kunnen draaien. (25-35 FPS range)

[Reactie gewijzigd door Astennu op 7 mei 2014 16:46]

jammergenoeg mag je het geheugen niet optellen bij sli of cf..
8gb zou inderdaad wel schelen. jammergenoeg wordt het alleen geen 24.
Ik zeg ook niet dat dat zo is. Ik weet donders goed dat 2x R9 290X 4GB in CF nog steeds maar 4GB effectief is. Maar 8GB is denk ik wel genoeg voor de 8K resolutie in ieder geval stukken beter dan 3GB van de 7950.

[Reactie gewijzigd door Astennu op 7 mei 2014 17:08]

Hoe komt het dat 2*4 effectief 4GB blijft? Is de technologie dan achteruit gegaan sinds 3dfx of zijn er andere redenen?

Ik weet nog dat 2 Voodoo2 kaartjes met 12MB effectief 16 MB hadden, terwijl 2 van 8MB effectief 12MB hadden.
Alle textures moeten in het geheugen van beide GPU's aanwezig zijn. Je hebt dus wel twee keer zo veel geheugen, maar je gebruikt ook twee keer zo veel, waardoor je effectief nog maar de helft hebt van het totaal, om het even simpel uit te leggen.
Dat textures gedeeld moeten worden besef ik, dat was ook de reden waarom je bij de 3dfx kaarten toen ook het geheugen niet zomaar kon verdubbelen. De rest van het geheugen, de frame buffer, kon je echter wel optellen.
12MB kaarten hadden 8MB texture geheugen en 4MB frame buffer, vandaar 2*12 => 8 + 2*4 => 16MB.

Blijkbaar werkt het nu dus idd anders, iets minder optimaal zo lijkt het.
Lijkt mij dat de frame buffer tegenwoordig in beide kaarten wordt opgeslagen. Waarschijnlijk is dat noodzakelijk omdat het allemaal nu wat beter compatible moet zijn? 3dfx werd maar beperkt ondersteund natuurlijk.

[Reactie gewijzigd door Vayra op 8 mei 2014 14:25]

Ik weet niet hoe de 3Dfx techniek werkte. Zou mij niets verbazen als die in sommige opzichten beter is. De hw AA van de Voodoo 5 was ook super.

Maar zo ver ik weet hebben sli en cf setups met AFR (alternate frame rendering) in het geheugen van iedere kaart dezelfde data nodig.
Ok, bedankt. Ik vrees dat ik niet goed meer mee ben met hedendaagse GPU's.
een paar Titan-Z, klaar ben je
nu proberen met quad-sli 780TI's.
misschien haalt ie dan een krappe 20..
quad heeft geen nut, ik weet nog uit de 6xx dat je met dual-sli 44% meer frames had en bij triple alleen 11% daarbovenop.

quad-sli zorgde alleen voor meer gimmick in je kast en meer verbruik maar niet meer power.
op dergelijke resolutie maakt het waarschijnlijk wel verschil, het vreet namelijk vram om op dergelijke resolutie te draaien en met 4 kaarten heb je iig genoeg.
Eh, nee. Je hebt nog effectief zoveel RAM als één individuele kaart. In SLI/CF opstellingen kun je vRAM niet bij elkaar optellen, elke kaart heeft immers dezelfde data in het geheugen zitten.
En daar kan je dan ook nog even bij optellen het feit dat alle inter-communicatie tussen die kaarten over beperkte bandbreedte SLI bridges verloopt...

Leuk hoor om sweetFX over Crysis3 heen te gooien maar echt nuttig is het niet.

*gaat lekker Skyrim spelen op 1080p met 250 mods waaronder RealVision ENB en allerlei grafische krachtpatser mods inclusief sweetFX*
Bij de laatste generatie AMD loopt die informatie gewoon via de PCI sloten, er is geen sli/crossfire brug meer nodig.

En er is een wereld van verschil in werking en performance met de 6xx serie en de laatste generatie (r9 29x) dus dat kan je zeker niet zomaar vergelijken. Of een vierde kaart nut heeft kan ook nog eens per driver en per spel verschillen.
Dit geldt echter vooral voor Nvidia kaarten. Uit vergelijkingen (van de hardware.info buren bijvoorbeeld) tussen AMD Xfire en Nvidia SLI blijkt dat tot en met quad-Xfire deze bijna lineair schaalt t.o.v. de zoals je noemde magere scaling van Nvidia's kaarten. Afhankelijk van de game/applicatie schalen 2 295x's bijvoorbeeld of 4 290X's 350% tot 399%.
We weten allemaal hoe nvidias zich gedragen op hogere resoluties... Probeer voor mij maar met een 290x, dankjewel.
In dat geval hoor ik niet tot allemaal ;)
Wel echt gaaf dat het kan...vraag me af wat voor monitor hij gebruikt, ook 8K? Maar gezien de framerate zal er wel daadwerkelijk 8K zijn uitgespuugd.
Ik hoop dat Tweakers nog een keer post dat het wel op een normale framerate draait :p :p

[Reactie gewijzigd door Nas T op 7 mei 2014 21:49]

is er al quad crossfire voor AMD?
Al heel lang? Dat meen je toch niet?

En met de hawaii series is dit zonder de crossfire kabels. Alle comminucatie verloopt via de PCIe bus. Heel netjes.
Ik ben niet zo thuis in de AMD serie. Heb heel mijn leven al Nvidia gehad eerlijk gezegd. maar zonder crossfire kabels klinkt wel erg interessant.
Verschil is maar 1-3 fps cf vs sli voordeel AMD en met single gpu nvidia maar dat is nu ook waarschijnlijk weer anders omdat Nvidia nu met driver r_337 een stuk beter met sli schaalt. Het kan dus zo maar zijn dat nvidia het voordeel van de twijfel krijgt als het gaat om 4k gaming.
http://www.guru3d.com/art...li_geforce_review,23.html
Waarom post je dan grafieken met de 290x telkens op kop? :?
Je moet leren lezen, hij zegt ook 1-3 fps verschil. Maw - te verwaarlozen. Geen basis om voor een specifieke kaart te kiezen lijkt me zo.
Nou, 1-3 FPS verschil tewijl je huidige framereate 2FPS is, heb je het toch over een verdubbeling :P Maar waarschijnlijk valt dit niet met elkaar te vergelijken (dus ipv 2fps, haal je dan 2.1fps ofzo)
Nee, dat weten we niet 'allemaal'. Ik heb geen idee namelijk :)
Wat dacht je van de nieuwste NVidea quadro in SLI modus?
Kost je 16000 euro's, maar dan heb je ook wat.

Tim Visée
33 megapixels per frame? Hebben screenshots ook megapixels dan? :$
Jazeker! horizontale pixels x verticale pixels delen door 1.000.000= megapixels.

1920x1080 is bijvoorbeeld 2,07 megapixels.
Full HD klinkt helemaal niet zo fantastisch meer als je het zo brengt :P
tsja, en 4K is "maar" 8 megapixels, dubbel zo breed en dubbel zo hoog.

maar je telefoon kan dus (waarschijnlijk) in 4K foto's maken.
Is het ook niet, moet je met die kennis eens door de mediamarkt gaan lopen en kijken hoeveel fotocamera's er adverteren met "Full HD foto's!"
Beperkte kennis van consumenten en marketing termen leveren altijd leuke kreten op.
Mega is gewoon een voorzetsel dat 'miljoen' betekend. Je zou dus ook deca, hecto en kilopixel kunnen hebben, net als dat je hectometer en kilogram hebt (of kilo, mega, giga en terabyte, we zitten immers op een techsite :+). Je hebt er van pixels alleen zó veel dat alles minder dan mega niet echt veel zin heeft om op te noemen...
Dit soort frames bestaan uit pixels, screenshots zijn maar "gewoon" plaatjes, dus die bestaan ook uit pixels. Mega is een SI-prefix voor 10*6, dus: ja, dit klopt.
10^6 mag ik hopen ;)

[Reactie gewijzigd door Woutske op 7 mei 2014 17:54]

Ja.
Hoeveel mega/giga/whatever pixels een afbeelding heeft is volgens mij het product van het aantal pixels in de hoogte en breedte van de afbeelding.
Een megapixel is gelijk aan 1 miljoen pixels. Een screenshot bestaat uit pixels :)
dat is volgens mij gewoon een andere manier waarop je 8k kan zeggen
hier een voorbeeld foto : FOTO
33 megapixels per frame? Hebben screenshots ook megapixels dan? :$
Alles wat weergegeven wordt op een scherm kun je omrekenen naar megapixels. Het zegt namelijk iets over het aantal weergegeven pixels. :) Jelte heeft de formule al gegeven. ;)

[Reactie gewijzigd door CH40S op 7 mei 2014 16:43]

Uiteraard; een screenshot van 7680x4320 bevat 33177600 pixels. Met de basiskennis dat de prefix 'mega' staat voor 1 miljoen of 106 wordt dat dus afgerond 33 Megapixels.
mega = miljoen
33 miljoen pixels per frame dus
7680*4320= ~ 33 miljoen
Mega is een voorvoegsel voor een eenheid, net zoals mini of kilo.

Voorbeeld met de eenheid meters:
Honderd = 10^2 = Hectometer
Duizend = 10^3 = Kilometer
Miljoen = 10^6 = Megameter
Miljard = 10^9 = Gigameter

Dit kan bij (vrijwel) elke eenheid gebruikt worden, hoewel het niet allemaal even gebruikelijk is. Ooit gehoord van een Gigagram of een hectobyte?

33 Megapixel betekent in dit geval 33 miljoen pixels (afgerond natuurlijk).

[Reactie gewijzigd door ChillPascal op 7 mei 2014 16:46]

Ja, megapixels is een "eenheid" voor het aantal pixels in een afbeelding. Een plaatje van 2x4 pixels heeft 8 pixels, een plaatje van 2000x4 pixels heeft er 8000 en een plaatje van 2000x4000 pixels heeft 8 megapixels (8 miljoen pixels).
Ligt het aan mij, of zijn die auto's bijzonder klein, t.o.v. de omgeving?
Als je denkt dat het gras is, Ja dan wel.
Maar het is riet achtig spul, dus lijkt het meteen anders.
https://secure.flickr.com...994582463/in/photostream/

Bekijk deze screenshot eens.

Als je kijkt naar de verhoudingen, boom vs auto +
meerekenend dat je de bakstenen kan tellen, krijg je een indruk wat de verhoudingen van de omgeving (moeten) zijn. Ik zie het riet niet als gras inderdaad. :)
Ik blijf het vreemde verhoudingen vinden. Vooral als je naar het stoplicht op de achtergrond kijkt..
Je vergist je, het is de omgeving die bijzonder groot is t.o.v. de auto's.
Speelgoedautootjes
Ik zou zeggen dat de auto's inderdaad erg klein zijn, kijk maar naar de lantarenpaal...
Zo zeg, dat ziet er mooi uit! Het spel viel me erg tegen op de Xbox 360, maar ik zie nu dat wat ik op de Xbox gespeeld heb, in geen enkele verhouding staat tot de pracht en praal van het spel zoals het bedoeld is.
Maar de Xbox 360 heeft ook hele andere hardware dan deze computer. De Xbox speelt games nog niet eens af op 1080p laat staan op 8k.
het spel draait ook maar op een fractie van zijn kunnen op de xdoos. alleen een pc en een paar mods (die de "console" limieten uit de pc versie halen) kan crysis laten zien zoals het hoort. maar dat is altijd al zo geweest. gameplay icm met fps gaat voor eyecandy op de console.
Gewoon 2x titan zoals Linus dat doet!
titans zijn niet game gespecialiseerd (ook meer voor rendering en encoding enz.) ik denk dat je dit beter met een amd variant kan doen.

maar tuurlijk zal de titan in sli dit ook wel aankunnen :)

[Reactie gewijzigd door DutchWilliam op 7 mei 2014 16:47]

nee, 2 titans geven nog geen speelbare fps in dit geval.
ik verwacht dat je met 4x titan black nog steeds geen fatsoenlijke fps krijgt op deze res, misschien haal je wel 30. maar bij gebrek aan 8K monitoren is het niet zo nodig.
denkje nou ja ik ben ook geen specialist :)
maar hoef opzich die resolutie ook nog niet
De grote vraag is, op welke monitor(en) hij die getest heeft. Lijkt mij wel handig om in het artikel te zetten.
Ik vermoed dat die 8K resolutie op geen enkele monitor te toveren is... het overflowed (buiten beeld) gewoon allemaal.
of hij heeft een setup met 4 4K monitoren, of 16 HD monitoren!
(onwaarschijnlijk, en kan deze gpu niet aan als output naar mijn weten)
Twee 4K monitors naast elkaar is voldoende hoor... Dat is 8K totaal.

Edit: Sorry, net ontdekt dat ik het dus zelf verkeerd voor had.

[Reactie gewijzigd door David77 op 7 mei 2014 17:53]

Aan die screenshots te zien wel zeer mooi, maar wat voor buitenaardse machine heb je wel niet nodig om dit aan pakweg 30fps te spelen op 8K?

Leuk voor in de toekomst, maar met een mainstream scherm van 1080P tegenwoordig is dit toch nog immens overkill?
Het is nu nog immens overkill inderdaad, al zou ik me kunnen voorstellen dat dit nuttig is voor VR-brillen als de occulus rift, zodat je niet een nieuw frame hoeft te renderen als je om je heen kijkt, maar alleen een ander gedeelte van een al gerenderd frame hoeft weer te geven. Hierdoor zou de lag misschien weer iets kunnen afnemen en dat zou natuurlijk mooi zijn.
Dat zou denk ik alleen in "stilstaande" spelletjes kunnen, anders mis je de nieuwste updates al weer
Hoezo alleen met "stilstaande" spelletjes? Of ik begrijp je reactie misschien verkeerd.

Je kunt toch continu een 360 graden panorama renderen en met een VR bril alleen het geselecteerde stuk laten zien?
Zeer inefficiënt om een frame ook te berekenen buiten je gezichtveld.
Maar stel dat het mogelijk zou zijn, dan moet je toch telkens een nieuwe frame weergeven van zodra er iets beweegt in de virtuele wereld. Een object, een vogel, rook,... en zeker als jijzelf beweegt!
Kwantum mechanica zou hierin wat kunnen betekenen! :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True