Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Square Enix brengt benchmarktool uit voor pc-versie Final Fantasy XV

In aanloop naar het verschijnen van de Windows-versie van Final Fantasy XV heeft Square Enix een benchmarktool uitgebracht. Met de tool kunnen gamers kijken of hun systeem in staat is om de game vloeiend te draaien.

De benchmark kan ingesteld worden op resoluties van 1280x720, 1920x1080 of 3840x2160 pixels. Verder zijn er drie verschillende grafische settings: Lite, Standard en High. De benchmark duurt zo'n 6,5 minuten en resulteert in een score.

Volgens Square Enix is een score van minimaal drieduizend punten geschikt om de game op een 'standaard niveau van prestaties' te spelen. Vanaf zesduizend punten is het systeem geschikt voor hoge settings en bij pc's die twaalfduizend of meer punten halen, moeten de allerhoogste grafische settings geen problemen opleveren.

De Windows-versie van Final Fantasy XV komt uit op 6 maart. Eind 2016 kwam het spel al uit voor de PlayStation 4 en de Xbox One. De release van de pc-versie gaat gepaard met de komst van een Royal Edition, die ook beschikbaar komt voor de consoles en die nieuwe inhoud bevat. De inhoud komt ook los beschikbaar als dlc.

Door

Nieuwsredacteur

104 Linkedin Google+

Submitter: BiG_ChilD

Reacties (104)

Wijzig sortering
Nvidia is wederom betrapt op sabotage dmv GameWorks: https://youtu.be/0eXbbh1f52I :(

[Reactie gewijzigd door db87 op 4 februari 2018 14:31]

En ja dat light niet aan de engine makers, of de maker van de spel Square Enix, maar het light natuurlijk meteen aan Nvidia 8)7

Ze hebben dit niet gedaan, hoe stom moet je wezen om je eigen glazen in te gooien met zo iets stoms, het is gewoon een slecht gemaakt Bench, je ziet ook auto's rijden zonder iemand er in, of auto's rijden zonder iemand achter de stuur, en je ziet de gras dwars door de auto en ga maar zo door.

https://imgur.com/gallery/bDqxS

[Reactie gewijzigd door AmigaWolf op 4 februari 2018 14:11]

GameWorks is gewoon een gedrocht van een ontwikkeling en de implementatie ervan is in sommige gevallen zelfs negatief voor mensen met een NVidia kaart, maar veelal desastreus voor diegenen met een AMD kaart.

En het ligt niet alleen aan NVidia, maar ook de game makers. Samenwerken met een GPU ontwikkelaar om jouw game zo goed mogelijk te laten presteren is prima, maar hier is veel meer gaande. NVidia sponsort de boel en zegt doodleuk: hier hebben jullie een zak met geld, bouw GameWorks even in zodat onze kaarten het aanzienlijk beter doen dan die van de concurrent. Dit is zowel slecht van NVidia, maar ook van Square Enix dat ze dit aannemen en eraan meewerken.

Maar goed, puur vanuit een business standpunt kan ik het wel begrijpen; ze krijgen op voorhand al veel geld van NVidia, met het risico dat er commotie ontstaat en eindgebruikers de game niet kopen. Echter is het percentage gamers wat uitgebreid onderzoek doet en kijkt naar diepgaande reviews heel laag. Het overgrote deel komt niet verder dan een game kopen op basis van een reclame op tv of op internet, of het bekijken van een heel oppervlakkige review. Dus dit risico is klein en dan is het een simpele overweging van een grote zak geld nu vs. mogelijk mindere verkopen later.

[Reactie gewijzigd door Moi_in_actie op 4 februari 2018 14:19]

Wow en AMD doet dat niet, zo als met Dirt Showdown, Dirt Rally, Dirt 4, Hitman Absolution, Tom Raider, Wolfenstein 2, en nog VEEL meer spellen, woord zo moe van dit.

En als dat zo was met GameWorks had alle spellen dat die support van Nvidia hebben, en niet 1 op de 10, dus hou op wil je, je kan het toch uit zetten in de spel, dus wat is het probleem dan???

En ach ja we zullen wel zien hoe de spel is.

[Reactie gewijzigd door AmigaWolf op 4 februari 2018 14:30]

Als je loze kreten doet, onderbouw het dan wel even.

Tomb Raider: NVidia kaarten doen en deden het hier altijd beter dan AMD
http://www.guru3d.com/art...e-gtx-1080-review,13.html

Wolfenstein II: AMD kaarten doen het iets beter bij deze game dan normaal, maar niet uitzonderlijk (Vega 64 tussen GTX1080 en GTX1080Ti, Vega56 evenaart de GTX1080, maar GTX980Ti outperformed de Fury X nog altijd)
http://www.guru3d.com/art...s_benchmark_review,5.html

Dirt 4: NVidia kaarten doen het prima, GTX980Ti, GTX1070 en Fury X presteren ongeveer gelijk (wat te verwachten was)
https://www.techspot.com/review/1425-dirt-4-performance/

Hitman Absolution: oudere game, maar ook hier is de verhouding tussen de AMD en NVidia kaarten in de lijn der verwachting. Afgezien van de eerste weken/maanden was de HD7970 altijd net wat beter dan de GTX680
http://www.guru3d.com/art...e_review_benchmark,6.html
Let op! Deze benchmark schijnt late game content, en dus spoilers, te bevatten. Als je dus niet gespoiled wil worden ga dan even koffie zetten tijdens het draaien van de benchmark.

Ik heb het spel zelf niet ver genoeg gespeeld om te beoordelen hoe erg de spoiler is, dus hier is een reddit post:

https://www.reddit.com/r/...dition_benchmark_tool_is/
Zoals in die Reddit thread ook op wordt gemerkt gaat het om een vrij milde spoiler die je waarschijnlijk zonder verdere context niet eens begrijpt. Maar goed, het was beter geweest als ze wat meer neutrale content hadden gekozen of een optie toe hadden gevoegd om de screen te blanken tijdens de benchmark.
Mwoah valt wel mee, Je ziet in het begin Cindy. De auto wordt vervolgens op de weg gezet en je rijd met z'n alleen naar een chocobopunt. Vervolgens spring je op de chocobo en kom je bij een vis spot terecht. Na wat vissen volgde er een gevecht met standaard vijanden. Als laatst wordt er nog een tent opgezet en gekookt.

Dus gewoon taken of activiteiten waar je al aardig vroeg mee te maken krijgt en eindeloos zal moeten herhalen voor de grind.

[Reactie gewijzigd door Omnyakom1 op 2 februari 2018 11:08]

Klinkt echt super enthousiasmerend.
Dat is het ook echt niet. Dit is echt de meest gortdroge benchmark die ik ooit heb mogen aanschouwen. Je ziet ook dat de engine al eeuwenoud is: texture/shadow pop-in, LoD is slecht, en er komt geregeld clipping in voor.
Ik bedoelde eigenlijk voor het hele spel...
Nou, als ik dit splash screen zie, dan is dat al een spoiler. Gelukkig weet je pas dat het een spoiler is wanneer de spoiler-tijd daar is. Maar dit beloofd idd niet veel goeds qua verhaal.
Ik heb wat rondgekeken in de launcher code. Je kan makkelijk je eigen resolutie via een shortcut instellen.

Ik heb bijvoorbeeld "C:\Program Files\SquareEnix\FINAL FANTASY XV BENCHMARK\ffxv.exe" --displayResolution 2560 1080 --renderingResolution 3840 2160 --graphicsIni config\\GraphicsConfig_BenchmarkHigh.ini -f

Dus widescreen lijkt te werken of welke native res dan ook.

Screen in benchmark:
https://i.imgur.com/Dzv1mBe.png

Opties shortcut:
https://i.imgur.com/ZctX9yK.png
Hee bedankt voor dat, alleen werkt het niet met:
"C:\Program Files\SquareEnix\FINAL FANTASY XV BENCHMARK\ffxv.exe" --displayResolution 3440 1440 --renderingResolution 3840 2160 --graphicsIni config\\GraphicsConfig_BenchmarkHigh.ini -f
want dan krijg precies de zelfde score als ik gewoon in 4k draai, 3456 punten.

En als ik het zo doe:
"C:\Program Files\SquareEnix\FINAL FANTASY XV BENCHMARK\ffxv.exe" --displayResolution 3440 1440 --renderingResolution 3440 1440 --graphicsIni config\\GraphicsConfig_BenchmarkHigh.ini -f
dan krijg ik een score van 4783, ook al zegt de Bechmark dat het 1080P High is, en dat is het niet want dan krijg ik 7967 punten.

[Reactie gewijzigd door AmigaWolf op 3 februari 2018 21:02]

voor de tweakers onder ons. heb gister wat leuks uitgevonden namelijk:

Je kunt het character besturen.

Op de plek waar ze uit de auto stappen begin dan met je muis links en rechts te klikken en op wasd te rammen, net voor en bij die gele paal. dan schiet die over op * bestuurbaar* als die begint met het zwaard te slaan hou e ingedrukt:)

Peace

Oh mijn score is btw:


1080p fullscreen
Standard 11199: performance: Very High 87-140 fps
High 8230: performance: High 58-111 fps


2160p fullscreen
Standard 4268: Performance Standard 34-54 fps
High 3616: Performance Standard 26-48 fps


PC SPECS::

Case: Corsair Obsidian 900D

Supply: Corsair 1200i

CPU: i7-5930K@ oc 4.5Ghz 1.35v
CPU Block: EK-Supremacy EVO BLACK Edition

GPU 1: NVIDIA GTX 1080 FOUNDERS EDITION@ oc 2100Mhz Core Clock
GPU 1 Block: EK-FC1080 GTX

SLI:

GPU 2: NVIDIA GTX 1080 FOUNDERS EDITION@ oc 2100Mhz Core Clock
GPU 2 Block: EK-FC1080 GTX

Pump 2x: EK-DCP 4.0 PWM X-RES
Rad 2x: EK-CoolStream PE 480 Radiator

Motherboard: Asus Rampage V Edition 10
Ram: Corsair Dominator platinum 32 GB (8x4GB) 2800 DDR4
samsung 840 Pro SSD 128 GB + 2TB HDD+ 4TB HDD + 4TB HDD + 5TB HD

Monitors: Tripple Screen Benq XL241Z 1ms 144Hz 1080p

RAZER BLACKWIDOW CHROMA Keyboard

Razer Tiamat 7.1 HeadSet

RAZER OUROBOROS Mouse
Ik daag je uit :) Mijn 1080p scores op een i7 8700k @ 4.8 + GTX 1080 (2000 core / 11Gbps mem) geheel op luchtkoeling, geen delid... Het is iig duidelijk dat de benchmark helemaal niets met SLI/dual GPU doet.

https://www.techpowerup.c...ased.241155/#post-3792870

Sowieso een leuk draadje voor vergelijkingsmateriaal, er is al driftig gebencht daar.

[Reactie gewijzigd door Vayra op 3 februari 2018 13:46]

Leuk!! welke gtx1080 heb jij en hoe heb jij je gtx overgeklokt en of de cpu?... add me op steam dan probeer ik wel ff jou score in te halen haha :P maar wel netjes man!! jaloers op jou 1080p. mijn score op 1080p standard settings is 11059. :) en performance very high..alleen snap niet dat op die foto van de bench joun vram gewoon 8gb vram is en mijne 7.9gb vram is?.... lol

btw mijn steam is: black lyuda
Added ;)

GTX 1080: MSI Gaming X @ +90 core / +500 mem / +121% powertarget geen extra volts.
Hij kan hoger... deze is met +110 core / +500 mem / +121%
= 8483 :*) De GPU clock stabiliseert dan op 2000mhz @ 70 C.

https://www.techpowerup.c...41155/page-3#post-3793772

[Reactie gewijzigd door Vayra op 4 februari 2018 14:03]

thnx!! :D en een lekkere overklok:)... cpu hier ook de 5930K op 4.5Ghz op 1.35v
Ik zie dat SLI niet werkt, want jij heb de zelfde scores als ik met mijn Intel Core i7-5775C 4,0GHz, Geforce GTX 1080 (default clocks), 16GB 2400MHz RAM.
ik dezelfde scores als die van jou?.. op 1080 of 4k?.. :)
Alle twee, Standard Quality en 1920x1080 en krijg ik 11099 punten, en op High Quality en 1920x1080 krijg ik 7967 punten, en op High Quality en 4k kreeg ik 3485 punten, en op High Quality en 3440x1440 kreeg ik 4783 punten.

[Reactie gewijzigd door AmigaWolf op 4 februari 2018 04:08]

aah nice :D add me op steam! :) heb een leuke link voor je :) voor de benchmark
Ok zal het doen, zie je daar, heb je toegevoegd als vriend.

[Reactie gewijzigd door AmigaWolf op 4 februari 2018 13:44]

Rare scores die worden verzameld, in eens doet de gtx 780 het verrassend goed. In het rood is de mijne https://nl.hardware.info/...ff15-benchmark-png.35046/
Je kijkt naar 4K High. Alles onder de 2000 punten geldt als geheel onspeelbaar, en de 780 haalt maar 1434 punten op 4K High. Dat is dus een resultaat wat geschrapt wordt, wegens volledige onspeelbaarheid. Denk aan een zeer lage framerate, die ver onder de speelbare grens ligt, met waarschijnlijk ook nog zware stotters erbij.

Een GTX 780 is meer het type kaart waarmee je op 1080p Standard Quality wilt spelen, met een nette en zeer speelbare framerate. Op 1080p Standard Quality haalt een GTX 780 ongeveer 5185 punten, en een GTX 780 Ti ongeveer 6009 punten. Hiermee levert de GTX 780 Fairly High performance op. En de GTX 780 Ti zit nipt een klasse hoger: High performance.

Op 1080 High Quality, wat echt absoluut het maximum is wat deze twee kaarten nog aankunnen, scoren de 780Ti en de 780 respectievelijk 3848 punten en 3309 punten. Ook hier is er dus een duidelijk verschil.

Op 4K High de 780 en 780Ti vergelijken zoals jij doet is compleet onzinnig, beide leveren resultaten op die geschrapt worden wegens onspeelbaarheid, en het is dus geen geldige vergelijking.
Ik snap dat het onzinnig is en dat het onspeelbaar is maar daar kijk ik niet naar en is niet relevant voor wat ik bedoel met het verschil tussen de 2 kaarten. Persoonlijk vind ik de fps ook niet voldoende voor mijn eigen kaart met de gebruikte instellingen.
Niet zo gek, het is ook een Nvidia gameworks game helaas, dit kost iedereen prestaties. Dat kan je al zien aan de verhoudingen van de kaarten. Bv RX 480/580 horen normaal boven de 1060 6GB te zitten.

“Final Fantasy XV Windows Edition Launches Early 2018 With A Slew Of GameWorks Technologies”
https://www.geforce.com/w...ia-gameworks-enhancements

[Reactie gewijzigd door Enchantress op 2 februari 2018 12:45]

Duidelijk, er zit een hoop Nvidia gameworks effecten in, de game ontwikkelaars moeten de codes optimaliseren voor AMD en AMD moet optimalisaties door voeren op driver niveau. Maar ik doelde meer op de GTX 780 die doet het net zo goed als de GTX 780 Ti.

[Reactie gewijzigd door Gekke Jantje op 2 februari 2018 14:00]

VRAM (bandwidth) bottleneck. Precies de reden dat ik een half jaar geleden mijn 780ti de deur uit deed, en precies de reden dat je de 1060 3GB ook moet ontwijken, mocht dat in je op zijn gekomen ;)

Wat er steeds meer en effectiever wordt gedaan met game engines is het benutten van hoge VRAM capaciteit om zo met een smallere bus breedte toe te kunnen. Dit omdat de consoles het ook zo doen en omdat alle GPUs tegenwoordig goede delta compressie kunnen toepassen. Er zit een flinke energiebesparing in het versmallen van de bus, dat budget komt dan vrij voor hogere (core/mem) snelheden en dus meer performance per core.

Je kunt anno 2018 niet meer aankomen met minder dan 4GB in de mid range, zo simpel is het eigenlijk gewoon. 6GB recommended, 8GB future proof. Ook voor 1080p overigens. Deze trend gaat echt doorzetten. Op Kepler kaarten heb je dus ook meer last van 3GB zelfs met een bredere bus want daar is delta compressie nog niet aanwezig.

[Reactie gewijzigd door Vayra op 3 februari 2018 14:10]

Ja, leuk geprobeerd, maar Nvidia Turf effects en Hairworks kosten overal performance en AMD heeft al sinds The Witcher 3 uitgebreid de beschikking over bijvoorbeeld Hairworks implementatie, en Turf Effects bestaat al minstens vanaf Ghost Recon Wildlands. Verder houdt niets ze tegen om die opties te disablen (en dus veel hogere FPS neer te zetten). Het is niet alsof Nvidia de drivers van AMD maakt toch?

Verder zit er Ansel en Shadowplay ondersteuning in, en dat heeft nul effect op AMD.

Men moet eens stoppen met die fabeltjes over Gameworks, de bal ligt volledig bij AMD. Dat was ten tijde van The Witcher 3 zo, dat was bij Project Cars het geval (ook daar riep men om het hardst dat het Nvidia's schuld was, terwijl later bleek dat AMD gewoon slechte support heeft geleverd / te laat om de hoek kwam kijken), en ook nu is dat zo. AMD staat bekend om het (te) laat ondersteunen van nieuwe releases en dat blijft ze parten spelen. Kijk alleen al naar Vega support, de helft van de hardware wordt niet goed benut, google maar op primitve shaders. Dat is zeker ook de schuld van Gameworks? 8)7 Het is al meer dan 7 jaar zo dat AMD GPUs op basis van hun shader counts/hardware ondermaats presteren; alleen onder DX12 en Vulkan doen ze wat ze horen te doen.

Echt, deze plaat is allang grijsgedraaid en zwaar pass. Er is na al die jaren nog geen enkel onomstotelijk bewijs gepresenteerd, behalve het feit dat AMD gewoon veel minder investeert in hun driver teams en de support richting ontwikkelaars. Nou, ra-ra wat daar het effect van is?

De RX480 heeft nog NOOIT structureel boven een 1060 6GB gezeten. Ze zaten bij release al tussen de 6GB en 3GB varianten in en alleen in een hele smalle selectie DX12 titels komt de RX480 met 1-3% boven de 1060 uit, zelfs met de prachtige Crimson driver overhaul. Sorry, maar ik ben echt allergisch voor dit soort misleiding. In het land der blinden.

Mocht je twijfelen:

https://www.techpowerup.c...SI/GTX_1060_Armor/30.html

[Reactie gewijzigd door Vayra op 3 februari 2018 14:18]

Jij ook leuk geprobeerd

Het is overigens al jaren van testen juist WEL bewezen dat gameworks (gimpworks) prestaties kost aan AMD en NVIDIA, maar aan AMD veel meer.
AMD kan daar ook niet echt voor optimaliseren omdat gameworks close source is, dat zou je toch moeten weten.

Het wordt overigens ook niet voor niets gimpworks genoemd, en ja ook door vele NVIDIA gebruikers, dat zie je nu al met deze benchmark forums staan er al vol van, met name NVIDIA gebruikers. ;)

https://www.techpowerup.c.../AORUS_RX_580_XTR/29.html

[Reactie gewijzigd door Enchantress op 3 februari 2018 14:23]

Je linkt nu een overklokte RX580 tegenover stock 1060's, in plaats van een stock RX480.

Maar nog even over Gameworks, ga nog eens even heel goed na wat je nu eigenlijk zegt. Closed source, maar toch lukt het AMD om n de release van een game opeens wel de problemen op te lossen. Met TW3, met GR:W, met Project Cars, en alle andere genoemde voorbeelden ook. Hoe kan dat dan? Krijgen ze opeens op magische wijze een ander bestandje? Of is het toch echt zo dat AMD pas reageert als er stront aan de knikker is? Dus te laat, zoals ik aangeef? Die trend zie je namelijk ook los van Gameworks bij ze terug.

Dat de performance lager ligt is evident, dat weten we al bijna een heel decennium, ook AMD weet dat en dat ligt primair aan hun eigen GCN en de DX11 implementatie, en dr zijn echte cijfers van, gigantische datasets die het ondersteunen. Dat gelul over Gameworks is de omgekeerde wereld: AMD moet in actie komen. Nvidia doet het al, met prima resultaten en dito marktaandeel. Async shaders is daar ook een perfect voorbeeld van: in beginsel riep AMD+fanbase triomfantelijk dat Nvidia dit slecht had geregeld, aan het eind van de rit bleek dat Nvidia's implementatie al jaren op de muziek vooruit liep en in DX11 voor elkaar kreeg waar AMD een nieuwe API voor nodig had. Het enige opmerkelijke dat we hebben gezien van al die draw call-winst was een benchmark met heel veel ruimtescheepjes. Proof of concept, en verder is het nooit echt gekomen. Mantle: idem dito. We hebben nu Vulkan en ook daar doet Nvidia niet onder voor de rest.

Het zogenaamde "AMD fine wine" idee komt niet uit de lucht vallen. Ook dat is gebaseerd op het (te) laat optimaliseren. Of gewoon helemaal niet, zoals je nu ziet aan de relatieve performance van de Fury (X), die slechter af is tov de 980ti dan bij launch. Het wordt echt tijd om de dingen bij de naam te gaan noemen ipv 'hear-say' dat je baseert op het sentiment van het 'grote boze Nvidia' tegen 'underdog AMD'.

[Reactie gewijzigd door Vayra op 3 februari 2018 14:42]

Uhmm je linkte zelf ook een overklokte 1060....

Fury x is on-par op 1080p vs de 980TI.
Sneller op 1440p en 4K.
https://www.techpowerup.c.../GTX_1070_Ti_FTW2/28.html

AMD heeft nergens geoptimaliseerd voor gameworks > close source.
AMD heeft via de driver tesselation sterk verminderd en daarom is het beter gaan presteren.
Raar overigens dat alle GForce kaarten veel beter gaan presteren zonder gameworks dan met, terwijl er visueel niets veranderd.

Het mooie is, is dat alles te testen is dus weet ook niet zo goed waarom je gameworks zo verdedigt...

Maar goed.
Nee, goed lezen. Er staat gewoon stock in die RX480 performance chart, en ook die is hoger. Dat Gameworks performance kost bestrijdt niemand, dat is ook nooit zo geweest, noem mij eens een extra detail setting die geen performance kost? Verder lijkt het me interessant om te onthouden dat reviewers eigenlijk altijd de Gameworks zaken disablen. Zo ook met Hairworks. Doet niets met de relatieve performance...

Waar het om gaat is het verschil tussen 'willen' en 'kunnen'. AMD roept natuurlijk dat het niet 'kan'. Ik zeg dat AMD het niet 'wil'. En dat laatste blijkt uit vl meer dan alleen Gameworks, zoals eerder aangehaald - het blijkt uit budgettering, het blijkt uit elk bericht van developers als er weer een Gameworks issue ontstaat bij AMD (devs en AMD spreken elkaar telkens tegen in die situaties) enz enz. Daar stap jij tot nu toe volledig overheen alsof het niet bestaat. Erg vreemd. De tesselation problemen rondom AMD kaarten zijn ook niet van gisteren namelijk, ze hebben al jaren de tijd om daar een mooie oplossing voor te bedenken. En dat is echt hun eigen tess engine. Het idee dat AMD 'er niet bij kan' slaat echt als een tang op een varken, dat is ook allang bewezen, namelijk door AMD zelf wanneer ze het probleempje weer oplossen.

Visueel verandert ook echt wel wat trouwens, speel een keer GR:W met Turf Effects en zonder bijvoorbeeld... Of speel Borderlands zonder PhysX, gebruik SSAO ipv HBAO+, ik kan een tijdje doorgaan, maar het is echt wel een meerwaarde. Hairworks, daar kunnen we het over eens zijn inderdaad, heeft weinig nut.

Andere zaken die voortvloeien uit GameWorks: MFAA, T(X)AA, FXAA. De laatste twee worden breed benut en bieden meerwaarde die ook AMD kaarten ten goede is gekomen.

Waarom ik het verdedig? Omdat dit soort drogredenen al jaren worden aangehaald als smoesje om AMD's ondermaatse prestaties te verhullen. Het is steeds een ander dingetje, maar het is om de grote hoop stront heen draaien. De kern van het probleem is dat AMD sinds de overname van ATI geen cent winst uit GPU weet te trekken, en daar zijn ze zelf debet aan. Het is ongekend triest dat een bedrijf zo met het vingertje wijst naar de concurrent voor zijn eigen tekortkomingen. En wat nog triester is, zijn alle mensen die dat geloven, en als klap op de vuurpijl ook nog denken dat daar iemand beter van wordt.. het enige dat je bewerkstelligt is dat AMD minder druk voelt om beter te worden.

En dan sluit ik af met deze 'bombshell': kijk waar nu de grote aantallen VEGA kaarten naartoe gaan: de topsegmenten, dus NIET de gamers. De reden dat RX Vega bijna niet beschikbaar is, is omdat deze chip drie keer over de kop gaat in elk ander segment, als een MI25 of een FE. Z belangrijk vindt AMD jou, ons, als klant.

[Reactie gewijzigd door Vayra op 3 februari 2018 15:12]

Mooi verwoord. Ik vind dat je wel een punt hebt. Ik ben wel heel nieuwsgierig naar wat jouw mening is over Freesync? Want ik merk als zelfbouwer dat dat bij sommigen wel een doorslaggevende factor is in ruil voor een paar fps minder.
Daarop voortbordurend: er is natuurlijk een totaal aparte discussie te voeren over welk percentage gamers iets geeft om schijnbaar merkbare verschillen in grafische technieken en daarmee ook grafische kwaliteit (overigens ben ik er 1 van).
FreeSync werkt prima en doet wat mij betreft niet echt meer onder voor Gsync dus wat dat betreft is dit een puntje voor AMD.

Mijn persoonlijke twee centen: ik ga me niet aan een GPU vendor binden omdat die een specifieke vorm van adaptive sync benut. Ik heb ook GEEN Gsync of FreeSync monitor en zal er nooit een kopen tenzij ik ermee op beide kampen iets mee zou kunnen. Dit is ordinaire koppelverkoop waar ik niet aan meedoe. Er zijn veel belangrijkere monitor-eigenschappen dan dit; zoals het paneel dat erin zit en de gebruikte techniek (VA/IPS/TN).

Ondanks het gebrek aan adaptive sync in de monitor, heb ik wl:
- zeer lage input lag
- 120 fps/hz locked
- geen screen tearing

Dankzij dit
https://www.blurbusters.com/howto-low-lag-vsync-on/
icm Fast Sync... op n van de beste 1080p VA high refresh monitoren ooit. (Eizo FG2421) 400 ekkies, geen centje pijn en vijf keer zoveel contrast als op een IPS of 2x zoveel als op een van de matige VA panelen die je nu ziet in bijvoorbeeld die Samsung QLED rommel.

[Reactie gewijzigd door Vayra op 4 februari 2018 15:53]

“Omdat dit soort drogredenen al jaren worden aangehaald als smoesje om AMD's ondermaatse prestaties te verhullen”

Dus NVIDIA presteert ook ondermaats?
Aangezien de enige kaart die iets boven AMD uitsteekt is een GTX 1080TI. De rest heeft sterke concurentie.
Je blijft om de hete brij heen draaien zonder ook maar op n argument van mij in te gaan. Heel vreemd, zo komen we nergens natuurlijk. Maar ook op dit laatste comment ga ik je corrigeren, want ook hier zie je het niet goed;
https://www.techpowerup.c...Force_GTX_1080_Ti/25.html
Oh wacht, het ligt natuurlijk aan Gameworks! Laten we dan deze pakken!
https://www.techpowerup.c...Force_GTX_1080_Ti/23.html

Gelukkig werd het met Vega allemaal stukken beter...
https://www.techpowerup.c...Radeon_RX_Vega_64/27.html
En RotTR:
https://www.techpowerup.c...Radeon_RX_Vega_64/24.html

VEGA komt ongeacht BIOS/settings en in zijn duurste '64' variant niet boven een stock GTX 1080 uit. OC? Laten we het er maar niet over hebben. Prijs/performance? Forget it. Perf/watt? Ja met een undervolt, maar ook dan kom je niet boven deze FPS cijfertjes uit - dat kost performance, en je moet maar een chip hebben die ook een undervolt kan hebben.

En mocht je ondanks alles daadwerkelijk tch denken: Ik koop er een! Dan zie je dit:
categorie: Videokaarten

Hoeveel bevestiging heb je nog nodig verder...

[Reactie gewijzigd door Vayra op 4 februari 2018 14:17]

En wat is je punt precies?

RX 580 8GB werkt perfect hier.
We wachten gewoon op Vega 56 en anders wachten we nog een klein jaartje op Navi.

Ik kijk eerder naar drivers, features, smooth gameplay, hoelang kan ik ermee door, prijs/performance enz. 5/10FPS meer ach niemand die het merkt, heb ook niet voor niets de GTX 1070 verkocht.

[Reactie gewijzigd door Enchantress op 4 februari 2018 15:12]

Dus NVIDIA presteert ook ondermaats?
Aangezien de enige kaart die iets boven AMD uitsteekt is een GTX 1080TI. De rest heeft sterke concurentie.
^ dit is het punt. Je maakt dat punt zelf. Ik corrigeer dat met cijfers die laten zien dat Vega achterblijft, niet louter op een 1080ti maar OOK op een 1080 op stock, hoe je het ook wendt of keert. Sterke concurrentie? Ik zie het niet hoor. Je hebt met AMD een warmere kaart die meer verbruikt, evenveel of meer kost en gelijk presteert en achterloopt zodra overklokken in het spel komt. Features, smooth gameplay... ook daar zie ik geen winst in 't rode kamp...

De cijfers liegen niet, maar je lijkt er een beetje blind voor te zijn... Ik weet niet hoeveel ik nog moet linken voordat dat kwartje gaat vallen, maar ik stop er nu wel mee.

Even een recap: dit begon met Gameworks en hoe enorm dat AMD benadeelt, kijk nog eens naar de performance summaries, want die ondersteunen dat argument totaal niet. De verhouding is exact gelijk in een GameWorks versus een AMD evolved titel, zie RotTR versus TW3.

[Reactie gewijzigd door Vayra op 4 februari 2018 15:42]

“De cijfers liegen niet, maar je lijkt er een beetje blind voor te zijn... Ik weet niet hoeveel ik nog moet linken voordat dat kwartje gaat vallen, maar ik stop er nu wel mee”

Over welke cijfers heb je het nu eigenlijk? AMD gamed geweldig, drivers zijn zeer goed, veel bruikbare features enz.
Wat probeer je precies te bereiken? Dat iedereen NVIDIA moet kopen, omdat die misschien een paar FPS’jes meer hebben?

Ik koop geen NVIDIA meer in ieder geval, zoals ik al zei heb niet voor niets de GTX 1070 verkocht en een RX 580 gekocht. ;)
Scroll maar even terug naar boven als je de waarom vraag niet kunt beantwoorden. Alle info staat er, begrijpend lezen moet je echt zelf leren.

Mijn god. Veel plezier met je downgrade iig...

[Reactie gewijzigd door Vayra op 4 februari 2018 18:11]

“Mijn god. Veel plezier met je downgrade iig”

Wel betere drivers, smooth gameplay, features, freesync, en geen bsod’s enz. ;)

Maar bedankt.

[Reactie gewijzigd door Enchantress op 4 februari 2018 18:18]

Niet zo gek, het is ook een Nvidia gameworks game helaas, dit kost iedereen prestaties. Dat kan je al zien aan de verhoudingen van de kaarten. Bv RX 480/580 horen normaal boven de 1060 6GB te zitten.

“Final Fantasy XV Windows Edition Launches Early 2018 With A Slew Of GameWorks Technologies”
https://www.geforce.com/w...ia-gameworks-enhancements
Wil niet vervelend doen maar de Geforce GTX 1060 6GB en Radeon RX 480/580 zijn bijna gelijk in de meeste spellen, het is soms maar 5 fps verschil, dus ze zijn zo goed als gelijk qua snelheid in spellen.

http://www.guru3d.com/art...070_ti_hof_review,15.html

[Reactie gewijzigd door AmigaWolf op 3 februari 2018 19:29]

1700X (OC 4.0Ghz), 32GB Ram 3200mhz, GTX 1080TI en op een Samsung 960 Pro genstalleerd.

1080p high zat ik rond de ~9800 punten en 4K high ~4600.

FPS 1080p schommelde tussen de 135 en 88 met hier en daar inderdaad stuttering zoals andere mensen aangaven. 4K zat ik tussen de 68 en 38 te schommelen met stutters op precies dezelfde locaties eigenlijk. Zover ik zie aan de image quality word er een AA over de 4K output heen gegooit op high settings, naar mijn beleving is het MSAA wat op die resolutie nog al overkill is.

Het zou fijn zijn om graphical settings te hebben met iets meer inzicht dan "low, standard en high". Ik denk namelijk dat 4K zonder of een andere implimentatie van AA een behoorlijke performance boost kan geven.
Ter vergelijking mijn i7 4790k @4,7GHz, 2400MHz DDR3 en 1080ti@2012MHz(vast) doet 4868 @4K high.
Hoeveel MHz draait je 1080 ti?

edit: 1080p 10592

[Reactie gewijzigd door Razkin op 2 februari 2018 17:19]

Ik zat blijkbaar op stock, met "OC" boost ik naar ~2000mhz core en ~5850 memory. Daarna zat ik op de 4992. Jammer net geen 5k, maarja ik vind het prima gezien het een klein Ncase M1 V5 kastje is :9

https://www.dropbox.com/s/1pphfork0gxrkuh/4992.png?dl=0
Yep op 4k is fxaa vaak al genoeg. Hangt natuurlijk wat van je monitor/tv grootte af.

[Reactie gewijzigd door nzweers op 2 februari 2018 11:40]

Vraag me af of deze resoluties dan ook betekenen dat de game geen ultra wide 21:9 support krijgt.
De benchmark is gelimiteerd. Ondersteuning voor meer resoluties zit sowieso in de complete game, en volgens mij wordt ook ultrawide gewoon een optie.
Zelfs FF12 (12 jaar oude game, kwam gister voor PC uit) heeft ultrawide support. Dus dat zal wel goed komen.
Ik vind het frappant dat Square Enix met Final Fantasy titels, titels die juist historisch op de PS uitkwamen, al voor (minstens) de tweede keer met een benchmark tool komt voor hun FF titel op de PC. Voor FF11 hadden ze ook al zo een tool. Weinig tot geen andere uitgevers komen met dat soort tools voor hun top titels...
Tja consoles hebben eenmaal niet zon benchmark nodig. Voor de pc gamers is te hoge verwachtingen scheppen ook niet handig, dus een tool die daarbij helpt kan de verkopen wellicht helpen boosten.
Lijkt me juist iets dat elke bedrijf dat een pre-order aanbied dit gaat doen. Dan heb je op zijn minst een idee van wat je krijgt en of dat soepel draait.
Het zou maar zo kunnen dat Square Enix naar verkoopcijfers van games zelf kijkt en niet, zoals Sony, primair naar de verkopen van zijn eigen consoles en het marktaandeel daarvan. De PC playerbase groeit en kan niet vergeten worden. Wil je die sales pakken, dan moet je wat liefde laten zien en zo'n benchmark is daar een goed voorbeeld van. PC gamers kicken nu eenmaal op gratis content en cijfertjes, zo simpel is het ;)
Het spel ziet er aardig goed uit, toch een aantal dingen waar ik mij eigen aan stoor. (niet alleen bij FFXV)
Wanneer de groep met hun auto het gras op rijden en uitstappen zie je het gras door de bodemplaat van de auto komen, ook wanneer de deuren open worden gemaakt clipt het gras er doorheen.
Met de chocobo's rijden ze even door elkaar heen en botsen ze niet tegen elkaar op.

Verder:
9450 op 1920x1080 High Quality
11119 op 1280x720 High Quality

Draaiend op:
i7 8700k 32GB DDR4
1080GTX Ti
2x960Pro
9216 met een 4790k @ 4,6Ghz en 1080Ti (MSI Gaming X, stock)
Verschil valt me erg mee tozv jou nieuwe cpu!.
ik denk ook persoonlijk dat de cpu tot een bepaalde hoogte een limiterende factor is en het daarna een pure GPU kwestie word?
Is het ook; vooral op lagere resoluties heeft de CPU nog wel wat invloed (1080p), daarboven maakt het relatief weinig uit (enkele games uitgezonderd).
Klopt maar er zit toch al wel een behoorlijke platform/CPU bottleneck in hoor op 1080p. Ik kom met een GTX 1080 veel dichter in de buurt van een 1080ti dan je zou verwachten, en dit is met een 8700k @ 4.8:

https://www.techpowerup.c...ased.241155/#post-3792870

Er zou 30-35% tussen een 1080 en 1080ti moeten zitten..

[Reactie gewijzigd door Vayra op 3 februari 2018 14:49]

9216 met een 4790k @ 4,6Ghz en 1080Ti (MSI Gaming X, stock)
Verschil valt me erg mee tozv jou nieuwe cpu!.
Komt ook omdat zo goed als geen een spel gebruik maakt van meer dan 4 cores, en dan doet een 6 core CPU het niet veel beter, hij is waarschijnlijk alleen iets sneller omdat hij is OC op 5,0GHz en omdat het een nieuwe CPU is.
Veel van de auto's waar je langs rijdt hebben geen bestuurders erin zitten, soms wel bijrijders, echt toppie :P
Dat heeft (denk ik) te maken met dat ze in Japan links rijden. De 'bijrijder' is de bestuurder. Wat dan wel weer heel vreemd is dat de Regalia zijn stuur weer op onze manier in de wagen heeft zitten en de auto's in de games allemaal aan de rechterkant rijden.

edit: even wat plaatjes gezocht. Hier zit het stuur links, en hier weer rechts. Ik snap er niks. van

[Reactie gewijzigd door Jasphur op 2 februari 2018 11:51]

Nope, geregeld zijn de auto's helemaal leeg, en de bijrijders sturen niet, het stuur zit in die auto's aan de linkerkant. Wanneer er wel een NPC in zit achter het stuur dan heeft die ook zijn/haar handen aan het stuur.

https://imgur.com/gallery/bDqxS
Gekke is dat het ook verschilt per keer, er rijdt ook een convertible rond met twee kids achterin, ene keer zitten er twee personen voorin, andere keer niemand, dus alleen de kids achterin, heel vreemd. :)
Stiekem zijn het allemaal passagiers.. want.. allemaal autonome auto's :P
Stuur is voor de sier.
Wow slecht gedaan zeg die Benchmark, dat geregeld zijn de auto's helemaal leeg, en de bijrijders sturen niet, ook aangezien het ook meteen reclame is voor de spel zelf.

[Reactie gewijzigd door AmigaWolf op 3 februari 2018 19:15]

volgens mij snappen ze het zelf ook niet meer ;)
Reclame van Tesla? Autopilot :P

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Samsung Galaxy S9 Dual Sim OnePlus 6 Battlefield V Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*