Door Jurian Ubachs en Jelle Stuip

Battlefield Hardline Benchmark

De pc-versie nader bekeken

29-03-2015 • 06:00

172

Multipage-opmaak

Inleiding

Zoals helaas wel vaker het geval, hadden we voorafgaand aan de release van Battlefield Hardline alleen de beschikking over een consoleversie van het spel. Voor speeltijd met de pc-versie moesten we dus wachten tot na de release van EA's nieuwste shooter. Dat betekent natuurlijk niet dat we er geen aandacht aan geven, want ook voor pc-gamers is Battlefield Hardline waarschijnlijk de belangrijkste shooter die dit voorjaar op de markt komt. Op de volgende pagina's nemen we de grafische en technische kant van het verhaal met je door, maar we kijken eerst nog even snel naar de andere verschillen tussen de pc-versie en de overige versies. Dat de game audiovisueel superieur is aan de consoleversies is immers niet bepaald een verrassing.

Battlelog

Het belangrijkste verschil tussen de pc-versie en de overige versies van Battlefield Hardline zul je niet terugvinden in de gameplay. Het duikt namelijk al op wanneer je de game voor het eerst opstart. Net als bij Battlefield 4 verloopt alle navigatie via de browser-based interface Battlelog, waar eventueel ook een app voor je telefoon of tablet van verkrijgbaar is. Wat je op de PlayStation 4 en de Xbox One allemaal in in-game menu's regelt, gaat op de pc via Battlelog. Hier houd je dus je progressie bij, stel je je loadouts samen en selecteer je een server uit de serverlijst - die zich aanpast aan de filters die je eventueel hebt ingesteld. Enfin: niet nieuw ten opzichte van Battlefield 4 natuurlijk, maar wel iets waarin de game verschilt van zijn consolebroertjes.

Eenmaal in het spel valt eigenlijk op dat er niets opvalt. De pc-versie is inhoudelijk namelijk indentiek aan de consoleversies. Daarom verschuift de focus dus al snel naar de technische verschillen, met om te beginnen de resolutie waarop het spel draait. Voor de volledigheid: de Xbox One-versie draait op 720p, de PlayStation 4-versie op 900p. Wie Battlefield Hardline in een hogere resolutie wil spelen, kan dus niet om de pc-versie heen. Zeker niet als je weet dat deze game ook al op een pc met een gemiddelde processor en een midrange-videokaart probleemloos op 1080p draait, zoals blijkt uit de benchmarks die je op de volgende pagina's kunt vinden.

Videoreview op basis van de PlayStation 4-versie, zoals eerder ook gepubliceerd in de review. Inhoudelijk is die versie gelijk aan de pc-versie.

Testsystemen en screenshots

Battlefield Hardline maakt net als Battlefield 4 gebruik van de Frostbite 3-engine, maar de game lijkt in nog meer opzichten op Battlefield 4. De menu's en grafische opties komen grotendeels overeen met Battlefield 4 en net zoals in deel vier is er de mogelijkheid om gebruik te maken van de DirectX 11- of Mantle-api.

AMD Catalyst Omega 14.12Nvidia GeForce 347.88
AMD Radeon R9 290X Nvidia GeForce GTX 980
MSI Radeon R9 280X GAMING (HD7970) Inno3D GeForce GTX 970 OC
AMD Radeon HD7950 (R9 280) Nvidia GeForce GTX 780
MSI Radeon R9 270 2G GAMING (HD7870) Nvidia GeForce GTX 770 (GTX 680)
AMD Radeon R7 260X (HD7790) Nvidia GeForce GTX 760

Van AMD en Nvidia testten we de snelste - enigszins betaalbare - kaarten, de R9 290X en de GTX 980. De acht andere videokaarten hebben we uitgezocht op basis van de openbare gebruikersstatistieken van Steam, waarbij we naar de populairste videokaarten van de laatste twee generaties keken. Het voordeel van de bovenstaande selectie is dat de helft van die kaarten wat architectuur betreft ook in een eerdere of latere generatie terugkomt, maar dan meestal met andere kloksnelheden. Heb je een GTX 680, dan is dat eigenlijk een GTX 770 met een lagere geheugensnelheid, terwijl een R9 280 gewoon een overgeklokte HD 7950 is.

Intel X79 AMD 990FX
Moederbord Asus RoG Rampage IV Extreme ASRock Fatal1ty 990FX Killer
Processor Intel Core i7 4960X @ 4,4GHz AMD FX-8350
Geheugen Kingston HyperX KHX1866C9D3K4/16GX Corsair Vengeance LP CML16GX3M4X1600C8 (2x4GB)
Ssd Crucial MX100 512GB PNY Prevail Elite 240GB
Koeler Intel Thermal Solution RTS2011LC Noctua NH-D14
Voeding Corsair Professional Gold AX750 Corsair HX850W
Besturingssysteem Windows 8.1 Enterprise Windows 8.1 Enterprise

Omdat niet iedereen zal hebben geïnvesteerd in een Core i7-4960X, maken we naast ons gebruikelijke X79-systeem gebruik van een systeem met een AMD-processor. De FX-8350 is niet overgeklokt en tikt op een standaardsnelheid van 4GHz en een turbosnelheid van 4,2GHz.

Screenshots

We hebben de game op de presets high en ultra gebenchmarkt. Ultra is uiteraard de hoogste instelling, terwijl high net daar onder komt. Het verschil in framerates was echter al dusdanig groot dat we geen lagere presets hebben getest. Visueel doet high op het eerste gezicht weinig onder voor ultra, maar de verschillen zijn wel degelijk zichtbaar. Anti-aliasing maakt misschien wel het grootste verschil, en zorgt ervoor dat de randen van objecten er mooi glad uitzien op ultra, terwijl dezelfde randen op high 'hakkelig' ogen.

BFH HighBFH UltraBFH HighBFH UltraBFH HighBFH UltraBFH HighBFH Ultra

Battlefield Hardline high (links) en ultra.

Benchmarks

De tien videokaarten hebben we op twee systemen getest en daarbij zijn we begonnen met de ultra-instelling. Om te zien of de processor een bottleneck vormt en zo ja, in hoeverre, hebben we het spel zowel op ons overgeklokte i7-systeem als op een systeem met een AMD FX-8350-processor gedraaid.

Battlefield Hardline - 1920x1080 - Ultra - 4xMSAA
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
******
+
*
59,3 / 72,8
Nvidia GTX 980 (AM3)
******
+
*
58,7 / 71,9
Inno3D GTX 970 (AM3)
*****
+
*
48,7 / 62,2
Inno3D GTX 970
*****
+
*
50,7 / 62,1
AMD R9 290X
*****
+
*
47,7 / 57,3
AMD R9 290X (AM3)
*****
+
*
47,7 / 56,8
Nvidia GTX 780 (AM3)
****
+
*
40,0 / 51,4
Nvidia GTX 780
****
+
*
39,7 / 51,3
AMD R7 280X
***
+
*
36,0 / 45,4
AMD R9 280X (AM3)
****
+
*
37,7 / 45,1
Nvidia GTX 770
***
+
*
32,7 / 42,3
Nvidia GTX 770 (AM3)
***
+
*
32,0 / 42,2
AMD HD7950
***
+
*
28,3 / 33,8
Nvidia GTX 760 (AM3)
**
+
*
26,0 / 33,8
AMD HD7950 (AM3)
**
+
*
26,7 / 33,4
Nvidia GTX 760
**
+
*
25,7 / 33,3
AMD R7 270 (AM3)
**
+
*
25,7 / 31,4
AMD R7 270
**
+
*
24,7 / 31,3
AMD R7 260X
**
+
*
17,0 / 21,9

De snelste videokaarten op de hoogste instellingen zijn, weinig verrassend, Nvidia's GeForce GTX 970 en 980, gevolgd door AMD's R9 290X. De onderlinge verschillen tussen de beide testsystemen zijn erg klein en de processor lijkt bij deze game dan ook niet snel de bottleneck te vormen. Wil je op ultra-instellingen spelen en de framerate boven de 30fps houden, dan zul je minstens over een GTX 770 van Nvidia of een AMD R9 280X moeten beschikken.

Battlefield Hardline - 1920x1080 - High - 0xAA
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
******
+
*
102,0 / 124,4
Nvidia GTX 980 (AM3)
*****
+
*
98,7 / 122,2
AMD R9 290X
*****
+
*
91,7 / 110,3
Inno3D GTX 970
*****
+
*
88,3 / 108,2
AMD R9 290X (AM3)
*****
+
*
87,0 / 105,5
Inno3D GTX 970 (AM3)
*****
+
*
85,7 / 105,2
AMD R9 280X
****
+
*
70,7 / 87,2
Nvidia GTX 780 (AM3)
****
+
*
68,0 / 86,4
Nvidia GTX 780
****
+
*
67,7 / 85,5
AMD R9 280X (AM3)
****
+
*
69,0 / 85,2
Nvidia GTX 770 (AM3)
***
+
*
57,0 / 74,0
Nvidia GTX 770
***
+
*
56,3 / 71,8
AMD HD7950
**
+
**
37,3 / 64,9
AMD HD7950 (AM3)
***
+
*
52,0 / 63,8
AMD R7 270
***
+
*
46,5 / 60,6
AMD R7 270 (AM3)
***
+
*
49,0 / 60,4
Nvidia GTX 760 (AM3)
**
+
*
43,0 / 58,1
Nvidia GTX 760
**
+
*
44,7 / 57,1
AMD R7 260X
**
+
*
29,0 / 41,4

Heb je een wat langzamere videokaart, dan kan de high-instelling uitkomst bieden, want bijna alle geteste videokaarten houden de minimale framerate daarbij boven de 30fps. Met het oog op de niet al te significante verschillen tussen beide instellingen zouden wij dan ook niet speciaal voor Hardline in een dure videokaart investeren .

Battlefield Hardline - 1920x1080 - Ultra (Mantle)
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
AMD R9 290X
***
+
****
26,6 / 55,5
AMD R9 290X (AM3)
***
+
****
26,1 / 54,1
AMD R9 280X
***
+
**
24,5 / 42,9
AMD R9 280X (AM3)
****
+
*
33,9 / 42,1
AMD HD7950
***
+
*
24,8 / 31,7
AMD HD7950 (AM3)
***
+
*
25,0 / 31,1
AMD R9 270
*
+
**
9,6 / 26,2
AMD R7 270 (AM3)
*
+
**
4,7 / 23,7
AMD R7 260X
*
+
**
8,5 / 19,1

Naast DirectX biedt Battlefield Hardline ook de mogelijkheid om bij AMD-kaarten voor Mantle als grafische api te kiezen. Vooral systemen met langzame processors en snelle videokaarten hebben profijt van Mantle, zo bleek al eens uit onze tests met Battlefield 4. Ons FX-8350-systeem draait Hardline echter al even snel als het Intel-systeem, dus we verwachtten vooraf al niet veel prestatiewinst. Uit de benchmarks blijkt zelfs dat Mantle een net wat lagere framerate oplevert dan DirectX.

Wie de pc-versie van Battlefield Hardline wil aanschaffen, hoeft dus niet bang te zijn dat zijn systeem er veel moeite mee heeft. Met een gemiddelde processor en een midrange-videokaart speel je de game al zonder problemen op high-instellingen bij een resolutie van 1920x1080 pixels. Heb je een hogere schermresolutie of doe je het niet voor minder dan 60fps of ultra-instellingen, dan is een high-end videokaart echter onontbeerlijk.

Reacties (172)

Sorteer op:

Weergave:

Ik mis een beetje de 1440p benchmarks, want 1440p begint ook erg populair te worden...daarnaast zeggen jullie dat de fx8350 géén bottleneck gaat vormen in Hardline, maar waarschijnlijk is dat in de singleplayer. Als je multiplayer gaat spelen wordt het een heel ander verhaal. Met BF4 zit mijn cpu (i5 4690k) op zo'n 50% load tijdens de singleplayer en tijdens de multiplayer zit ie op zo'n 90% en 95% load met een r9 290, beide niet overgeklokt...
Daarnaast zijn er ook hele volksstammen die gamen op een laptop. Ik had graag benchmarks gezien van de 980/970m en 860m.
Goed idee, in zo'n benchmark mogen de mobiele gpu's niet ontbreken anno 2015. De 970m en 980m kunnen op 1080p aardig meekomen lijkt mij.
Een beetje verder kijken eerst misschien?, een 980m is ongeveer gelijk aan een 780 en een 970m aan een 770 in prestaties. Ik snap dat je graag je jouw kaart ook wou zie, maar dat wordt gewoon veel te veel, om naar te zwijgen over de extra tijd laptop chips kosten*.

*Bij gewone benchmarks wordt alles geinstalleerd, en alleen de GPU gewisseld, dat wordt lastig met een laptop..
Precies wat jij zegt, ik wil een benchmark zien van "mijn" kaart dan weet ik wat ik kan verwachten als ik een game koop en of die lekker draait op mijn laptop. En een referentie game laptop in de benchmark opnemen lijkt mij daarom heel informatief.
Ik heb een gtx680m en die doet het op net niet ultra instellingen uitstekend. Geen drops in framerate ofzo, hoeveel fps ik haal weet ik niet, maar het speelt vloeiend.
Die volksstammen zitten dan wel ergens verstopt in een regenwoud.
Gelukkig zijn die gpu's te vergelijken met de 960
http://www.notebookcheck....Benchmark-List.844.0.html

Staat hardline nog niet tussen. Maar zal niet lang duren. En geeft je een goede indicatie wat je kan verwachten van je gpu. En ik denk dat er meer op bv een gtx 660 spelen dan een laptop.
En zoals notebookcheck ook aangeeft kan het makkelijk een paar fps schelen tussen laptops met de zelfde specs.
Hele volksstammen die high-end games spelen op laptops?
Eh nou ja, in mijn stam (gezin) wordt er haast uitsluitend op laptops gespeeld...een 760m kan nog wel wat hebben in combinatie met een i7 mq, mijn zoons spelen zelfs op laptops met slechtere specs maar die spelen niet op 1080p maar op 1366x768.

Je hoet niet alles op 1080p 16xAA max graphics te spelen maar een indicatie zou wel leuk zijn. Al geeft deze pagina wel een indicatie, vreemd genoeg zegt dat dat voor BFH mijn videokaart goed genoeg is maar mijn cpu niet dus waarschijnlijk is het wel te doen mits wat tweaken...
of op intel HD grafics :P
1440p is echt niet te doen in gaming, hoeft van mij ook niet echt gebenchmarked to worden daardoor. 2x GTX 980 en Far Cry 4 draait voor geen kont op 1440.
Als ik op YouTube kijk, zie ik toch zat mensen die een R9 290 hebben, BF4 op ultra, 1440p, kunnen spelen rond de 50fps...
Dat is op ultra, zet je de 4xmsaa naar 2xmsaa haal je al gauw 60fps zonder dat het écht merkbaar is in graphics...
Volgens mij is FC4 nog niet echt een spel om te benchen (correct me if i'm wrong :) ). En 2x980 is echt beest hoor, 1x980 kan makkelijk bijna alle games op 1440p @ultra spelen met ongeveer 60-70 (of meer) fps.
1x980 kan makkelijk bijna alle games op 1440p @ultra spelen met ongeveer 60-70 (of meer) fps.
En als dat niet het geval is is er straks ook nog de Titan X waarmee je ongeveer 1.5x performance krijgt ten opzichte van een GTX 980. :)

[Reactie gewijzigd door caesar1000 op 22 juli 2024 18:03]

Waarom zou je de GeForce GTX Titan X nemen als de GeForce GTX 980 Ti (die binnen kort uit komt) sneller is en een STUK goedkoper zal zijn?
Omdat die nog niet aangekondigd is en ik niet met 'bewijs' wil komen wat simpelweg niet bestaat.

En ja (dit staat los van de uitleg hierboven), waarschijnlijk is de 980 Ti straks een veel betere keus voor het geld dan de Titan X zoals we zagen bij de 780 Ti. Zou ook nooit een Titan kopen en vind zelf dat je beter een *70 of *80 Ti kunt kopen dan een *80 of een Titan.
Je kijkt naar een benchmark om te zien wat het resultaat is. Niet om bevestigd te zien wat je graag wil horen (de dikste kaart kan alles aan).
Als 1440p niet haalbaar is dan is dat net heel interessant om te weten. Want dan weet ik dat ik in mijn eigen vingers snij als ik een 1440p scherm koop. Is het wel haalbaar dan weet ik dat 1440p een optie is.

Overigens als ik hier kijk dan zie ik dat 1440p op 2x 980 GTX boven de 60 FPS blijft, pas bij 3840x2160 duikt hij onder de 60 maar dan nog met een average van 52.8 wat prima is.
bron

Wel de juiste drivers? De juiste SLI profiles? Eventueel nog een nodige gamepatch voor de SLI performance?
En dat is dan weer de draak van SLI/Crossfire, extra performance maar ook extra bugs, extra instellingen en extra updates nodig. En als je spel Assasin Creed noemt kan je het eerste jaar beter gewoon SLI/Crossfire uitzetten.
Nou, IMHO kun je al redelijk gokken wat het verschil ongeveer zal zijn als je ziet dat een 980 toch met moeite tussen de 53 en 70 fps haalt op ultra.... dan hoef je niet te verwachten datie 1440p boven de 50 fps komt, en 4K kun je dus al zeker wel vergeten...
Ja laten voortaan nog maar 1 testcase neerzetten, de rest kun je wel gokken aan de hand van specificaties van de apparatuur..
Dat is natuurlijk ontzettend overdreven, maar niet relevante resultaten hoeven er van mij inderdaad niet in. De 980 haalt net acceptabele framerates op 1080p, DUS inderdaad 1440p is niet te doen met de huidige hardware.

Mocht je inderdaad als enthousiasteling/early adopter benchmarks ergens van willen weten, moet je niet in de mainstream berichten gaan zoeken.
Dat is natuurlijk ontzettend overdreven, maar niet relevante resultaten hoeven er van mij inderdaad niet in. De 980 haalt net acceptabele framerates op 1080p, DUS inderdaad 1440p is niet te doen met de huidige hardware.
Met de Titan X is het hoogstwaarschijnlijk wel degelijk op ultra 1440p te spelen. Ja, ik weet dat het overgrote deel van ons geen Titan X in zijn computer zal hebben als 'ie is uitgekomen, maar de Titan X valt wel onder 'de huidige hardware' en zal dan ook een oplossing zijn voor de die-hards onder ons.
Maar de Titan X is nog helemaal niet beschikbaar...
Het is misschien niet los te koop op het moment maar al wel getest door hardware sites en bijna beschikbaar en je kunt dus wel zeggen dat het onder 'de huidige hardware' valt.

[Reactie gewijzigd door caesar1000 op 22 juli 2024 18:03]

Is wel beschikbaar, collega van me heeft hem al in z'n PC zitten sinds afgelopen zaterdag :)
De 980 haalt net acceptabele framerates op 1080p
60 fps net acceptabel? voor mij meer dan genoeg (snap dat hele ik moet 60 fps hebben nog steeds niet, en speel al me hele leven op de pc) voor mij is een stabiele 30/40 veel beter als een schommelende 60

Voor mij zou het dus waarschijnlijk prima te doen zijn op 1440p (rond de 40 fps gok ik)
Als je geen last wilt hebben van tearing zul je Vsync moeten gebruiken. Werkt je monitor op 60Hz dan wil je op 30, 60 of 120 fps renderen.

30 fps is niet te spelen en maakt mij persoonlijk altijd erg misselijk

60 fps is precies 1:1 en zorgt voor redelijk vloeiend beeld waar geen 'strepen' door heen lopen.

120 fps is soms beter, afhankelijk van de titel. Soms zorgt het voor lagere responstijden of leuke exploits (CoD4 anyone?)

Daarom wil iedereen dus altijd op 60 fps of hoger spelen. het zorgt voor een veel fijnere ervaring.

Tegenwoordig heb je ook 144Hz schermen, welke pas voor een ECHT vloeiende ervaring zorgen. Als je zo'n scherm hebt is een TN-paneel een vereiste, aangezien IPS deze frequentie nog niet kan halen (dacht ik). Als je toch al een TN-paneel hebt, maken je settings ook minder uit aangezien TN toch een brakke kleurweergave heeft. In deze situatie kan een 980 deze game waarschijnlijk wel weer hebben.

Misschien ben jij gewoon minder gevoelig voor haperende beelden, maar voor mij persoonlijk is het een eis om op minimaal 60 fps te draaien, simpelweg omdat gamen dan gewoon veel aangenamer en competitiever wordt
Redelijk bipsverhaal als je het mij vraagt :z , maar als jij persé op 60fps of hoger wil spelen omdat dat beter voelt voor jou, be my guest. Competatief maakt het natuurlijk (al) helemaal niets uit, aangezien je reactietijd ver boven de 1/60e (of 1/30e) seconden ligt (of je moet een soort superman _/-\o_ zijn, dan neem ik mijn woorden terug).

[Reactie gewijzigd door Jack Flushell op 22 juli 2024 18:03]

Eh wat? Competatief maakt het zeker wel uit, en hoe jij het over laat komen klopt niet. Iemand die op 120fps speelt zal een tegenstander na gemiddeld 8.3 ms op zijn scherm verschijnen, bij 30fps is dat 33,3 ms, in andere woorden degene met 120fps ziet de tegenstander 25ms eerder.
Jij weet duidelijk niets af van het spelen op 120Hz en 144Hz. Koop/leen maar eens zo'n monitor en beleef het eens. In snelle close combat heb je zeker een voordeel met een 120Hz/144Hz monitor. Ik heb het zelf gemerkt bij BF3 en BF4. Speciaal voor die hoge refresh rate heb ik er destijds een GTX670 bij gekocht voor SLI. Probeer m'n fps zo rond de 120 te houden.

Als je dan ook nog eens backlight strobing aanzet ben je meteen het smeareffect kwijt en lijkt je LCD wel een CTR.

Lees de blurbuster site maar eens door.
V sync jij je game maar op 30 fps en doe daarna hetzelfde op 60fps, wedden dat jij een aanneembaar verschil voelt en ziet.
:') wtf? "net acceptabele framerates op 1080p"

Ik vind 70fps wel iets meer dan acceptabel hoor. Volgens jouw redenatie hoeven alle andere kaarten en resoluties niet gebencht te worden want ja, de 980 haalt maar net acceptabele framerates, de rest is niet interessant omdat die minder dan 70 fps halen |:( |:(
Iedere display van tegenwoordig heeft minimaal een verversingsnelheid van 60 Hz. Haalt je videokaart dit niet, dan is dat net zoiets als een SSD aansluiten op een sata-300 poort...

Dus inderdaad, minimale framerate van 59.3 gaat je af en toe tearing bezorgen. Mocht je VSync aan zetten (duh), dan trekt deze hem onmiddelijk naar 30fps en iedereen weet dat een shooter op die framerate absoluut niet te spelen is. Dit betekent dat, met de huidige hardware kun je dus niet comfortabel op ultra spelen, of je moet de kloksnelheid eventjes een paar MHz omhoog trekken.

Sorry hoor, maar je reactie is redelijk onnodig aggresief. 't is weekend, relax.
Op de consoles is 30 fps (jammer genoeg) toch aardig gemeengoed, zelfs voor sommige shooters.

Vsync is trouwens af te raden bij shooters omdat je hierdoor je inputlag verhoogd.

100 fps op een 60 hz scherm is trouwens onzin. In feite kun je prima gamen met 70 fps, zolang je fps maar niet onder de 60 fps komt. Bij Vsync wordt zelf je fps gelocked op 60
Klopt, maar op console gebruik je controllers waarbij je veel minder goed merkt dat de framerate lager is.
Bij consoles maakt het vooral minder uit omdat iedereen dezelfde handicap heeft. Of zijn wel allemaal vergeten hoe iedereen cod4 multiplayer op low speelde zodat je minder gras en bosjes had (niemand kan zich verstoppen)
Dus inderdaad, minimale framerate van 59.3 gaat je af en toe tearing bezorgen.
Niet perse. Tearing zie je normaal gesproken vooral optreden als het aantal frames per seconde de maximale verversingssnelheid van je monitor overschrijdt.
Mocht je VSync aan zetten (duh), dan trekt deze hem onmiddelijk naar 30fp
Vsync werkt inderdaad in stappen ja. (30, 60, etc)

Om te voorkomen dat vsync locked op 30 als je < 60 fps hebt kun je bijvoorbeeld adaptieve vsync gebruiken. Bij nVidia is dat een driver functie die vsync on the fly in- of uitschakelt afhankelijk van de ingestelde verversingssnelheid.
Dus bij een 60Hz monitor schakelt het vsync uit als je fps < 60 is of schakelt het vsync in als je fps > 60 is.

En anders heb je ook nog dingen als freesync of g-sync.

[Reactie gewijzigd door houseparty op 22 juli 2024 18:03]

Volgens mij heeft niemand hier door dat 4x MSAA nutteloos is voor de meesten..
2x AA is voor bijna iedereen genoeg..

Neemt niet weg dat je op 4k AA volledig uit kan zetten (je ziet het verschil dan toch niet meer) en op 1440p kan het ook wel.. met shadows iets lager zit je zo op de 60fps hoor..
Dat is natuurlijk ontzettend overdreven, maar niet relevante resultaten hoeven er van mij inderdaad niet in. De 980 haalt net acceptabele framerates op 1080p, DUS inderdaad 1440p is niet te doen met de huidige hardware.
Wat klets je nou, een Geforce GTX 980 is snel genoeg om ALLE spellen goed te spellen op 1440p.

Zo als je bij GURU3D duidelijk kan zien en lezen.

Alleen met Dragon Age: Inquisition DX11 Ultra 2x MSAA op 1440p zit hij op Average 39fps, wat goed speelbaar is in Dragon Age: Inquisition.
All games play perfectly at up-to WHQD at 2560x1440. The GeForce GTX 980 is a nice card that certainly offers a nice chunk of performance in that high resolutions
Dus weet niet waar je de fabeltje vandaan haal.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 18:03]

Zoals ik probeer uit te leggen: Dit is minder dan 60fps, dus geen goede vsync, dus tearing. Ik snap niet dat mensen kunnen leven met tearing... De keuze tussen tearing of hakkelend beeld (30fps vsync) maak ik liever niet. Voor de eis die ik stel is een 980 dus niet snel genoeg.

Om die eis nog maar een keer te verwoorden: Geen tearing, vloeiend beeld, ultra settings.

De benchmark draaide op ultra 59.3 fps, dat is dus niet snel genoeg.

Als jij daar mee kan leven, helemaal mooi, ik ga er na een halfuurtje van braken.

[Reactie gewijzigd door Rickkamminga op 22 juli 2024 18:03]

Tsja, ik heb geen nVidia, maar draai AMD. En ik zie echt wel tearing als ik vsync uit zet, ook al haal ik de 60 fps niet.
Owja want laten we nog een dikkere GPU in de testcase stoppen...

Of had je andere consumenten GPU"s in gedachte die Ultra wel aan kunnen?
ja want als je een 1440p monitor hebt ga je liever op ultra met 1080p spelen als op med-high op 1440p?
serieus er zijn wel meerdere settings als ultra

[Reactie gewijzigd door jeroen7s op 22 juli 2024 18:03]

Erg jammer waar zijn de 1440p benchmarks, want steeds meer mensen hebben een 1440p a 2560x1080 scherm, en waarom zit de GeForce GTX 750Ti er niet tussen en wel de R7 269X???

En waarom zou je een +/- €900,- CPU kopen of gebruiken als de i7 5820k +/- net zo snel is, vooral in spellen en +/- €500,- goedkoper is?

Vooral tegenover een FX 8350 die nog geeneens €200,- kost, gebruik dan ook de duurste van AMD, de FX 9590 Black Edition, die ook maar €240,- kost en in spellen op 1080p of 1440 of hoger op Ultre settings ongeveer net zo snel is als de +/- €900 Intel CPU.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 18:03]

Inderdaad, die 750 Ti had er tussen moeten zitten. Het is niet alleen een hele nieuwe kaart, maar ook nog eens erg energiezuinig, vrij goedkoop en redelijk goede prestaties.
Die hoge cpu gebruiken ze om zeker te zijn dat de cpu de gpu niet bottleneckt.
tja, maar dan moet je niet zeuren als de kwaliteit vergelijkbaar is met een console...
op een resolutie van 2.5 tot 4 keer zo hoog(afhankelijk van welke console)
" Met BF4 zit mijn cpu (i5 4690k) op zo'n 50% load tijdens de singleplayer en tijdens de multiplayer zit ie op zo'n 90% en 95% load"

Dit is wel vreemd, mijn CPU (i5 2500K) is in BF slechts 52% belast online, deze beta zat op 56%.
Mijn AMD Phenom II 1100T zat ook te schommelen rond ~50% op een map met 64 spelers.

Het lijkt me dus aannemelijk dat het probleem van hoge load bij hem ergens anders ligt, zeker
als oudere CPU's beter presteren.
Inderdaad, ik zou eens scannen op Spyware / Trojans e.d. misschien clean install?

Nu is de i5 2500K wel een goede CPU, maar die van jou zou zeker het zelfde moeten hebben maat.....
Tja als jij een minder videokaart hebt als pwillemske is dat toch gewoo n normaal.
Of als hij AA uit heeft staan /een lagere resolutie gebruikt
Vreemd, de single player load herken ik maar met multiplayer zit ik rond 60%.

En dat op een fx8350 :P
Kan zeker zo zijn, echter loopt deze CPU in de test nog wel op stock snelheid. Maar juist met een fx cpu OC je toch al gauw 200 MHz (als lichte overclok) en dan zul je MP toch zeker goed kunnen spelen, afhankelijk van de rest van het systeem. Btf game zijn goed voor multicore cpu's geoptimaliseerd.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 18:03]

We missen nog wel meer...

Een beetje een karige benchmark zo. Vrijwel elke review heeft er al meer, en dit artikel is 100% focus op benchmarks. Doe er dan geen...

[Reactie gewijzigd door Vayra op 22 juli 2024 18:03]

Mag 4K ook, want die worden ook steeds betaaldbaarder
BFH is een stuk lichter op de resources als BF4.
De minimale FPS met mantle vind ik toch wel aan de lage kant.
Hoeveel en welke AA is in combinatie met mantle gebruikt?
Of draait mantle een fixed AA?
Mantle heeft pas zin bij een echt fors langzamere CPU dan de Octacore FX8350.
Ws ga je zelfs bij een Sixcore FX6XXX geen verschil merken, zie BF4 Reviews.
Pas bij een FX4XXX gaat Mantle echt zijn nut laten zien en krijg je meer FPS dan bij DX.
Mantle heeft dus eigenlijk gewoon geen nut behalve voor een heel beperkte groep pc gebruikers die besparen op hun cpu.
Nee er zitten echt wel meer voordelen aan. Onder andere dat Mantle een trend heeft gezet bij o.a. Nvidia en MS om ook sterk te besparen op "overhead". Verder heeft het vooral nut bij mensen met relatief zwakkere laptop cpu's en idd mensen zonder geld voor zware Game PC's (dat geldt overigens voor de meerderheid vd Wereldbevolking). Gratis meer performance is imho nooit slecht....... :P
Nouja...

Ik heb zelf een 4K scherm en twee R9 290's. Met Hardline heb ik nog niet zoveel geprobeerd, maar met BF4 wel heel veel. En daaruit blijkt 1 ding wel heel duidelijk: de framerate in Mantle is véél stabieler, de frametimes lijken dus meer op elkaar. Stuttering komt binnen DirectX veel vaker voor en de framerate wisselt tussen 50 en 70, terwijl hij bij Mantle misschien wel stabiel tussen 55 en 65 blijft zitten, zeg maar. De schaling met Crossfire is ook veel beter dan met DirectX: met 1 kaart lijken de prestaties best op elkaar, maar met 2 kaarten haal je veel meer uit je systeem met Mantle.
Tweakers had wat dat betreft ook multi-GPU en frametimes mogen testen ;)

Beetje jammer trouwens dat de 4K benches missen, Tweakers! Mijn ervaringen met dus twee R9 290's in Crossfire en een i5 4690k zijn op 4K met Mantle, online:
- 1 kaart, ultra, geen AA: ~35-40fps
- 2 kaarten, ultra, geen AA: 65-70fps

Met twee 290's kan je de game dus heel goed spelen op 4K/60. AA aanzetten kan er zelf ook nog wel af, maar dat heeft niet zoveel nut. Game draait echt enorm goed, schaalt goed op de hardware en speelt gigantisch lekker :)
ja tot je games gaat spelen van bedrijven die 0.0 rekening houden met multithreading bij het maken van hun games (kuch planetside2)

bij zo'n games kan het gebruik van zo'n low-overhead API zeker helpen, de fx-serie en de oudere i3/5/7 gaat bij planetside2 al snel 1 core op 100% waarbij je framerate naar de 30-40 zakt
In dit geval wellicht niet, maar dergelijke api's zijn wel degelijk een hele gunstige ontwikkeling. Verwacht over een jaartje of 5, wanneer toch wel >90% DX12 draait, spellen die dat ook nodig hebben, en daardoor dingen kunnen laten zien die nu niet mogelijk zijn, en waar dus maar omheen wordt gewerkt. Als je een beetje goede PC game wil maken weet je namelijk gewoon de beperkingen van DX11 en werk je daaromheen, mocht dat in de toekomst niet meer nodig zijn lijkt me dat een hele gunstige ontwikkeling. Die visie mis ik wel eens wanneer het over Mantle/Vulkan/DX12 gaat.
Het komt omdat DX11 op een 4 core cpu maar 2 hardware threads krijgt maar bij
een 6 of 8 core cpu 3 hardware threads krijgt, mantle maakt het met 4 cores wel
mogelijk om 3 hardware threads te gebruiken.

Ik heb toendertijd aan repi aka johann anderson gevraagt waarom mantle geen 4 hardware
threads op een 8 core kan gebruiken, het enigste wat hij zei is dat hij waarschuwde
om het aantal threads niet te gaan verhogen, dat kon toen nog in frostbite, verder
geen uitleg gekregen.
De conclusie over Mantle op verschillende sites was ook dat het negatief werkt in sommige gevallen met een hoger aantal spikes in de fps.
Mantle werkt prima waarvoor het bedoeld is: langzame AMD CPU + snelle AMD GPU.
Ga je het gebruiken waarvoor het niet bedoeld is dan gaat het idd niet werken.

Zie het bv als een spoiler, werkt super op een race-auto maar totaal niet op een fiets. ;)

@hieronder: zelfs voor een aap doe je te veel je best om het niet te begrijpen. :F

[Reactie gewijzigd door Verwijderd op 22 juli 2024 18:03]

Dus mijn super gelikte gaming-rig is een fiets.
De langzame AMD combi is een F1 auto.
Ik wist niet dat Mantle zo goed was ;)
Ik draai met een overclockte R9 290 alles op ultra 1080p zonder te droppen onder 60 fps. Benchmarks hier doen mij wel een beetje fronsen. Vsync staat wel uit.
Multiplayer waarschijnlijk?

Dat is namelijk lichter voor je videokaart
Je bedoelt zwaarder voor je cpu? :+
Ook ja, MP is zowel zwaarder voor je CPU als lichter voor je GPU :P
Is inderdaad multiplayer. Enige wat telt voor 80-90% van de mensen die Hardline speelt. Beetje jammer van Tweakers dat ze zich hebben gebaseerd op de Single Player en niet met de laatste drivers hebben gewerkt.
Misschien heb jij de 15.3 beta drivers.

Tweakers test hier nog met de ongeoptimaliseerde Omega drivers, die ondertussen al bijna een half jaar oud zijn. :P

Vind het een beetje jammer dat dit er niet bij vermeld is. Misschien wint AMD wel weer fors bij bij de volgende driver update.
Weet niet of het al gezegd is, maar ik ben wel benieuwd waar de GTX960 plaats zou vinden.. En eventueel ook de 4gb versie.

Die zouden waarschijnlijk ongeveer onder de 280x zitten toch?
Ik heb begrepen dat 4gb op de GTX960 waarschijnlijk weinig verschil zal geven indien de geheugenbus 128bit blijft.
Klopt ja, je hoort veel dat het gewoon een verkoop truc is. Je zal er niet echt ´future proof´ mee zijn. Daarom zou het mooi zijn als de kaarten hier ook getest werden. Dan zul je waarschijnlijk zien dat de 960 niet echt een slimme keuze is.
Waarom? De 4GB doet helemaal niets voor FPS en op 128 bit kan er nooit snel genoeg gewerkt worden met al die data om de 4GB voor textures te benutten.

De 960 zal op ultra gewoon verdrinken in de benchmarks net zoals andere kaarten van dezelfde prijsklasse dat doen. Zegt verder helemaal niets over nut of noodzaak van 4GB. Op 1080p is er sowieso meer dan genoeg VRAM, de 2GB kaartjes doen ook niet onder voor de rest.

Wil je 4GB testen op de 960 dan moet je een SLI roundup doen op 1440p of hoger en is BF nou niet de beste game om dat te doen.

[Reactie gewijzigd door Vayra op 22 juli 2024 18:03]

Ik vind eerlijk gezegd de lower end gpu benchmarks interessanter. Die laten namelijk echt de optimalisatie zien van zo'n game. De high end is niet meer als normaal dat ze op ultra rond de 60fps zitten.
Screenshots zien er zo mooi uit dat ik er emotioneel van wordt. Alleen jammer van mijn videokaart. Al na paar jaartjes of 2 is die al verouderd (gtx 660). Wel een geluk dat het spel erg duur is, want ik zou hem toch niet gekocht hebben voor die prijs. :D
Gtx 660 kan nog wel hoor. Tuurlijk niet op ultra. Maar medium moet het wel aankunnen(licht ook aan de rest van het systeem) want ik kon de mp beta prima spelen op mijn 660m.
Ik speel met een MSI 7850 2GB Vram op standaard instellingen high.
Volgens mij is de 7850 van de zelfde leeftijd, je zou het makkelijk kunnen spelen :*)
Volgens mij kan ik het dan wel vergeten om deze game überhaupt op medium met minimum van 30fps te draaien op mn laptop (840m + i5 4210H) :( Jammer, vind Battlefield altijd wel een gave game.
De mp beta ging anders prima op mijn 660m. Weet niet hoe erg de 660m verschilt van de 840m
In Benchmarks heeft de 660m 75% hogere score dan de 840m, dus denk helaas dat ik maar eens een PS4 moet overwegen, want de laptop is niet meer alles..
Zelf een pc bouwen is een veel betere optie dan een PS4 kopen
Als je alle grafische vergelijkingen pakt is een PS4 redelijk in de buurt kwa graphics met pc variant.
Ultra is nice maar als je speelt let je toch niet op de eye candy.. a.k.a Battlefield Tourisme.
Zelf een pc bouwen is duurder en het verschil wat je er nu voor krijgt is ook verwaarloosbaar. Over paar jaar als PS4 weer aan de oude kant is, zal het verschil meer merkbaar zijn.
Het is niet duurder, het ligt eraan hoeveel games je koopt en of je online wilt gamen. PC hardware is duurder, maar je hebt er veel meer mogelijkheden mee, je hebt goedkopere games en gratis multiplayer. Voor mij is een PC juist veel goedkoper dan een console, omdat ik veel games koopt en sowieso een laptop/PC nodig hebt voor studie/dataopslag/webbrowsen/office etc. Als ik een console+laptop zou nemen zou ik veeel duurder uit zijn.

En de ps4 versie komt niet in de buurt met de pc variant, alleen al om resolutie en framerate die potentieel veel hoger kunnen zijn (4k 120fps bijvoorbeeld).
Dan is dat zeker een overweging. Gewoon lekker vanuit je bank gamen.
Kan je ook doen met een PC/laptop als je het even opzet, just sayin'
vreemd, de beta draaide op mijn 755m (welke volgens gpuboss net iets beter is als de 660m) op 720p low nog altijd onder 30fps, met een i7 4700MQ
heb je aangegeven dat je je 755M moet gebruiken en niet je onboard? ging van onspeelbaar op 1080p naar medium goedspeelbaar. (zal iets boven de 30 fps zijn geweest) moest alleen wel mijn 660m geforceerd gebruiken.
Mis persoonlijk ook een testsysteem zoals die van de basis of budget gamesysteem uit de bbg.
Het enige wat ik echt mis is meer budget videokaarten. Hoe zou een GTX 960 presteren? Die ontbreekt bijvoorbeeld. De budget kaarten van AMD zijn beter vertegenwoordigd.

De rest van het testsysteem is prima. Dat is enkel zo sterk om te bottelneck puur bij de videokaarten te leggen. Bovendien, maar weinig games tegenwoordig zijn zwaar afhankelijk van de CPU. Je zou al fantastisch kunnen gamen op een i3 met een GTX 980 zonder dat de GPU ooit last krijgt van de CPU.
Tussen een Gtx 760 en 770 waarschijnlijk, die zijn wel beide getest ;)
Inderdaad. Ik ben momenteel een afweging aan het maken tussen een GTX 960 en bijv een R9 280X of tweedehands R9 290. Jammer dat de GTX 960 niet is meegenomen.

Daarnaast is natuurlijk wel duidelijk dat de 2gb VRAM van de GTX 960 waarschijnlijk minder future-proof is.
Daarom zie ik liever ook een cpu benchmark erbij, en dan vooral juist de extremen, zoals de pentium/i3 en x4 860k en FX4300 bijv.

Dan zie je tenminste direct of je echt die extra cores nodig hebt of het ook met minder cores acceptabel is.
Echt heel jammer dat er geen 1440p benchmarks zijn, die zijn bijna cruciaal om een waardige benchmark af te leveren.
Ik merk dat tweakers.net de laatste tijd veel lakser omgaat met hun artikelen, we zijn kwaliteit gewend, dat willen we dus ook graag blijven zien!
Veel gamers zitten nog altijd op 1080p, waarom is 1440p dan cruciaal volgens jou?
Omdat veel gamers, zoals ik, nu op 1440p gamen. Ik begrijp dat een 4K benchmark overdreven is, omdat minder dan 1% van de gamers daar op gamet, maar 1440p is niet eens zo heel raar om te benchmarken.

Ik heb het gevoel dat ze (tweakers redactie) niet genoeg moeite hebben gedaan met deze benchmark, ik krijg het gevoel dat hij gerushed is. Er is niet genoeg over nagedacht.
Ik stel een poll voor om te zien hoeveel gamers op 1440p gamen. Je kunt er sowieso vanuit gaan dat bijna alle mac gebruikers zullen ook rond die resolutie gamen (27" iMac en de rMBP's) maar natuurlijk zijn dat niet de enige mensen zie reacties hieronder ;)

[Reactie gewijzigd door axg op 22 juli 2024 18:03]

Niet alleen Mac gebruikers gamen op die resolutie. Kijk naar de pricewatch: in de top 5 populairste monitoren zijn er maar 2 met de 1080p resolutie. Dus kun je ervan uitgaan dat steeds meer mensen een 1440p monitor of hoger kopen, en daar dus ook op gamen.
Dat gamers die nu een nieuwe monitor kopen voor een hogere resolutie gaan betekend niet dat er veel tweakers zijn die zo'n ding al hebben toch?
Dat 1440p schermen het populairste zijn in een prijsvergelijker zegt natuurlijk nog niets over het daadwerkelijke gebruik ervan, wel over de opkomst ervan. Daarnaast zeggen deze statistieken niets over daadwerkelijke verkoop. ;)
Is denk ik ook persoonlijk, welke resolutie je op gamed. Game zelf op 24" en dat vind ik een fijne size om op te gamen. Groter vind ik gewoon weg niet meer fijn omdat ik vind dat ik niet alles meer in één oogopslag kan zien zonder m'n hoofd te draaien. Of klinkt dit nu vreemd? :)

En ter info, ik heb me net een nieuwe pc aangeschaft maar ben niet naar een groter scherm gaan kijken vanwege bovenstaande feit.

[Reactie gewijzigd door Powerblast op 22 juli 2024 18:03]

Schermgrootte zegt alleen weinig over resolutie, kijk maar naar smartphones en tablets.
Groter vind ik gewoon weg niet meer fijn omdat ik vind dat ik niet alles meer in één oogopslag kan zien zonder m'n hoofd te draaien. Of klinkt dit nu vreemd?
Dan zit je te dichtbij. Ik heb hier 2x27" hangen en ik hoef m'n hoofd minimaal te draaien om alles te zien.
Mee eens. 1080p is ondertussen echt de instap voor gamers en iedereen met budgetten voor 970 sli of 980's zitten niet meer op een 200 euro 1080p TN paneeltje te spelen. Een serieuze benchmark neemt ondertussen gewoon 1440p mee.
Met mijn GTX460 i.c.m. een 4670k haal ik nog steeds precies 60fps gemiddeld op 1080p met alles op low.

Helaas zijn de dips naar 40 nu wel voelbaar, dit had ik in Battlefield 4 niet. Toch maar is kijken voor een upgrade.
Tweedehands kan je de 7950 die in theorie een kleine 2x sneller is voor 100-120 al krijgen, misschien een tip ;)
Ik ben vorig jaar van de gtx 460 2gb naar de r9 270x gegaan. En dat speelt heerlijk
Ik ben erg benieuwd wat voor hoeveelheid vram nodig is. Ik heb 2x hd6850 in crossfire, die bottleneckten bij BF4 op hun 1GB vram. In BF3 draaide het perfect op high, in BF4 haperde het enorm. Terwijl een qua rekenkracht gelijke kaart met meer vram high zat aankon.
2gb is denk ik meer en meer het minimum aan het worden merk het in de laatste games dat 1gb altijd vol gebruikt word. Vooral met cf ga je er last van krijgen gok ik.

Op dit item kan niet meer gereageerd worden.