Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties

AMD heeft zijn nieuwe videokaartserie met ‘Volcanic Islands’-gpu’s aangekondigd. Een deel van de videokaarten zal in september al beschikbaar komen. Enkele videokaarten worden voorzien van AMD TrueAudio, dat hardwarematige ondersteuning van driedimensionaal geluid mogelijk maakt.

Het topmodel van de nieuwe serie is AMD’s Radeon R9 290X, welke AMD eerder al liet zien. Specificaties van de nieuwe videokaarten werden niet bekend gemaakt, maar AMD maakte wel enkele cijfers over de videokaart bekend. De gpu in de 290X bestaat uit meer dan zes miljard transistors en haalt maximaal 5 teraflops en de geheugenbandbreedte bedraagt meer dan 300GB/s. De 290X ondersteunt DirectX 11.2 en gaat efficiënter met energie om dan zijn voorganger.

AMD Radeon R7 en R9 AMD Radeon R7 en R9 AMD Radeon R7 en R9 AMD Radeon R7 en R9

In de high-end R9-serie, brengt AMD naast de 290 de R9 270X en 280X uit. Voor mainstream-gebruikers is er de R7-serie, waarin AMD de R7 250 en 260X plaatst. Specificaties werden niet bekend gemaakt, maar prijzen en 3DMark Firestrike-scores geven alvast een indruk van de prestaties van de nieuwe videokaarten.

GpuIntroductiemaandWerkgeheugenPrijs3DMark Firestrike scoreAMD TrueAudio
R7 250 september 1GB gddr5 89 dollar >2000 nee
R7 260X september 2GB gddr5 139 dollar >3700 ja
R9 270X september 2GB gddr5 199 dollar >5500 nee
R9 280X september 3GB gddr5 299 dollar >6800 nee
R9 290 onbekend onbekend onbekend onbekend ja
R9 290X onbekend 4GB onbekend onbekend ja

Naast de nieuwe videokaarten kondigde AMD TrueAudio aan. TrueAudio zorgt voor de hardwarematige ondersteuning van een programmeerbare audio engine van GenAudio, waarmee geluidsbronnen in de gamewereld geprogrammeerd kunnen worden. De videokaart neemt alle berekeningen voor zijn rekening en kan het 3d-geluid ook downmixen naar stereo, waarbij de illusie van surround geluid behouden blijft. TrueAudio komt beschikbaar op de R9 290, de R9 290X en de R7 260X. Waarom AMD TrueAudio niet op alle videokaarten ondersteunt is onduidelijk. Er doet echter een gerucht de ronde dat niet alle nieuw aangekondigde videokaarten gebaseerd zullen zijn op de nieuwe Volcanic Islands-architectuur, maar dat enkele videokaarten gebruik maken van de Southern Islands-gpu’s, welke geen TrueAudio ondersteunen.

AMD TrueAudio

Moderatie-faq Wijzig weergave

Reacties (88)

Is TrueAudio een techniek die binaural audio in realtime produceert? Zit daar al een tijdje op te wachten want het is technologie die zeer van pas zal komen in virtual reality omgevingen zoals de Oculus Rift ons voorschotelt.

EDIT:
Als ik de omschrijving van TrueAudio hierzo lees, dan is dat inderdaad het geval:
http://www.pcworld.com/ar...i-generation-of-gpus.html

[Reactie gewijzigd door Joerdgs op 26 september 2013 01:40]

Voor wie niet weet wat Binaural Audio is, check dit http://www.youtube.com/watch?v=u163wC6mP2A

Koptelefoon op, ogen dicht en volume open. Weinig surround-sets die tegen deze immersie op kunnen. Als AMD dit voor elkaar krijgt met hun techniek dan betekent dat héél veel goeds voor immersie in games.
Deze Half-Life 2 demonstratie vind ik toch een stuk beter:

Precomputed Wave Simulation for Real-time Sound Propagation of Dynamic Sources in Complex Scenes

Ogen niet dicht doen. Vreemd dat we hier jaren op hebben moeten zitten wachten.

Bron: http://gamma.cs.unc.edu/PrecompWaveSim/
dat hebben weer aan Microsoft te danken. zij hebben hardware audio gekilled in Windows vista. nu is het met Windows 8 weer terug. en de XBOne gebruikt ook hardware audio.
Helemaal mee eens.

Die HL2 sound demo is erg goed. Hier hoor ik ook erg goed en duidelijk het verchil tussen voor/achter en boven/onder. En dit is wat ik wel heel erg vind missen in die techniek die AMD met GenAudio laat zien/horen.
Het effect van een geluid achter je komt bij surround toch echt een stuk beter over dan met het gesimuleerde effect - zal misschien per headset variëren.

Overigens is dat toch ook niet echt nieuw? Met EAX kon je al prima opgeven waar een geluidsbron zich in '3D' zou moeten bevinden, en de kaart (en later een simulatie laag) zette dat dan wel om naar een effect waardoor het meer leek of het zich daar bevond. Wel leuk dat ze dat nu op een GPU plakken, maar realtime doppler waarbij de GPU gebruikt wordt om dat aan de hand van de 3D omgeving + bewegingen te berekenen had meer indruk op me gemaakt. ( Nu faden games nog veel tussen verschillende reverb presets, zodat bijv. elk riool in elk spel dezelfde reverb heeft, of dat nu een korte of lange buis is of een grotere ruimte. )

Maar gezien veel games niet eens gebruik maken van de doppler effecten via bijv. OpenAL, zal het z'n tijd nog wel duren voordat geluid echt realistischer wordt, i.p.v. dat bestaande dingen (al dan niet in nieuw jasje) opnieuw 'uitgevonden' gaan worden.
wow...eerste minuut ogen dicht en daarna ogen open...net of er spoken lopen
Suuuupervet dit! I want more.
Minst interessante rebrands ooit! De rebrands van Nvidia waren tenminste interessant met de introductie van de GTX 760, GTX 770 en GTX 780 die allemaal een betere koop waren dan de GTX 670/GTX 660 Ti, GTX 680 en GTX Titan. De prijzen zakken wellicht nog, maar deze kaarten worden in ieder geval op een voor de markt totaal niet boeiende manier gepresenteerd.

Even de kaarten samen met hun tegenpolen op een rijtje:

R7 250 - $89 - Firestrike: 2000
HD 7750 - $79.99 - Firestrike: 2.069

R7 260X - $139 - Firestrike: 3700
HD 7790 - $109.99 - Firestrike: 3.571

R9 270X - $199 - Firestrike: 5500
HD 7950 Boost - $214.99 - Firestrike: 6.033

R9 280X - $299 - Firestrike: 6800
HD 7970 GHz editon - $314.99 - Firestrike: 7.597

[Reactie gewijzigd door Zenjol op 26 september 2013 03:33]

jij vergelijkt reference cards met OC kaarten van de partners, dat is natuurlijk scheef. vergelijk reference met reference en wacht tot de officiele release. Er kunnnen altijd nog nieuwe drivers komen en partner overclockte kaarten. Deze nieuwe serie is wel zuiniger, dat is ook wel wat waard!
De benchmarks zijn ook van reference cards, dus die vergelijking klopt wel. Die kaarten kan je verder niet kopen, dus heb ik gewoon de goedkoopste gepakt van elke kaart, ongeacht de partner, koeler en eventuele overclock.

Er kunnen inderdaad ook nieuwe drivers uitkomen, maar gezien het gaat om dezelfde chips met een ander naamkaartje zullen deze drivers net zo goed werken voor de oude als de nieuwe kaarten.

Hoe kom je erbij dat ze zuiniger worden?
ondanks dat je post een +3 krijgt van mij, vergeet niet dat het introductieprijzen zijn die altijd nog zakken.. wellicht dat het dan wat aantrekkelijker moet worden (ondanks de rebrand)
Dat zei ik zelf ook al, maar dat neemt niet weg dat deze nu bij de eerste introductie totaal niet interessant zijn. Ik link ook bewust naar de introductie berichten op Tweakers van de GTX 760, GTX 770 en GTX 780, omdat die alle drie op het moment dat ze werden geïntroduceerd al interessant waren gezien hun adviesprijs en prestaties.
Maar als ik dus serieus moet overwegen om iets te kopen dat even goedkoop en evenveel performance oplevert als een R7 270X kan ik toch maar beter bij de huidige generatie kijken? Ik heb ook gezien dat het over 300 dollar gaat, kan het dus zijn dat ik een 280x voor 220 euro op kan halen, of houden ze zich niet aan de wisselkoersen?

[Reactie gewijzigd door HiddenSins op 26 september 2013 07:36]

De Nieuwe R9 290X doet "maar" ~7.800 in Firestrike volgens de presentatie en dit valt toch wel een beetje tegen aangezien de meeste mensen wel hadden verwacht dat deze kaart sneller zou zijn als een GTX 780.
Een reference GTX 780 (863MHz) doet namelijk 8.646 in Firestrike en de OC versies van de GTX 780 doen ongeveer ~9.600 (¤ 569,30)

Afgaande op de Firestrike score:
Een R9 290X presteert ongeveer gelijk aan een GTX 770OC versie welke al te koop is voor ~¤ 342,00

Ik hoop voor AMD dat de overige benchmarks veel gunstiger gaan uitvallen anders zie ik het somber in (prijs/performance)
Ik ben er vrij zeker van dat AMD hun cijfers te conservatief heeft neergezet. Een 280X is gewoon een rebrand van Tahiti, dus ik kan me gewoon niet voorstellen dat die voor zichzelf onder doet. Dat is gewoon onlogisch.

Overigens waren het ook geen harde cijfers; het was "> 6800" voor de 280X. Minimaal dus.
TrueAudio aan. TrueAudio zorgt voor de hardwarematige ondersteuning van een programmeerbare audio engine van GenAudio, waarmee geluidsbronnen in de gamewereld geprogrammeerd kunnen worden.
Dus....eindelijk echt 3D-geluid in games? Nou ja, het heeft 20 jaar mogen duren sinds iemand iets met deze tech doet (bestaat al sinds de 90s, op discrete geluidskaarten) en Windows heeft alle ondersteuning ervoor 6 jaar geleden de nek omgedraaid, maar we komen er echt nog wel, hoor. Over nog twintig jaar heeft AMD de drivers misschien aan de praat.
Is deze TrueAudio niet een beetje hetzelfde als de A3D die Aureal eind jaren negentig verkocht (http://en.wikipedia.org/wiki/A3D)? Een deel hiervan is later in EAX terecht gekomen maar als ik het me goed herinner was A3D wel een stuk beter dan EAX.
Alles behalve de 290 versie van deze serie kaarten zijn rebrands.. Slechte zaak, enorm slechte presentatie ook, misschien nog wel slechter dan die van de xbone.

(source: http://videocardz.com/458...anded-hd-7970-ghz-edition )
Dat zou verklaren waarom de 280-serie geen TrueAudio ondersteunt.

Inderdaad een uitzonderlijk slechte presentatie. In het begin gooien ze ff de typenummers met elk wat cijfertjes erin en vervolgens laten ze alleen developers reclame maken voor hun games.
Op een GPU-presentatie wil ik uitgebreide kaart-specs zien en game-benchmarks. Nu weten we nog niks.
en dan het stuk waarin ze hun fantastische audio over een mono livestream uitzenden voor 45 minuten....

hoedanook ik neem aan dat de 280 een rebrand is van de 7970 gezien de firestrike score identiek is en de prijs ook ongeveer.

de 290 en 260 series zijn dan wel nieuw. verder wat interessant is dat AMD een techniek heeft gecreerd genaamd Mantle, een tech welke volgends AMD 9x meer drawcalls mogelijk kan maken door efficienter met de CPU om te gaan door veel meer low level te gaan doen.

dat kan wel echt leiden tot echter verbeteringen, zeker benieuwd naar de eerste implementatie (battlefield 4) en kijk uit naar de mogelijkheid echte verbeteringen te zien in dit vlak gezien doe toename in het aantal draw calls de laatste jaren flink gestagneerd is oa door overhead van de DX API.
en dan het stuk waarin ze hun fantastische audio over een mono livestream uitzenden voor 45 minuten....
Ik zou toch nog even een demo checken (met koptelefoon op). Echt wel indrukwekkende technologie. Vooral het stukje met de krant is levensecht.
Ik ben het zeker eens dat geluid een ondergeschoven kindje is, en dat het wel tijd wordt dat daar eindelijk eens wat aan gebeurd.
die krant is echt freaky, maar zodra je je hoofd beweegt is de illusie weg, misschien heb je ook headtracking nodig.

en een oculus rift :)
Ik vind het toch voornamelijk links/rechts geluid wat ik hoor en dat kan met de stereo ook. Ik mis toch echt een goed voorbeeld van voor/achter of boven/onder geluid. Tot dus ver ben ik niet bepaald onder de indruk van deze techniek.
Met dergelijke extra features vraag ik mij meteen af hoe de ondersteuning gaat worden.
Daarbij ook de impact op performance, 5 kanaals (of meer) realtime is nogal wat en zal wellicht ook van invloed zijn op latency/frame times lijkt me.

Ik zie liever dat ze zich met graphics bezighouden i.p.v. dergelijke randzaken.
En daarbij, hoeveel PC gamers zijn er nu met complete HDMI receiver en surround set?

Bovendien blijft het een 3rd party extra:
programmeerbare audio engine van GenAudio

Nvidia heeft het niet en straks 2 modellen van AMD, hoe groot is je doelgroep??
Aan de andere kant moet je ergens beginnen en ik ben benieuwd naar de uitwerking.
Als de licentie niet te duur is en er weinig extra werk bij komt kijken zou het een kans van slagen hebben, tot die tijd vermaak ik mij nog prima met DTS connect.
Ja de sprekers in het begin hadden beter gekund.

Maar het is heel logisch dat ze geen specs hebben laten zien.
wat denk je dat de review sites er van hadden gevonden? dat is een deel van hun werk daar verdienen zij hun geld mee.


de pers daar kreeg ook nog meer te zien. Maar dat is over NDA gepresenteerd. Ik vind dat ze al aardig wat prijs gegeven hebben.
inderdaad, ook niet geheel toevallig de 280 zit met Firestrike op het niveau van de GTX770, dan lijkt het op een "verbeterde" 7970 GHz Edition (zat net onder de 7000).
gezien de r7 260x wel trueAudio understeuned lijkt me dat nogal lastig.

en een hd7970 haalt 3000 firestrike score, wat dus totaal niet past bij alle andere kaarten die er staan.

de kaart die 3700 punten en er dus het dicht bij zit heeft wel die audio engine aan boord en kan dus geen rebrand zijn, en de volgende kaart haalt gelijk 5500 en dat gaat een south-island chip dus never nooit niet halen (zonder LN2 dan, record is 6000+).

van een recht toe recht aan rebrand kan hier dus geen spraken zijn.

[Reactie gewijzigd door Countess op 26 september 2013 02:43]

Kan wel. de 7790 was ook al iets nieuwer qua architectuur. wellicht dat het daar al in?
Maar ik gok dat de review sites er straks wel aandacht aan gaan besteden. dus nog even geduld hebben
Refereer jij aan deze tabel? http://files.tested.com/p...5/30/48610-firestrike.jpg

Want als je verder zoekt zie je dat de firestrike scores van de 7970 GHz edition veel hoger zijn dat in deze tabel wordt weergegeven. Dat zal waarschijnlijk te verklaren zijn doordat de 3000 score gebaseerd is op enkel de graphic score, en dan hier in de tabel waarschijnlijk een 'overal score' wordt weergegeven.

Het lijkt mij vrij onwaarschijnlijk dat de nieuwe 260X dezelfde score heeft als de hoogste videokaart van de laatste serie. m.a.w. de oudere 7970 GHz haalt ongeveer 6800-7400+ score in firestrike.
Er staat Extreme tussen haakjes achter. Dat is dus de Firestrike Extreme test, die veel zwaarder is dan de gewone.

Hd 7970 haalt idd ruim 3000 punten op firestrike extreme en krap 7000 op de gewone firestrike.

Zie voor beide scores:

http://www.hardwarezone.c...op-gpu-performance-review
en een hd7970 haalt 3000 firestrike score, wat dus totaal niet past bij alle andere kaarten die er staan.
Raar dat ik met 2 HD7950's dan al 10k+ haal. En dan schaalt CF ook nog verre van perfect!
De HD7970 zit meer in de buurt van 7000 als firestrike score, dus in de regio van R9 280X.
Zie hier: http://www.overclockers.c...i-oc-boost-edition-review
Omdat het misschien zo mag zijn, maar Nvidia doet dit ook al langer.. DUS de rebrands enzo kun je voor mij achter wegen laten, want iedereen in de PC wereld doet dit wel (hier bedoel ik dus mee de fabriekanten die ze maken, denk hierbij aan mobiel gps, 4g chips en nog meer (grote waslijst) (de ene net iets beter/slechter als de andere, etc etc etc)

Vaak is het zo dat zo na een tijdje de ouwe GPU kunnen verbeteren en dus verder hebben ontwikkeld..

Ik ben geen fan boy maar ik ben altijd (+/- 15 jaar) gebruik van ati/radeon/amd en heb er weinig last van.

Ben in ieder geval blij dat er gewoon concurrentie bestaat tussen amd/nvidea waar wij als tweakers/gamers/grafisks enzovoort. kunnen van profiteren :)

Mocht deze reads series echte beter presteren (minimaal 15 a 20% dan de HD 7XXX serie) dan wordt het wel erg interessant en wie weet wat de toekomst nog mag brengen in vergelijking met nvidea.. Let the battle begin (again) _/-\o_ :Y)

[Reactie gewijzigd door Soundstorm2010 op 26 september 2013 01:25]

Precies, Nvidia doet het en ATI/AMD heeft ook al vaker gedaan.
Financieel gezien is het voor slimmer gewoon een aangepaste versie van de huidige arch te gebruiken om gaten in de nieuwe lineup te vullen.
Nadeel is dat de enige performance per watt interessante gpu (7870 non xt) verdwijnt. De performance per watt in het segment 150 a 300 euro holt dus achteruit.
Laten we wat dat betreft maar even op de reviews wachten. :) Wellicht gaat het om nieuwe steppings van de chips, nieuwe PCBs, Boost settings etc. - mogelijk gaat het er ook op vooruit.
Rebrands zijn niet altijd slecht. De 7000 serie videokaarten worden al een tijdje geproduceerd en ondertussen zijn die yields en is de kwaliteit van de chip een stuk beter geworden. Ook kan AMD toch nog enkele aanpassingen hebben gedaan in de chip of andere onderdelen van de kaart.
ik heb nu een 7xxx, deze was 400 euro en 3GB, de R9-280x zit op de 300 dollar, wat is hier de conclusie?

ik dacht zo maar, die verkoop en ga voor de zwaarste R9

[Reactie gewijzigd door dakka op 26 september 2013 01:36]

Dat je geen dure upgrade hoeft betalen om op de eerste rang te zitten, zoals bij Nvidia. :Y)
nja meer in de trend, is het nu goedkope en beter geworden of is die 280x wat minder dan de huidige
het zelfde kun je ook over auto's zeggen,mensen kopen nu eenmaal wat ze willen hebben en niet wat het voordeligste is!
leuk al die benchmarks maar het gaat natuurlijk om de beleving bij games en dan zit er soms wel veel verschil tussen AMD en NVIDIA! de zelfde score maar een andere ervaring!
het lijkt er op dat de R9 280X een 7970 GHz rebrand is met andere clocks.
het nieuwe top model is de R9 290X.
Dat je 7xxx ook nooit meer op gaat leveren dan die 300 dollar ookal heeft ie je 400 euro gekost (is dat uberhaubt relevant gezien de prijzen onwijs gedaald zijn?) :)

[Reactie gewijzigd door watercoolertje op 26 september 2013 09:29]

near titan performance voor $299 :9
goodbye nvidia _/-\o_ ik ben geen Nvidia fan, de directcompute/Opencl performance van nvidia is gewoon te triest voor woorden "voor die prijzen"

[Reactie gewijzigd door stewie op 26 september 2013 01:44]

Die R9 290X gaat natuurlijk (veel) meer kosten dan de R9 280X; hoe kom je aan $299,-?
de R9 280X
en veel meer? waarschijnlijk altijd nog steeds VEEEL minder als de Titan "dat ding is gewoon een dikke 400 euro te duur"

ik schat zelf dat de R9 290x rond de 499 euro gaat kosten, en dat is leuk voor nvidia..

[Reactie gewijzigd door stewie op 26 september 2013 02:26]

Jij beweert dat een aan de Titan gewaagde AMD-kaart $299,- gaat kosten; die R9 280X is (vooralsnog aannemelijk) niet aan de Titan gewaagd. En ¤499,- ten opzichte van $299,-/¤299,- is nog altijd een verhoging van 60%...

Gewoon afwachten totdat er fatsoenlijk vergelijkingsmateriaal verschijnt, zoals altijd...
Het is een 7970 rebrand voor 300, 770 achtige performance dus.
de 290 en 260 ondersteunen de nieuwe audiofoefjes, de 280 niet, de genoemde firestrike scores komen ook aardig overeen.

kloksnelheden kunnen anders zijn natuurlijk.
Ik meende dat ze zeiden dat de 290x >8000 punten zou scoren op 3dmark firestrike. Verder 5Tflops rauwe computing power, behoorlijk indrukwekkend.
en de next gen consoles zitten op de 1.8~ Tflops met hun hele systeem :D


...beste machine god...laat deze generatie niet weer tegengehouden worden door de vaste console specs
Tsja.. Dan praat je over een gpu van 400 dollar of zo die je vergelijkt met een compleet systeem dan 400 dollar. Niet echt fair eh?

Dat hele idee dat consoles dezelfde of betere specs moeten geven dan PCs snap ik niet, het is gewoon onhaalbaar. Ze zitten altijd aan realistische stroom en prijs beperkingen. Ik vind de specs van de aankomende generatie al impressive genoeg met wat het nu is.

En op zich zal er altijd wel iets zijn dat er voor de consoles ontwikkeld wordt, dus de PC niet echt maximaal benut wordt. Draaien de (meeste?) console games op 1920x1080p30, dan kan je op de PC ze op 60fps draaien, en / of 3D, met betere AA... en met geluk een high-res texture pack. I'm ok with it.

Maar ik zie het ook nog zo gebeuren omdat deze nieuwe console generatie standaard veel meer RAM te gebruiken heeft dan de huidige moderne videokaarten dat er wel eens een bottleneckje kan komen voor de PC's.

Ik blijf erbij, vandaar dat nvidia een GTX 760 4gb heeft gemaakt. Is het nu nodig? -> nee. Misschien later? -> time will tell.
Tsja.. Dan praat je over een gpu van 400 dollar of zo die je vergelijkt met een compleet systeem dan 400 dollar. Niet echt fair eh?
Dus je mag alleen mid-end kaarten vergelijken met een Console? Waarom zou dat?
nee je mag vergelijken wat je wilt, maar het is niet echt een eerlijke vergelijking.

bij die videokaart moet nog het nodige aan extra spullen. Dat maakt de vergelijking wel iets anders (niet dat een zelfbouw pc niet sneller zal zijn, maar niet zo absurd als je nu stelt)
@dakka en watercoolertje: De hele vergelijking tussen pc en console is zinloos: Andere markt, andere doelgroep, ander prijsniveau, andere levensduur, andere aanspreking van de hardware en bovendien: nobody cares. En dit is offtopic.

Een console zal nooit ook maar in de buurt komen van een moderne gaming-pc qua performance. Daar mag schamper over gedaan worden, maar straks gaan er gewoon weer 150 miljoen mensen 6-8 jaar plezier hebben met de nieuwe consoles, voor 400/500 euro, zonder over hardware na te denken. Spelplezier, ken je het? Wil niet zeggen dat er ook maar iets mis is met pc-gaming, maar het zijn twee verschillende manieren van gamen, met hun eigen voor- en nadelen. Ik zou zeggen: get over it.
Een console kan je niet vergelijken met PC.

Het is dumprijs hardware vs retail.
Game royalties en fee vs zonder.

Gezien ik geen oem staffel korting krijg voor milion parts maar eentje van elk component retail moet kopen. Ook OS dat wel tot heden oem gekocht kan worden is het kwa hardware.

Oem prijsje van 399,- consoltje vergelijkbaar aan een 800,- retail PC met OS.

Games zijn duurder voor de gemiddelde consument en voor online gamen wordt het ook betalen.

Het is dus niet allemaal positief of negatief. Welke keuze ook het heeft zijn pros en cons.

Pc heeft ook zijn voordelen en het is niet duurder maar je hebt de vrijheid van goedkoper tot veel duurder gamen.

En PC heeft ook zijn exclusives.
Hm.. lekker duidelijke reactie.

Ik neem even aan dat je bedoeld "recommended specs voor BF4 zijn een videokaart met 3gb of meer".

Maar dan is mijn vraag dus, wat voor performance impact heeft het als je het op de 1GB / 2GB kaartjes draait, want dat zijn de kaartjes die de meeste mensen hebben.
Ik denk dat je dan (lees: 2GB videogeheugen) de texture of shaduw instellingen één stapje terug moet doen om het videogeheugen niet vol te laten lopen. Maar wellicht is MSAA uitzetten ook al voldoende. Er zijn maar weinig games die 2GB aan videogeheugen vol plempen, dus ik denk dat het allemaal reuze mee valt.

Als het videogeheugen vol loopt kakt de performance in en heb je last van framedrops en haperingen.
Lezen is ook een kunst.

Het ging dus om het feit dat de _nieuwe_ generatie consoles daadwerkelijk een spec-list hebben die hier en daar beter is dan huidige mid-to-top end PC's, namelijk de hoeveelheid (video) RAM. (Wat weer uit een stomme opmerking in de trend van "boehoeh consoles zijn oud voordat ze uitkomen" kwam).

Dus er komen games die daadwerkelijk meer dan 3GB geheugen gebruiken (sommige van de huidige demo's van PS4 games bijvoorbeeld zijn al confirmed als rond de 3.5gb aan videoram te gebruiken).

Dus vroeg me af hoe dat ging werken als je zoiets dan op een PC draait met 'maar' 2gb aan video-RAM. Dan komen er dus games die "speciaal voor de PC een low-res texture pack" hebben :).
3GB heeft niks met de consoles te maken maar met de GAME Battlefield 4 waar 3GB als recommended word geadviseerd

heeft dus niks met console's te maken

verder zul je in de game opties gewoon filters kunnen uitschakkelen zoals MSAA of HBAO waardoor er minder VRAM word opgevroten heeft dus ook helemaal niks met low res texture packs te maken!

o ja en dit
hier en daar beter is dan huidige mid-to-top end PC's,
totaal niet dus de komende consoles zitten meer tot een low to mid end gaming pc de PS4 is net zo krachtig als een HD7870 en dat is GEEN high end game kaartje

dan moet je naar de HD7900 series of GTX770+ gpu's kijken

verder staat VRAM niet gelijk aan prestatie als je gpu chip niet snel genoeg is dan heb je niks aan de extra vram

[Reactie gewijzigd door firest0rm op 26 september 2013 19:21]

goed.. probeer het nog 1x. Want een serie flameposts is absoluut niet wat ik wilde, sorry.

Uiteraard is de rekenkracht meer van de meeste gaming PC's dan de nieuwe aankomende consoles... dat had ik ook gezegd in 1 van de eerste posts in deze thread.

Het enige puntje wat aanzienlijk anders is, is de hoeveelheid (video) RAM. Ontwikkelaars krijgen 4GB ter beschikking (van de 8GB in de systemen) en zijn vrij het in te zetten als video RAM of generiek RAM of hoe ze ook maar willen. De interviews met ontwikkelaars tot nu toe laten zien dat dat voornamelijk video RAM zal zijn. De demo van Killzone Shadowfall bijvoorbeeld gebruikte 3.5GB aan video RAM at pretty much any moment, volgens de ontwikkelaar zelf.

Dus er zijn nu inderdaad geen (of extreem weinig) spellen die meer dan 2gb gebruiken.
Mijn punt is (voorspelling eigenlijk) dat dit gaat veranderen als de spellen worden gemaakt voor de nieuwe consoles.
Want een puntje wat de nieuwe consoles daadwerkelijk beter hebben, is de hoeveelheid RAM en de configuratie daarvan.
Dat bedoel ik met 'hier-en-daar beter dan midrange', ze hebben bepaalde specs die daadwerkelijk beter zijn. Shaders / power? Nee, de PC kan meer al helemaal als je er meer geld tegenaan smijt.
Maar met al de extra fixed-function chipjes en de RAM configuratie zijn er dus bepaalde specs en dus 'hier-en-daar' stukjes dat de nieuwe console generatie 'beter' is dan de huidige PC's, zelfs met highend videokaartjes.

Dat bedoelde @Crazylemon waarschijnlijk ook met 'BF4 -> 3GB gpu'. Dat BF4 eigenlijk gemaakt is voor meer dan 2GB Videoram.

Dus - omdat het topic van 'domme console naar PC ports - ergens langskwam, vroeg ik me af hoe een 'redelijk' videokaartje zoals een 2GB 200+ euro PC kaartje zou omgaan met een spel wat eigenlijk gewoon 3.5GB vol wil plempen.

Zakt de framerate erg, maar wel stabiel? Zakt de framerate erg, maar een beetje? Krijg je echt onregelmatige stotteringen? Dit was mijn serieuze vraag, want dan weet ik of het de moeite waard is om speciaal voor een >= 3GB kaartje te gaan als ik nu een nieuw videokaartje zoek.

Ja, je kan altijd settings naar beneden gooien, dat snap ik ook wel. Maar dan zet je dus dingen uit die de consoles niet uit hoeven te zetten. Ik beweer helemaal niet dat je hopeloos bent met een PC met <= 2GB video RAM, maar het zou me niks verbazen als de console versies standaard betere textures zullen krijgen bijvoorbeeld.
Ja, je kan altijd settings naar beneden gooien, dat snap ik ook wel. Maar dan zet je dus dingen uit die de consoles niet uit hoeven te zetten. Ik beweer helemaal niet dat je hopeloos bent met een PC met <= 2GB video RAM, maar het zou me niks verbazen als de console versies standaard betere textures zullen krijgen bijvoorbeeld.
fout die staan bij de console standaard uit en kun je dus niet aan zetten

er is een groot verschil dus BF4 op de console als BF4 op de PC
echter heb je bij de PC de optie om het een en ander naar beneden te schalen van daar ook dat men constant met Recommended settings en Minimum Requierments aankomt zetten


en nog maals video ram staat niet gelijk aan prestatie winst als de gpu chip niet snel genoeg is heb je er niks aan

de grootste ram vreters zijn Anti Aliasing filters die zorgen bijvoorbeeld voor geen gekkartelde randjes of dunnen lijnen die zo maar verdwijnen

[Reactie gewijzigd door firest0rm op 27 september 2013 12:48]

fout die staan bij de console standaard uit en kun je dus niet aan zetten
Weet je niet, die consoles zijn er niet, de spellen zijn er niet.. hoe weet je nou hoe het er uit gaat zien / wat er mogelijk gaat zijn / wat er nodig gaat zijn? Heb dus weer het idee dat er niet gelezen wordt, maar zal het nog maar eens herhalen: Ik heb het over de PS4 / XBone... nieuwe generatie consoles.
en nog maals video ram staat niet gelijk aan prestatie winst als de gpu chip niet snel genoeg is heb je er niks aan
Geld weer voor, dat weet je niet. Er zijn nu nog geen spellen die 3.5GB of meer gebruiken, en er zijn nu geen midrange kaartjes met zoveel video RAM. Ik haal weer Killzone Shadowfall demo op de presentatie van PS4 aan: 1920x1080, 30fps (of misschien zelfs 60, weet ik niet meer), zonder MSAA, alleen hooguit FXAA/SMAA post-aa filter... maar toch gebruikt die demo 3.5GB aan video RAM... en toch draait het op 'maar' iets wat op een 7850 / 7870 lijkt.
de grootste ram vreters zijn Anti Aliasing filters die zorgen bijvoorbeeld voor geen gekkartelde randjes of dunnen lijnen die zo maar verdwijnen
True, maar op de consoles (en de PC ook steeds meer) zijn ze al lang afgestapt van MSAA, juist omdat op de oude generatie consoles elk beetje RAM heel veel waard is, en gebruiken ze postprocessing AA filters die op de compute kunnen draaien, zoals FXAA of SMAA. Dit kost ook zo goed als geen RAM meer dus. Ik haal hier wel even het puntje aan dat van alle technische interviews van (tech) demo's op de nieuwe consoles er echt geen tussen zat die nog MSAA gebruikte
Weet je niet, die consoles zijn er niet, de spellen zijn er niet.. hoe weet je nou hoe het er uit gaat zien / wat er mogelijk gaat zijn / wat er nodig gaat zijn? Heb dus weer het idee dat er niet gelezen wordt, maar zal het nog maar eens herhalen: Ik heb het over de PS4 / XBone... nieuwe generatie consoles.
die spellen zijn er wel en de consoles zijn er ook al
de games zoals BF4 worden niet voor niks op devkits bij evenementen zoals E3 of Gamescom geshowed en daar is een duidelijk verschil te merken als het gaat om BF4 op pc vs Console

zo zijn er ook heel wat vergelijkingen met de nieuwe Unreal 4 engine http://www.youtube.com/watch?v=mFgVR2Ke0XY
een groot verschil dus
Geld weer voor, dat weet je niet. Er zijn nu nog geen spellen die 3.5GB of meer gebruiken, en er zijn nu geen midrange kaartjes met zoveel video RAM. Ik haal weer Killzone Shadowfall demo op de presentatie van PS4 aan: 1920x1080, 30fps (of misschien zelfs 60, weet ik niet meer), zonder MSAA, alleen hooguit FXAA/SMAA post-aa filter... maar toch gebruikt die demo 3.5GB aan video RAM... en toch draait het op 'maar' iets wat op een 7850 / 7870 lijkt.
volgens mij ken jij de werking van VRAM niet er zijn genoeg games die meer dan 4GB ram KUNNEN gebruiken
door simpel alleen al de resolutie omhoog te gooien

VRAM heeft weinig impact op de game engines zelf die worden namelijk door de cpu en het Werkgeheugen geregeld!
zoals FXAA of SMAA. Dit kost ook zo goed als geen RAM meer dus. Ik haal hier wel even het puntje aan dat van alle technische interviews van (tech) demo's op de nieuwe consoles er echt geen tussen zat die nog MSAA gebruikte
ook die filters verbruiken erg veel Video Geheugen

[Reactie gewijzigd door firest0rm op 28 september 2013 17:25]

bf4 will tell of je wel of geen 4gb nodig hebt!
Cool! Gebruik mijn AMD 6870 al tijden om me 5.1 setje aan te sturen, werkt subliem. Goed surround ook in films/games. Ben benieuwd wat er dan precies moet gaan verbeteren aan geluid, maar ben erg benieuwd wat voor impact het heeft op me geluid als zon nieuwe AMD jonge erin schroef.
Gebruik mijn AMD 6870 al tijden om me 5.1 setje aan te sturen, werkt subliem.
Omdat de kaart niks anders hoeft te doen dan een digitaal signaal wat binnen komt door te geven :P

De kaart doet op dit moment dus helemaal niks zelf, geeft enkel wat signalen door.

En daar gaat dus verandering in komen, geluiden in games zijn verre van natuurlijk...
Het enigste dat me momenteel interesseert, is de Mantle tech die ze hebben geintroduceerd en benchmarks van DX11 vs Mantle in BF4 met deze kaarten.

Dit lijkt me eindelijk console optimaliseringen op pc. En is dit toevallig? De nieuwe consoles zijn ook AMD GPUs, wie weet maken die gebruik van Mantle voor de low-level aansturing.

Een andere vraag die belangrijk is, als ze nu zo dicht op de hardware kunnen optimaliseren, hoe snel gaan de consoles dan verouderd zijn binnen een jaar, als Mantle door meer devs onder de arm zal worden genomen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True