Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 252 reacties

AMD heeft tijdens de E3 zijn langverwachte 'Fiji'-gpu en Radeon 300-serie aangekondigd. Fiji is omgedoopt naar 'Radeon R9 Fury' en zal in vier verschillende videokaarten zijn opwachting maken. Over de 300-serie maakte AMD weinig details, maar wel prijzen bekend.

AMD kondigde vier videokaarten aan die gebaseerd zijn op de Fiji-architectuur. De topmodellen zijn de luchtgekoelde Radeon R9 Fury en de Radeon R9 Fury X, die standaard met waterkoeling geleverd zal worden. De gpu van de Fury X is opgebouwd uit 8,9 miljard transistors en krijgt de beschikking over 4096 streamprocessors, wat goed is voor 8,6 teraflops aan rekenkracht. De Fury-kaarten maken gebruik van het onlangs aangekondigde hbm-geheugen met een busbreedte van 4096bits.

De Fiji-gpu zal daarnaast terug te vinden zijn in de R9 Nano-videokaart, die slechts 15,3 centimeter lang is. Er zal ook een dualgpu-variant beschikbaar komen, die AMD demonstreerde in 'Project Quantum', een pc in een compacte behuizing. Als het aan AMD ligt komt Project Quantum ook daadwerkelijk op de markt.

R9 Fury X

De Fury X zal vanaf 24 juni te verkrijgen zijn voor 649 dollar, terwijl de Radeon R9 Fury vanaf 14 juli voor 549 dollar in de schappen ligt. De R9 Nano moet later in de zomer beschikbaar komen, terwijl de videokaart met twee fiji-gpu's gepland staat voor de herfst.

R9 Nano
Behalve de Fiji-gpu's kondigde AMD ook de 300-serie van zijn videokaarten aan. De eenvoudigste videokaart uit de nieuwe serie is de R7 360, die AMD bedoeld heeft voor eenvoudige online games op een resolutie van 1920x1080 pixels. Een stapje sneller zijn de R7 370 en R9 380, die met maximaal 4GB werkgeheugen uitgerust kunnen worden. De topkaarten in de serie zijn de R9 390 en 390X, die voorzien zijn van 8GB werkgeheugen. AMD benadrukte dat alle videokaarten ondersteuning hebben voor DirectX 12, maar gaf niet aan of alle features ondersteund worden. Het gerucht gaat dat de 300-videokaarten rebrands zijn van bestaande AMD-gpu's, waardoor deze niet alle features ondersteunen. Totdat AMD verdere details over de gpu's vrijgeeft, blijft dat echter nog onduidelijk.

Gpu Werkgeheugen Prijs
R9 390X 8GB gddr5 429 dollar
R9 390 8GB gddr5 329 dollar
R9 380 Max. 4GB gddr5 199 dollar
R7 370 Max. 4GB gddr5 149 dollar
R7 360 2GB 109 dollar

De nieuwe videokaarten moeten vanaf donderdag, 18 juni, beschikbaar zijn. Prijzen in euro's zijn nog niet bekend.

Moderatie-faq Wijzig weergave

Reacties (252)

http://content.hwigroup.n...y-X-3DMark-FireStrike.jpg

En een beetje advertizement van AMD zelf :
https://www.youtube.com/watch?v=9-JG0Cr_B-8
https://www.youtube.com/watch?v=agqO_vomcEY
https://www.youtube.com/watch?v=lLLxFNkwgas

Dat GPU tac is wel leuk, een on the fly view van hoe 'zwaar' je graphics card het nu op t moment heeft :D

Update:
https://www.youtube.com/watch?v=J8kMu4JTJYM

Tenenkrommend praatje die presentatie. Vooral die awkward silence voor het applaus komt.. Ai.

[Reactie gewijzigd door HgnX op 16 juni 2015 19:56]

Ik vind de score nogal tegenvallen voor de R9 390X. Hoewel benchmarks niet alles zeggen, zit 'ie onder de concurrent, de GTX 980 en het verschillen tussen de R9 390 en de R9 290X is ook erg klein.
Hoezo tegenvallen? Dat het een (grotendeelse) rebrand van b.v. de R9 290X zou worden was inmiddels al bekend. Op 4K kon een 290X nog vrij aardig mee doen met een GTX980. Volgens de bovenstaande grafiek zou de 390X dat nog beter moeten kunnen, maar dan nog altijd voor 100 euro minder dan een GTX980.
Maar als je veel games speelt verdien je die 100 euro weer terug omdat de GTX980 de helft minder vermogen verbruikt dan de 290X. Een R290X gebruikt zelfs op stock snelheid meer vermogen dan een overgeklokte Gigabyte GTX980Ti. Plus dat de enorme warmte ontwikkeling ook problemen kan geven om je CPU te koelen.

Puur kijken naar de aanschafprijs is dus helemaal niet zo verstandig. Zoek een review welke een test systeem gebruikt vergelijkbaar met die van jouw en reken dan eens de kosten uit op basis van jouw gemiddeld aantal game uren.
Dan moet je toch al héél veel gamen denk ik, om ¤100 aan elektriciteit op te doen. En als de 290X dan dubbel zoveel verbruikt betekent dat al ¤200 aan stroom voor de 290X alleen, of ¤100 voor de 980.

Tenzij jij mij de berekeningen kan geven lijkt het mij een heel sterk verhaal :)

[Reactie gewijzigd door shier50 op 16 juni 2015 20:48]

Het verschil in TDP tussen de de oude R9 290X en de GTX980 is zo'n 100W. Reken je voor flink gamen 4 uur per dag (let wel, dit is 365 dagen per jaar), dan duurt het 5 tot 5.5 jaar voordat (door het stroomverbruik) de R9 290X duurder wordt, uitgaande van 100W a 4 uur per dag = ¤32.50 per jaar en een prijsverschil van ongeveer 170 euro.
Als je het echt goed wil berekenen, moet je ook rekening houden met verlies in de PSU en dergelijke.
De meeste PSUs zijn maar ~90% efficient, en bij bepaalde belasting zelfs minder.
Bij gelijke PSU is zuinige kaart stuk minder zuinig omdat tolerantie in die deel last van de PSU hoger is.
Een redelijke zwaardere belasting kan juist in zone vallen waar de PSU stuk efficenter is.

Dus 980 op bronze voedinkje vs een 290X op platinium 80 plus. Is het verschil al stuk minder.
Een 980 op lichtere platinum vs 290x op zware bronz maakt het verschil groter.
En je case en cpu-fans(en evt gpu-fan ook maar dat kan opgevangen worden door betere heat sink en meer cooling pipes) moeten harder draaien omdat er meer warmte in je kast komt. Dat meerverbruik moet ook verrekend worden.
Maar dat scheelt wel weer op je gasrekening. :+
Ik denk wel dat de meeste kandidaat-kopers van dergelijke high end kaarten hun grafische kaarten geen 5 jaar in gebruik houden, maar ja voor de rest kan je gelijk hebben.
Ik denk dat maar heel weinig gamers (zelfs in het lagere segment) een videokaart 5 jaar houden. Maar in het topsegment is het idd helemaal onzin. De meest hebben daar een upgrade cycle van hooguit 3 jaar. Maar meestal meer tussen de 1 en 2 jaar. Daarom komen de fabrikant ook altijd ongeveer om het jaar met een nog snellere variant.
Er is ook een R9 Nano aangekondigd die een stuk krachtiger is dan de 290x, is 6inch lang en x2.0 zuiniger (volgens amd)

*BRON bij 1min30: https://youtu.be/J8kMu4JTJYM?t=1m30s

[Reactie gewijzigd door Stef87 op 16 juni 2015 23:02]

Er is helaas nergens mede gedeeld dat hij krachtiger is dan de 290x, alleen dat hij 2 maal zo snel is per watt, maar mocht hij maar 100 watt gebruiken dan is hij dus alsnog minder snel dan de 290x. Neemt niet weg dat ik erg benieuwd ben naar dit beestje.
Dat is wel gezegd, door de CEO van AMD, kijk het eventueel terug (AMD E3 reveal vandaag gekeken via twitch.TV)

[Reactie gewijzigd door Stef87 op 16 juni 2015 22:58]

Ik had het ook gekeken, maar dit was me even ontschoten. Zou wel apart zijn, waarom dan nog de 390x releasen? Of vinden ze het gat tussen de 390X van 429 dollar en de fury van 549 dollar te groot? Dat lijkt me namelijk de plek waar deze dan terecht zou komen.
Dit is de link: bij 1:30 https://youtu.be/J8kMu4JTJYM?t=1m30s ''significantly more performance then the r9 290x '' zij heeft het over de R9 Nano

[Reactie gewijzigd door Stef87 op 16 juni 2015 23:01]

Zo, dat zou dus betekenen dat de Nano tussen de 300 lijn en de Fury lijn valt.
Zo snel zit je niet op die 100 euro.
Stel je gamed 2 uur op een dag en een kw/h is 20 cent en je zou 100 wat meer gebruiken dan ben je 14.6 euro kwijt in 1 jaar (0.1 x 0.2 x 2 x 365) in mijn beleving is dat niet heel veel en alleen in de zomer is de extra warmte verspeeld anders zou je meer gaan stoken om je huis warm te houden.
De helft minder? De 980ti heeft een tpd van 250. De r9 290x 290. Dus 40w na 30 uur gamen kan je maximaal 1kw extra kwijt zijn. Dus ong 21 cent per 30 uur. Laten we zeggen 25 cent per kw. Dus 120 uur gamen voor 1 euro extra. Je kan dus 12000 uur gamen voor die 100 euro. Das is meer dan 1 jaar lang 24/7 gamen... Ja dat gaat mij echt opbreken als ik ga gamen...
Maar wel met een tdp van 375 W!(voor de 390X tri-X oc van Sapphire). Als je een stille koele pc wilt mag je dat met die kaart dus vergeten.
http://wccftech.com/sapph...eon-r9-fury-fury-sighted/

De enige interessante kaart vind ik eigenlijk de Fury(X) en de prijs valt nog mee als je rekening houdt met de dure technologie (HBM) die gebruikt wordt. Toch is het niet goedkoop natuurlijk, zo'n dure kaart zou ik nooit kopen en ik hoop dan ook dat AMD de prijs snel laat zakken.
Wccftech... de ongefundeerde roddelkrant van de tech websites :|
Die 375W halen ze puur uit het feit dat de kaart 2x 8pins heeft, welke elk maximaal 150W leveren. Het PCIe x16 slot zorgt voor nog eens 75W, wat in totaal een theoretisch maximum van 375W oplevert. Of de kaart dat ook verbruikt staat daar helemaal los van.
Nope, niet ongefundeerd. Ben gisteren ook gaan kijken op diezelfde webpagina en dat was het max. verbruik dat Sapphire zelf opgaf en zij zullen het wel weten. Ook raadde Sapphire een PSU van 750 W aan. Ik snap trouwens niet waarom Wccftech die webpaginakopies van Sapphire weggehaald heeft.

Edit: Ik heb de link teruggevonden met de webpaginakopies van Sapphire en deze keer van Videocardz als dit een betrouwbaardere bron is voor je. ;)

http://videocardz.com/564...confirms-radeon-r9-fury-x

[Reactie gewijzigd door Fredi op 17 juni 2015 02:44]

Die 390X zal wel een opgevoerde 290X zijn voor zover dat mogelijk is.
Ik ben zelf wel benieuwd hoever de Fury X op de voeren valt, zeker met de watercooling.

Dat hele gepraat over 'small form factor' klinkt echter wel een beetje flauw, considering dat je dus nog ergens een radiator plus fan kwijt moet, en het enige wat je eraan kan pimpen is de fan vervangen, al zal dat weinig uitmaken. Heb zelf een NZXT Kraken Set, dus waar ga ik radiator blok 2 en 3 (in crossfire) hangen?
Als 2/3 gpu's gaat je gewoon voor een custom loop. En dan heb je ook geld voor een enthoo primo bv. En dam kan je al 2x480 boven en onder. Kwijt. En nog eens 2x240. En 1x140. Die kan je dus prima koelen.
Maar dit ding is specifiek een closed loop systeem :s
humz. had het idee dat ze het zelfde systeem als deze(google image)
gebruikte. en gewoon zo in je costum loop kon drukken. dat is dat wel weer een rare zet. als je echt dat extra wil hebben kan je meestal ook wel cwc gaan.
Ik heb hier niets over gehoord, maar vermoed dat ze de fittingen zo ontwikkelen dat je het eenvoudig op een custom waterkoeling set kan aansluiten. Dat lijkt mij in iedergeval wel logisch, het zou een grote pré zijn voor heel wat high end gamers/overklokkers
Laat ons eerlijk zijn. Als je 2 kaarten in crossfire draait dan is er sowieso niet veel small form factor aan, ook al zijn de kaarten zelf klein.
Laat ons eerlijk zijn. Als je 2 kaarten in crossfire draait dan is er sowieso niet veel small form factor aan, ook al zijn de kaarten zelf klein.
Ik kan gewoon twee 260mm kaarten kwijt in mijn kleine Cooltek Coolcube Maxi die maar H 280mm B 240mm D 280mm is.

Dus ja dan is hij gewoon small form factor.

[Reactie gewijzigd door AmigaWolf op 17 juni 2015 02:12]

Hij zit boven een 980Ti en onder de overgeklokte 980Ti. Een overgeklokte Fury zit niet in die slide.
Het kleine verschil tussen de 290(X) en 390(X) serie is niet zo verwonderlijk, het zijn in principe dezelfde chips. De hele 300 serie is een rebrand van de 200 met wat kleine optimalisaties, dus verwacht daar geen wonderen in de prestaties.

Die enigste echt nieuwe AMD kaart is de Fury.
Ik had het idd over de R390(x).
Deze benchmarks stonden online voordat de Fury was aangekondigd. Er valt dus niet veel waarde aan te hechten qua echtheid. ;)

Bron van 6 dagen geleden:
http://videocardz.com/562...fury-x-3dmark-performance

[Reactie gewijzigd door LongBowNL op 16 juni 2015 21:51]

Ja amd maakt leuk spul , maar ze snappen echt niks van marketing.

Ben zelf erg in de r9 Nano interesseert. Leuk voor een kleinen game pc ( steammachien bijv. )
In de eerste link staat dat de Fury (niet X) 4GB geheugen heeft. Dit lijkt me wat weinig, zeker als je ziet dat de 390X 8GB heeft. Hoe zou dit komen?
Door het nieuwe geheugen.
http://www.tweaktown.com/...bm-limitations/index.html

Ze kunnen er nu nog niet meer op zetten.
Beiden bedankt voor de opheldering. Ik ben bang dat de Fury op die manier een korte levensduur heeft met de telkens stijgende vereisten qua (video)geheugen. Das toch enorm jammer voor een videokaart met zo'n prijskaartje...
Zwak punt inderdaad, considering dat bijvoorbeeld Shadow of Mordor al 6 GB recommend op Ultra Settings. Benieuwd of AMD's verhaal hier standhoudt.
Misschien een leuke testcase voor de Tweakers benchmark squad. :+

Al is 8,6 teraflops GPU power echt 'whopping' veel.

[Reactie gewijzigd door HgnX op 16 juni 2015 19:46]

de fury heeft ook color compression waarmee 30% bandbreedte en ruimte bespaart worden in het geheugen. je zou kunnen zeggen dat hij effectief meer richting de 5GB heeft.

en die 6GB is recommended omdat ze net boven de 4 uit komen en er niks is tussen 4 en 6gb zit in videokaart land.

ik bewijfel dus of je er ooit echt tegen aan gaat lopen eigenlijk

[Reactie gewijzigd door Countess op 16 juni 2015 20:07]

de fury heeft ook color compression waarmee 30% bandbreedte en ruimte bespaart worden in het geheugen. je zou kunnen zeggen dat hij effectief meer richting de 5GB heeft.
Dat zou alleen op gaan als alle andere kaarten GEEN compressie gebruiken, maar helaas gaat dat niet op.
dat is niet relevant want de recommendation is op basis van kaarten zonder compressie (de lowest common denominator).

[Reactie gewijzigd door Countess op 16 juni 2015 20:20]

Hoezo irrelevant?
AMD gebruikt in GCN en eerdere GPUs al veel langer compressie, en heeft het in GCN1.2 nog eens verbeterd: http://www.anandtech.com/...md-radeon-r9-285-review/3
Fury zal dus niet 30% beter zijn dan een GCN1.2-kaart. Ik denk dat ze gewoon hetzelfde algoritme gebruiken.
Bij nVidia een vergelijkbaar verhaal. Gebruiken al jaren compressie, in Maxwell nog eens verbeterd: http://www.anandtech.com/...-geforce-gtx-980-review/3

Kortom, dat 'low-hanging fruit' is al eerder geplukt, en daar zal Fury echt geen 30% op winnen.
Kaarten zonder compressie zijn er al heel lang niet meer. Dus juist die vergelijking is irrelevant.

[Reactie gewijzigd door Scalibq op 16 juni 2015 20:28]

dat veranderd niks aan het feit dat die 6GB recommendation is gebaseerd op kaarten zonder compressie.
Over welke recommendation heb je het hier dan?
Van games?
Want die zijn natuurlijk juist NIET gebaseerd op hoeveel geheugen een game in theorie zou kunnen gebruiken, maar juist op wat kaarten zo ongeveer in de praktijk doen.
Er zit nog een hele laag tussen qua drivers etc, en zonder exact te weten hoe de GPU-architectuur en driver werkt (wat de ontwikkelaar dus meestal niet weet), weet je ook niet hoeveel extra datastructuren, alignment etc er nodig is in het videogeheugen naast het sec uitrekenen van hoeveel textures, buffers en geometrie je gebruikt. Sowieso is dat per GPU verschillend, en ook per driver kan dat nog iets verschillen.

[Reactie gewijzigd door Scalibq op 16 juni 2015 20:36]

Nog even los van de vraag hoeveel bandbreedte winst AMD kan boeken met de laatste lading van compressie technieken, hebben we hier te maken met een nieuw type geheugen. Weet jij hoe HBM zich zal gedragen, de bandbreedte die het levert, de latencies? AMD heeft 7 jaar aan HBM gewerkt om tot dit product te komen. Als zij denken dat 4GB genoeg is voor het gros van de toepassingen, dan zullen ze daar wel een goede reden voor hebben.
Dat is een ander verhaal.
We hebben het hier over het geheugen, en dat is 'gewoon' 4 GB, net zoals op de concurrerende kaarten met 4 GB en een moderne GPU met een modern compressiealgoritme.

AMD denkt niet zozeer dat 4 GB genoeg is. Slechts dat de techniek momenteel niet rendabel/volwassen genoeg is voor meer dan 4 GB.
HBM is op dit moment inderdaad effectief gelimiteerd tot 4GB bij 4 stacks, alhoewel er mogenlijkheden zijn voor meer, al dan niet direct toepasbaar. AMD weet dit echter al lang genoeg, aangezien ze zelf voor een heel groot deel verantwoordelijk zijn voor HBM. Rendabel kan het pas worden wanneer het daadwerkelijk in een product wordt toegepast, wat nu dus gebeurt.

Wat betreft compressie, ja daar wordt al jaren aan gewerkt. Maar weet jij hoe goed de compressie van Fiji is? Hoe verhoudt deze zich tot voorgaande GCN kaarten? Hoe tot Maxwell? Kan de compressie, gecombineerd met extreem hoge bandbreedte, ervoor zorgen dat het geheugen snel genoeg geleegd en gevuld kan worden zonder hick-ups?

Een 'Maxwell heeft meer dan 4GB nodig, dus Fiji zal ook wel meer nodig hebben' antwoord zal hier niet volstaan, ben ik bang.
Wat betreft compressie, ja daar wordt al jaren aan gewerkt. Maar weet jij hoe goed de compressie van Fiji is? Hoe verhoudt deze zich tot voorgaande GCN kaarten? Hoe tot Maxwell? Kan de compressie, gecombineerd met extreem hoge bandbreedte, ervoor zorgen dat het geheugen snel genoeg geleegd en gevuld kan worden zonder hick-ups?

Een 'Maxwell heeft meer dan 4GB nodig, dus Fiji zal ook wel meer nodig hebben' antwoord zal hier niet volstaan, ben ik bang.
Het is meer dat zowel AMD als nVidia al meerdere generaties van color compression hebben ontwikkeld, en het dus steeds lastiger wordt om nog meer winst te boeken.
Je kunt niet oneindig comprimeren. Op een gegeven moment houdt het op.

Als je denkt dat Fiji significant betere compressie heeft dan Maxwell v2, dan geloof je in sprookjes.
nVidia heeft ook hard ingezet op compression, en wel omdat nVidia de databus in hun GPUs smaller wilde houden, zonder al te veel tegen een bandbreedte-limiet aan te lopen, en dat is ze aardig gelukt.

[Reactie gewijzigd door Scalibq op 16 juni 2015 22:28]

Want die zijn natuurlijk juist NIET gebaseerd op hoeveel geheugen een game in theorie zou kunnen gebruiken, maar juist op wat kaarten zo ongeveer in de praktijk doen.
JUIST! en dan pakken ze het MAXIMALE wat ze zijn tegen gekomen. en waar vinden ze dat? JUIST ben kaarten zonder de extra compressie techniek.
Leuk geprobeerd, maar zoals mijn links al aangeven werd compressie al gebruikt ten tijde van de Radeon 9700/GeForce FX.
Zoals ik al zei, kaarten zonder compressie bestaan al heel lang niet meer.
Alleen hebben veel sites ook gemeten met de nieuwe Maxwell kaarten. Die hebben al compressie, en komen nog steeds in genoeg titels te dicht aan de 4 GB.
en nu komen de AMD fans zeggen dat je nooit echt meer dan 4GB gaat gebruiken. Rare kronkels.
Ik vind het vooral krom dat ze dat beweren ondanks het feit dat AMD ook kaarten verkoopt met meer dan 4 GB.

Het verhaal is vrij simpel: AMD krijgt op dit moment niet meer dan 4 GB aan HBM op een kaart. Dat willen ze natuurlijk wel, en zodra het kan, zullen ze het ook doen, want ze weten zelf ook wel dat 4 GB een achilleshiel van de Fury kan worden.
Maarja, het is nu even niet anders.
Dat is verder helemaal niet erg, het is al lang mooi dat AMD iets nieuws durft te proberen. Maar laten we wel realistisch blijven. 4 GB is anno 2015 niet echt overbodige luxe op een high-end kaart, gericht op VR en 4k.

[Reactie gewijzigd door Scalibq op 16 juni 2015 22:49]

nee het probleem bij de 970 was dat ze hem verkochten als 4GB maar er eigenlijk maar 3.5GB echt snel was en de laatste 0.5GB zeer langzaam, en als je die gebruikte konden de prestaties van je kaart ineens inzakken.

en wat consoles betreft, de ps4 heeft 8GB TOTAAL. dat is niet puur video geheugen.
Zorgt er wel voor dat programmeurs ervoor zorgen dat er efficienter met het geheugen omgegaan wordt. Beide kampen (Nvidea ook met de GTX 960/970/980) profiteren hiervan. Met de Witcher 3, kun je zien dat het ook anders kan. Dat spel neemt maar maximaal 2,5 GiB aan memory in beslag op ultra.

Dus ik zou mij niet teveel zorgen maken om het geheugen, daarbij is het ook zo dat de consoles waarschijnlijk ook niet veel meer gaan gebruiken qua geheugen de komende jaren dus dan zal 4 GB genoeg zijn.
Vaak worden games vanaf console naar PC geport. Als dit niet netjes gebeurd krijg je dat de games veel meer resources gebruiken dan dat eigenlijk nodig is. Ik ben bang dat de trend van 'slechte ports' nog wel eventjes aanhoud aangezien consoles nou eenmaal stukken populairder zijn dan PC. Als dat het geval is zou dat slecht uitpakken voor de Fury..
de console games zitten echter vast aan de hoeveelheid geheugen die ze nu ter beschikking hebben dus de behoefte aan maar resources voor PC ports hoeft helemaal niet te groeien de komende jaren tot er een nieuwe console generatie komt.
Maar de consoles hebben beiden 8 GB, dus een game kan makkelijk meer dan 4 GB voor graphics-mem gebruiken.
Maar de consoles hebben beiden 8 GB, dus een game kan makkelijk meer dan 4 GB voor graphics-mem gebruiken.
De consoles hebben 8GB gedeeld geheugen. Daarnaast beschikt de Xbox one over 8GB DDR3 geheugen (de PS4 over 8GB GDDR5). Wanneer je niet beide taken splitst naar het snelle videokaartgeheugen en het langzamere DDR3/4 geheugen. Alleen dan is een GPU van 8GB vereist. Zelfs bij een slechte port als Assassins creed, heb je "maar" 2GB vram nodig: nieuws: Assassin's Creed Unity vereist minimaal GTX 680 of Radeon HD 7970 en 6GB ram.

Theoretisch zou het alleen mogelijk zijn wanneer een dev een game maakt die zo is geprogrammeerd dat zowel de GPU en de CPU hetzelfde stukje code moeten kunnen benaderen.

[Reactie gewijzigd door Bliksem B op 17 juni 2015 00:31]

consoles hebben 8GB geheugen;
jouw pc heeft 8gb Ram + nog eens je videogeheugen apart

om op 1920x1080 te gamen heb je in bijna alle gevallen voldoende met 1gb ram, enkel als je zeer hoge resolutie van textures gaat gebruiken (die vooraf in het videogeheugen worden geladen) zal je niet toekomen met 1 gb, maar als je de settings wat omlaag zeg kom je wel toe; met 2 en zeker met 4 gb kom je zeker en vast toe... ook voor 4K gaming; want het blijven dezelfde textures ... alleen zal de framebuffer iets groter worden, maar omdat het meer rekenkracht vereist om je frames op te bouwen zal je sowieso minder fps halen en dus ook minder geheugen nodig hebben om frames te storen.... al wordt er met vsync aan meestal niet meer dan 1 of 2 frames gebufferd; dus zoveel ram kan je daar ook weer niet aan kwijt zijn..

neen, wees maar gerust, met dit 4GB gpu ram kom je normaalgezien ruimschoots toe voor fullhd gaming en voor 4K gaming moet die kaart van 8gb ook ruim voldoende zijn... tegen de tijd dat die niet meer voldoet zal ze sowieso te traag zijn om nog te volgen... (8gb/sec aan data verwerken is niet niets...)
ook voor 4K gaming; want het blijven dezelfde textures ... alleen zal de framebuffer iets groter worden
Die redenering is dus fout.
Als je resolutie hoger wordt, moet je ook hogere resolutie textures gebruiken. Anders verandert je texel:pixel ratio op het scherm, en krijg je dus undersampling, wat leidt tot onscherpe textures. En onscherp beeld is nu net wat je NIET wil hebben als je naar 4k gaat.

Daarnaast gebruiken games meerdere buffers gerelateerd aan de framebuffer voor lighting (deferred rendering), postprocessing en dergelijke.
maar omdat het meer rekenkracht vereist om je frames op te bouwen zal je sowieso minder fps halen en dus ook minder geheugen nodig hebben om frames te storen.... al wordt er met vsync aan meestal niet meer dan 1 of 2 frames gebufferd; dus zoveel ram kan je daar ook weer niet aan kwijt zijn..
Ook dit is onzin, zoals je zelf eigenlijk al aangeeft. De swapchain wordt gewoon vast ingesteld op double danwel triple buffering, en dat is onafhankelijk van je framerate of het gebruik van vsync.

Leuk geprobeerd, maar er klopt niet zo heel veel van je verhaal, helaas.

[Reactie gewijzigd door Scalibq op 17 juni 2015 09:01]

de textures blijven wel hetzelfde als je de zeer hoge reso van textures gebruikt ... als je een spel op ultra high speelt in HD of in UHD, komen er niet ineens vanzelf nieuwe textures in het spel; je speelt met wat er is meegeleverd ...
er zijn maar een paar games die écht 4k textures zullen hebben... denk bv aan star citizen... en daar zal een 8gb vram wél nodig zijn als je op 4k wil spelen met alles op ultra... zelfs als je op gewoon HD wil spelen met Ultra (en je dus die 4k textures wil gebruiken) zal je zoveel vram nodig hebben om die textures in te laden, alleen is het dan pure overkill omdat je ze daarna onscreen gaat verkleinen en dus beter een kleinere texture-set kan gebruiken (bv 1k)

uiteraard gebruikt postprocessing ook geheugen, dat weet ik ook wel, maar ik probeerde het hier zo simpel mogelijk te houden en me te beperken tot het belangrijkste, namelijk het zuivere renderen van een 3D-scene pur sang. dat kost tenslotte nog steeds het meeste rekenkracht en geheugen., als we over elk effect (shading, bump-mapping, light-mapping, ...) moeten gaan liggen redeneren zijn we over een jaar nog bezig. Het ging er gewoon over hoeveel ram voldoende is om te gamen. En ik blijf erbij dat je met 4gb op fullHD ruim voldoende hebt om te gamen en met 8gb wel een hele tijd verder zutl kunnen op 4k.
ik game al jaar en dag met 1GB op fullhd en heb nu juist voor de eerste keer een game gehad waarbij ik niet alles op max kon zetten omdat er te weinig ram op de kaart zit (gta5) maar de kaart zelf is ondertussen al een paar jaar oud en mag dus wel vervangen worden om wat meer rekenkracht te voorzien... en het is dat wat ik dus bedoel... 8gb is met 4k ruim voldoende op dit moment, en tegen dat het te weinig is zal de gpu zelf ook aan vervanging toe zijn want dan zal die ook niet meer genoeg fps kunnen trekken, ongeacht of die kaart nu 8 of 16 gb vram heeft...

mijn huidige kaart zou met het dubbele aan vram ook gta5 niet sneller kunnen draaien... ik draai het wel in fullhd, maar heb moeten terugschakelen naar directx 10.1 want in directx 11 kon ik max op 720p spelen met 1gb vram, en op een fullhd monitor (via dvi) ziet dat er gewoon niet netjes uit.... en ik speel nu op zo'n gemiddeld 29 fps; wat nog juist vloeiend beeld geeft maar soms heb ik framedrops naar 22 enzo, en dat merk ik dan wel (maar vsync staat wel altijd aan bij mij, ik haat echt tearing).
dus mijn volgende gpu (die komt er zeker deze zomer aan!) zal wellicht een hoge midranger zijn met 4 gb; dan kan ik de komende 2,5 jaar er weer tegenaan (en is het over een jaartje tijd voor cpu/mobo/ram upgrade)
de textures blijven wel hetzelfde als je de zeer hoge reso van textures gebruikt ... als je een spel op ultra high speelt in HD of in UHD, komen er niet ineens vanzelf nieuwe textures in het spel; je speelt met wat er is meegeleverd ...
Dat is niet helemaal waar.
Er wordt gebruik gemaakt van mipmapping. Als je lagere resoluties gebruikt, heb je nooit de grootste mipmaps nodig, als de textures voor 4k zijn geprepareerd.
Deze textures hoef je dus niet te laden -> minder geheugen nodig.
uiteraard gebruikt postprocessing ook geheugen, dat weet ik ook wel, maar ik probeerde het hier zo simpel mogelijk te houden en me te beperken tot het belangrijkste, namelijk het zuivere renderen van een 3D-scene pur sang. dat kost tenslotte nog steeds het meeste rekenkracht en geheugen., als we over elk effect (shading, bump-mapping, light-mapping, ...) moeten gaan liggen redeneren zijn we over een jaar nog bezig.
Tsja, als je versimpeling van de werkelijkheid een totaal vertekend beeld geeft, is het geen goede versimpeling.
En ik blijf erbij dat je met 4gb op fullHD ruim voldoende hebt om te gamen en met 8gb wel een hele tijd verder zutl kunnen op 4k.
Interessant... Dus je vindt niet dat 4 GB voldoende is voor 4k?
En dat is eigenlijk het punt hier: De Fury is een high-end kaart, en wordt juist aangeprezen voor 4k en voor VR-taken (die effectief ook hogere resolutie nodig hebben, omdat je twee schermen rendert ipv 1, en daarnaast nog moet compenseren voor verlies in resolutie door warping).

[Reactie gewijzigd door Scalibq op 17 juni 2015 14:46]

en de r9-390 is ... 8gb .... dus wat is je punt nu ???
en de r9-390 is ... 8gb .... dus wat is je punt nu ???
Doe je expres alsof je het niet snapt ofzo?
De Fury/Fury X zijn de snelste kaarten, en krijgen 4 GB geheugen.
De R9-390 is een langzamere kaart (rebrand van 2xx-serie), maar krijgt wel 8 GB.
Het is dus nogal jammer dat de snellere kaarten, die AMD aanprijst als de kaarten voor VR en 4k, minder geheugen hebben, en zelfs zo weinig dat dat in de praktijk waarschijnlijk niet genoeg zal zijn. Er zijn nu al games die met 4 GB niet fijn lopen op 4k, soms niet eens op 1080p.
Dat is de reden dat we deze discussie hebben, als je even terug naar boven leest.

[Reactie gewijzigd door Scalibq op 17 juni 2015 15:17]

my bad dus ... maar die fury is niet de laatste kaart die ze uitbrengen hé.... en het hbm geheugen komt later ook nog in grotere varianten (meer layers dan nu).
het is hun éérste kaart met hbm die ze presenteren, onmogelijk dat het hun laatste kaart is; ze willen wellicht pers halen door te laten zien hoe klein hun kaart is in vergelijking met andermans kaarten, en daardoor momenteel enkel maar tot 4G gegaan, maar ik ben er zeker van dat er al kaarten in de pijplijn zitten met meer geheugen maar dat men die nog niet wil laten zien om de focus van de nano nog nog niet te snel weg te halen (anders verkoopt dat ding niet genoeg vrees ik)
eens die er effe is zullen ze wel een fury xl brengen met 8 en mogelijk 12 gb, ze kunnen toch onmogelijk achteblijven op nvidia die kaarten met 12 gb uitbrengt hé
Ongelofelijk dat deze post +2 krijgt, waarin wordt verteld dat voor 1080p in bijna alle gevallen 1GB VRAM voldoende is. 1 GB VRAM is voor de nieuwste games in veel gevallen helemaal niet voldoende, ook niet voor 1080p.

Far Cry 4 gebruikt op 1080p ultra al meer dan 3GB VRAM: http://www.hardocp.com/ar...nce_review/7#.VYHo4kY2WB0 En die metingen zijn met SMAA. Zet je 4xMSAA aan dan kun je op 3,5 GB rekenen, en met 8xMSAA zal het hard richting 4GB VRAM verbruik gaan.

AC: Unity gebruikt op 1080 ultra zo'n 3,5 GB VRAM: http://www.gamersnexus.ne...creed-unity-gpu-benchmark

Voor GTA V ultra 1080p heb je ook een 4GB kaart nodig: http://www.geforce.com/wh...v-game-setting-vram-usage
Met een videokaart met 1GB VRAM kun je GTA V alleen op de allerlaagste settings spelen. Dan is er 1066 MB VRAM vereist. Iedere setting daarboven vereist veel extra VRAM: http://international.down...1920x1080-with-labels.png

The Witcher 3 is een spel dat vrij weinig VRAM verbruikt. Vrij weinig in de zin dat 2GB VRAM voldoende is voor de hogere settings. Met een 1GB kaart zul je op de hogere settings tegen problemen aanlopen. Op momenten dat het VRAM verbruik even wat hoger wordt zal het spel flink gaan stotteren.
En die consoles hebben die 8GB ook nodig voor OS, CPU's, andere hardware zoals Kinect etc enzovoort. Wat er over blijft voor de GPU voor een spel, is dus een hele lading minder dan 8GB.
Maar nog steeds meer dan 4 GB.
Initieel was er zo'n 5GB RAM beschikbaar voor spellen, maar dan wel voor GPU en CPU gebruik en dus niet alleen voor GPU gebruik.
a) consoles hebben niet meer als 8 gb en zeker 2 tot 3 gb is nodig voor de cpu / OS het is niet zo dat consoles 8gb kunnen gebruiken als Vram.

b) directx 12 gaat het mogelijk maken om gpu's die in CF of SLI draaien zo aan te sturen dat het geheugen gelijk is aan het geheugen van de 2 kaarten bij elkaar opgeteld.

c) welke game gebruikt er op een normale manier meer als 4gb.

Verder ben ik benieuw naar deze kaarten , als ze waar maken en gelijk of beter zijn dan een gxt 980ti dan weet ik het wel.
a) consoles hebben niet meer als 8 gb en zeker 2 tot 3 gb is nodig voor de cpu / OS het is niet zo dat consoles 8gb kunnen gebruiken als Vram.
Ten eerste heeft het OS zeker geen 2 tot 3 GB nodig.
Zelfs een volledige Windows 8 draait makkelijk in 1 GB op een normale PC. De gestripte versie op een Xbox One zal aanzienlijk minder nodig hebben.

Ten tweede zeg ik niet dat consoles 8 GB kunnen gebruiken als vram, slechts dat het makkelijk meer dan 4 GB kan zijn.
Hoe bedoel je precies met die twee op SLI?

Kan ik mijn huidige R9 280 3G op SLI gooien en dezelfde prestaties bekomen als een 6G, of ligt er dan nog steeds een beperking op de kloksnelheid?

OT:

Ik ben benieuwd wat er met de prijzen zal gebeuren van de 290x e.d. als deze kaartjes gelanceerd worden en hoe ze prestatiegewijs beter zijn.
Gezien AMD de kaarten levert van de PS4 en XBox is het goed mogelijk dat AMD hier rekening mee houd en een slechte port mogelijk beter draait op een AMD kaart dan een Nvidia kaart.
De meeste ports draaien op dit moment beter op Nvidia, vind dan je de opmerking niet helemaal kloppen. Volgens mij zijn de ports ook net weer even want anders op de pc en niet direct 1 op 1 vergelijkbaar met de console versie?
Op dit moment wel, omdat D3D11.x op de Xbox One een low-level API heeft die de Windows-versie niet heeft.
Low-level optimalisaties kun je dus niet porten naar de PC, en moeten in 'gewone' D3D11-code opnieuw geschreven worden.
Met DX12 trekt MS de APIs gelijk, dus dan zou de code in theorie 1:1 over te zetten moeten zijn (behalve dan dat je dus in de PC-versie nog verschillende featurelevels wil gaan ondersteunen, waar de console gewoon een vast featurelevel is).
Vergeet niet dat er strax games komen die dx12 gebruiken waar door efficiënter met Gpu gebruik maakt (men zegt zelfs dat je bijna geen high end kaart hoeft te kopen) waar door die gb's aan vram hoef te hebben....
En als goed is gaat je Cpu ook veel meer samen werken met je Gpu dus nog efficiënter.. Dit zal alleen nog probleem zijn voor mensen die 4k op ultra gamen enzo te minste slecht geporte games kom even niet op die naam.. Maar er was er 1 die 6gb nodig had voor ultra op full hd.. 4gb is gewoon genoeg.. Dus heb je zo kaart ? Dan kan je beter even wachten tot de volgende generatie generatie.. Die zouden dus hbm 2 krijgen (8gb vram max voor consumenten kaarten) ene er komt een kleinere processor er op gebakken.. Hellaas word voor mij nu echt over stappen ik hou het niet meer uit op mijn Asus gtx 560 1GB
Door de door AMD gemaakte keuzes, is 4 GB de praktische limiet.
Omdat de eerste generatie High Bandwidth Memory beperkt is tot 4 GB per GPU, ontstaat de opmerkelijke situatie dat het nieuwe topmodel minder geheugen krijgt dan de daaronder gepositioneerde 390X. Je komt aan die limiet doordat er per die 2 gigabit HBM aanwezig is, er maximaal vier die's kunnen worden gestapeld en AMD vier van dergelijke die-stacks kwijt kan naast de GPU.
Echt he ? Ik bedoel .... Serieus, die kan toch niet ...
Laatste keer dat ik zo zat te twitchen was bij de Samsung S6 Release ...
(Love the phone btw)

https://youtu.be/mMpwn9-OOHk?t=12m54s

*JEUK*
649 dollar :o dat is echt idioot laag. Als we het een op een doortrekken naar euro, wat vaak gebeurt, dan is dat alsnog bijna 100 euro goedkoper dan de 980ti terwijl ik zo maar gok dat deze kaart zelfs de titan x zou kunnen verslaan of in ieder geval matchen. AMD is back
De 980TI is inde US ook maar 650 dollar. Hier betalen we helaas 750 euro.
Denk dat deze kaart wel over de 980ti heen gaat.
Maar goed punt, even afwachten wat de prijzen echt gaan worden.
Een 3Dmark test laat een iets betere score zien aldus videocardz.net. Maar het is maar de vraa ghoe het in game prestaties vertaald. De laatste tijd gaan AMD kaarten in een aantal games heel erg slecht zoals Project cars en The Witcher.
In 3D mark tests verslaat de $650 kosten Fury x de 980 Ti met gemak. De $550 kostende Fury is zelfs gelijk aan de 980 Ti. De Fury X verslaat zelfs de ¤1100,- kosten de Titan x.

Bijna te goed om waar te zijn ;). Ben benieuwd hoe hoog het energieverbruik ligt en wat de in game prestaties zijn. Met nam door de HBM technology zullen drivers games en drivers mogelijk nog niet op elkaar afgestemd zijn.

[Reactie gewijzigd door Bliksem B op 17 juni 2015 10:58]

Je benoemd dollar prijzen. De 980TI is in amerika ook 650 dollar. Het is maar de vraag wat de prijzen daadwerkelijk in Europa gaan worden.

Daarnaast verslaat met gemak? Wel erg selectief data uit een link halen. Op verschillende instellingen en resoluties wisselen ze elkaar af.

Wat mij betreft is vooral de vraag hoe gaat dit keer tesselation performance zijn. Dit zorgde ervoor dat in games als The Witcher 3, Assassins Creed Unity, Project cars etc de AMD kaarten zo belabberd presteerden. DIt omdat Nvidia gameworks effecten juist zo gericht zijn op deze prestaties onder andere.

edit: check je source toruwens nogmaals. Deze resultaten zijn waarschijn berekend en niet daadwerkelijk gehaald nog http://www.guru3d.com/new...-980-ti-3dmark-bench.html

[Reactie gewijzigd door Rin op 17 juni 2015 10:44]

Volgens mij haal je de Fury X en de normale Fury door elkaar. De Fuxy X kost $650,- en verslaat mogelijk tot 4k de Titan De Normale Fury ($550) is gelijk aan de $650 kostende 980 Ti.
Daarnaast verslaat met gemak? Wel erg selectief data uit een link halen. Op verschillende instellingen en resoluties wisselen ze elkaar af.
Neeh dat is niet selectief, maar alleen tot 4k. Daarna vormt het geheugen van 4GB de bottleneck. Met meer geheugen (wat nu nog niet mogelijk is) kan de kaart ook >5k beelden goed bufferen.
check je source toruwens nogmaals. Deze resultaten zijn waarschijn berekend en niet daadwerkelijk gehaald nog
Dat zou mogelijk kloppen, desalniettemin is via echte benchmarks hetzelfde beeld te zien.

[Reactie gewijzigd door Bliksem B op 17 juni 2015 11:20]

Maar 2% sneller voor dezelfde prijs, verslaat niet de titan. Ik haal dus niks door elkaar. De normale Fury is nog onbekend van hoe deze presteerd.

Als dit in gaming benchmarks dus ook zo zal zijn. De prijs hetzelfde is etc. Dan wordt het gewoon puur op game optimalisaties kiezen.
Maar 2% sneller voor dezelfde prijs, verslaat niet de titan. Ik haal dus niks door elkaar. De normale Fury is nog onbekend van hoe deze presteerd.
Op ultra settings verslaat de Fury X wel degelijk de titan x. Zelfs de 980 TI verslaat de titan X op ultra ;).
Als dit in gaming benchmarks dus ook zo zal zijn. De prijs hetzelfde is etc. Dan wordt het gewoon puur op game optimalisaties kiezen.
Ik ben bang dat de in game prestaties de nvidia beter presteerd. AMD trekt dan altijd aan het kortste eind, doordat veel games Nvidia geoptimaliseerd zijn. Battlefield uiteraard niet :).
De laatste tijd gaan AMD kaarten in een aantal games heel erg slecht zoals Project cars en The Witcher.
beide games is de performance van AMD bewust gesaboteerd door nvidia gameworks, en is het AMD zo moeilijk mogelijk gemaakt om voor deze games te optimaliseren. zet je de nvidia only features uit, of beperk je de tesselation tot 8x bij de Witcher is er niks vreemds aan de performance van AMD in die game,

echter bij project cars waar nvidia een groot deel van de physic engine kan offloaden naar de GPU zorgt dat voor grote verschillen, zeker als je CPU wat minder is. zolang nvidia hun physics engine gesloten houdt KAN AMD hier helemaal niks aan veranderen. dit word nog erger gemaakt door het feit dat de nvidia physics engine rond uit slecht werkt op de CPU in vergelijking met andere physics engines.

Behalve een grote zak nvidia geld zou er dus geen reden moeten zijn voor developers om voor nvidia physics te kiezen... jammer genoeg zijn het zelden de developers die de technologie kiezen waar ze mee gaan werken. meestal is het marketing... die ook de zak geld in ontvangst nemen.
Niks meer dan geruchten die op niks gebasseerd zijn. AMD kaarten staan gewoon bekend om hun tesselation performance en het niet optimale hiervan. Dat Nvidia gameworks nou erg veel gebruikt hiervan maakt neemt niet weg dat de Nvidia kaarten gewoon op dat gebied beter presteren.

Developers hebben al meerdere malen aangegeven niet te discrimineren qua videokaarten en bieden ook allemaal beta versies aan om drivers erop voor te bereiden aan de GPU fabriekanten. Waarbij Nvidia standaard game ready drivers released duurt het soms maanden bij AMD voor een nieuwe driver. Wat logisch is, ze hebben gewoon niet meer de juiste cashflow om het bij te houden en dit helpt uiteindelijk dus meer aan het feit dat AMD kaarten niet in elke game even goed presteren.
Daarom, even de benchmarks afwachten.

De eerste tekenen zien er goed uit in ieder geval.
Over de prijs valt niks te zeggen zolang niets duidelijk is wat de prestaties zijn van deze kaarten.
De Fury X zal zeker goed presteren maar die 4 GB is toch een afknapper. Of 'AMD back' is valt daardoor nog te bezien maar ik hoop van wel.
Het gaat om 4GB HBM.
Ik denk dat je er dus niet zo zwaar aan moet tillen. Het gaat om geheel nieuwe technologie.
In de eerste benchmarks kon je zien dat het geen probleem was op 4k, daarboven wel.
De R9 380 voor 200 euro, als dat een rebrand van een 280x of 290 is is dat echt geen geld :).
Het is eerder een rebrand van de 285 dan, de 280x heeft een 368 bits bus dus die kan niet goed overweg met 2/4gb
De goedkoopste R9 285 (wat in principe de R9 380 zou zijn) staat 189¤.
Geen geld? 380 is een re-rebrand 7970 ghz edition.. Waarom die dan niet eentje 2e hands kopen?
Ik ben ook benieuwd naar hoe het geheugen over te klokken valt van de Fury. Iemand al iets gevonden?
Afgezien van of dit goed wil of niet, waarom zou je dit willen met 512GB/s bandwith? :9
Met DDR5 gaf dit ook al geen grote boosts voor de high-end kaarten.
Tja vast wel, maar ik denk niet dat het enig nut zal hebben.
Fury (x) versus 980TI
r9 390(x) versus 980
r9 380 versus 970
Een kaart van nog geen 200 euro tegen een kaart van zeker 100 euro meer ja dat is wel eerlijk :')

Lijkt mij toch duidelijk dat de 390 het tegen de 970 op neemt.
ik denk eerder

Fury (x) verus GTX 980 en 980TI
R9 390(x) vs GTX 970
R9 380 vs gtx 960 en 970.

Dit is afgegaan op de prijs.
de kaarten van AMD zijn niet meer zo recht tegen over elkaar als vroeger.
De r9 380 is een r9-285 met meer vram. dus zwakker als een gtx 970 maar veel sterk als gtx 960.
de r9-390(x) ( een r9 290) is sterker als een gtx 970 maar zwakker als gtx 980.

En Fury X zal wel tussen de gtx 980 en 980Ti zitten ( waarschijnlijk erg dicht tegen de gtx 980 ti aan)

[Reactie gewijzigd door holhuizen op 17 juni 2015 12:12]

Zo denk ik er ook over.
8,9 miljard transistors? Woow, echt ongeloofelijk. Alleen… mmmm, kaarten die standaard watergekoeld worden. Hopelijk zijn dat geen kleine kerncentrales als het op warmteafgifte aankomt
8,9 miljard transistors? Woow, echt ongeloofelijk. Alleen… mmmm, kaarten die standaard watergekoeld worden. Hopelijk zijn dat geen kleine kerncentrales als het op warmteafgifte aankomt
... the board only has a TDP of 275 W. (link)
8,9 miljard transistors? Woow, echt ongeloofelijk. Alleen… mmmm, kaarten die standaard watergekoeld worden.
Wat heb jij gemist:
AMD kondigde vier videokaarten aan die gebaseerd zijn op de Fiji-architectuur. De topmodellen zijn de luchtgekoelde Radeon R9 Fury en de Radeon R9 Fury X, die standaard met waterkoeling geleverd zal worden.
1 van de 4 dus!

En die kaarten zijn maar 20 cm lang. Dit komt door het HBM. Dat zit op hetzelfde silicon als de chip zelf. Bij elkaar levert dat veel meer warmte per cm2 op en dat is lastig met een luchtkoeler te koelen.

[Reactie gewijzigd door White Feather op 16 juni 2015 22:12]

Heeft niks met lucht/water te maken.
De kaart zou onnodig groot zijn als de koelblok op de kaart zelf komt. Bij een GDDR5 kaart neemt het geheugen veel ruimte in.
Door de koelblok te verplaatsen(dat is letterlijk wat "waterkoeling" doet) kan je de kaart klein houden wat ten goede komt voor kleine computers. De lengte van een GPU wil nog wel eens een probleem zijn in mini ITX

Persoonlijk ben ik meer geïnteresseerd in de mainstream kaarten en dan vooral de prijzen. Ik denk dat een goed geprijsde Tonga kaart erg goed gaat verkopen.
Vraag me af of je sommige R9 300 kaarten in crossfire kan laten werken met sommige R9 200 kaarten.
Crossfire kan in vele configuraties van kaarten draaien. Het hoeven niet perse de zelfde kaarten, gpu's of kaarten met de hoeveelheid geheugen zijn :). Dat kan al langer zo, dus zal met deze kaarten niet anders zijn. Zeker niet als het gerebrande en dus zeer vergelijkbare kaarten zijn :).
wacht op dx12 en je kan amd met nvidia laten draaien.(wat dit voor benchmarks doet lijkt me wel leuk om te zien)
Waarschijnlijk wel, kan ook met de 7950 en de 280x, maar dan draait je geloof ik wel op de snelheid en het werkgeheugen van de langzaamste kaart.
Het verhaal ging veel over VR en DX12.
Geen woord over Mantle, conservative rasterization of raster ordered views.

[Reactie gewijzigd door Scalibq op 16 juni 2015 20:26]

Nou, na al die poeha over Mantle zou je toch verwachten dat ze op z'n minst zouden zeggen of deze nieuwe kaarten ook Mantle ondersteunen of niet.
Blijkbaar is DX12 zo goed/Mantle zo slecht dat ze het niet meer over Mantle hoeven hebben.
Hij staat wel aangegeven op de Product website, dus het wordt iig ondersteund.
www.amd.com/en-us/products/graphics/desktop/r9
Helaas staat nergens DX featurelevel 12_1 danwel conservative rasterization of raster ordered views genoemd.
Lijkt er sterk op dat ze dat inderdaad gewoon niet ondersteunen, en dat deze GPU min of meer gelijk is aan GCN1.2+HBM.
Ik denk dat men in zulk soort presentaties niet erg ver op de details wil ingaan. Het blijven toch verkooppraatjes.

Over verkooppraatjes gesproken, ik hoorde wel zoiets als full DX12 support. Ik denk dat we over een aantal dagen/weken weten of dat een verkooppraatje is of niet. Laat die reviews maar komen! :9~
Ik denk dat men in zulk soort presentaties niet erg ver op de details wil ingaan. Het blijven toch verkooppraatjes.
nVidia deed dat met Maxwell v2 juist wel: http://www.geforce.com/wh...xt-generation-of-graphics

Dus des te opmerkelijker dat AMD daar helemaal geen antwoord op heeft.
ik hoorde wel zoiets als full DX12 support.
Ja, moet je bv deze tweet lezen van AMD: https://twitter.com/Thracks/status/606809723971751936
Blijkbaar is voor AMD 12_0 en 12_1 'hetzelfde', en is alles 'full DX12'.
Dan voel je de bui al hangen, toch?
ach, zolang nvidia de randvoorwaarden van DX12 nog niet eens volledig ondersteund maakt het weinig uit dat ze een grafische trucje in hardware kunnen doen ipv via software.

nvidia zal hun hardware implementatie natuurlijk pimpen als 'the best things since sliced bread' maar eigenlijk voldoen ze niet eens aan DX12. niet eens het DX11_0 profiel.

[Reactie gewijzigd door Countess op 17 juni 2015 09:44]

ach, zolang nvidia de randvoorwaarden van DX12 nog niet eens volledig ondersteund maakt het weinig uit dat ze een grafische trucje in hardware kunnen doen ipv via software.

nvidia zal hun hardware implementatie natuurlijk pimpen als 'the best things since sliced bread' maar eigenlijk voldoen ze niet eens aan DX12. niet eens het DX11_0 profiel.
Dit meen je toch niet serieus he?
Ten tweede, 'randvoorwaarden'?
Er zijn verschillende featurelevels, met verschillende 'randvoorwaarden'. nVidia voldoet met alle Fermi en nieuwere GPUs aan DX11_0 of hoger.
Maxwell v2 voldoet aan DX12_1.

Veel plezier met je 'software rendering' :)
Oh, en het is wel iets meer dan een 'grafisch trucje', itt tier3 resource binding.

[Reactie gewijzigd door Scalibq op 17 juni 2015 09:57]

We zullen zien hoe belangrijk 12_1 wordt voor deze GPU generatie. Net als Resource Binding T3, T2 schijnt al redelijk voldoende te zijn. Zo lang we maar geen games krijgen die op de ene GPU wel te spelen zijn en de andere GPU (van dezelfde generatie) niet, ben ik tevreden. :)
Er zal wel verschil zijn in lichteffecten tussen 12_1 en 12_0-mode in games.
Je blijft maar hameren dat AMD niet alles ondersteunt terwijl je heel sneaky het simpele gegeven negeert dat Nvidia ook niet de volledige DX12 spec ondersteunt. Dan kan je wel zeggen ''Ja, maar voor Nvidia is het makkelijker te fixen dan AMD'' maar je bekent dan wel heel makkelijk kleur. Wees dan eerlijk en meld dan er gewoon bij dat Nvidia het ook niet allemaal ondersteunt.

Op dit moment is geen enkele GPU volledig DX12 complaint. AMD niet. Nvidia niet, de consoles niet en VIA niet. Pas als beide kaarten hebben die alles ondersteunen, DAN pas is het zinnig om een vergelijking te maken. Anders niet.
Ten eerste heb ik al vaak genoeg uitgelegd dat nVidia nieuwe rasterization-technieken ondersteunt, wat van een ander kaliber is dan iets meer of iets minder limieten op resource binding.

Ten tweede, 'volledig DX12 compliant' is een onzinnige term.
Je bent compliant met een bepaald feature-level in DX12. nVidia is dus 'volledig compliant' met 12_1, en AMD 'volledig compliant' met 12_0.
En zoals gezegd, 12_1 is dus het level met de nieuwe rasterization-technieken. Dat maakt een praktisch verschil of je wel of niet een bepaald algoritme kunt implementeren.
Resource binding hoeft in de meeste gevallen geen verschil te maken.
je bekent dan wel heel makkelijk kleur.
Omdat nVidia al wel een 12_1 rasterizer heeft, en AMD niet, beken ik kleur? Wat een onzin.
Ik noem gewoon de feiten. Ik geef daar helemaal geen persoonlijke mening of voorkeur aan. Die heb ik ook niet.
Je moet begrijpen dat ik een 'fanboy' ben van graphics en techniek. Ik ben zelf graphics coder, en ik vind dus 12_1 interessant, omdat het nieuwe mogelijkheden biedt.
Het maakt mij niet uit of AMD of nVidia of wie dan ook die hardware levert. Dat dat toevallig nVidia is in dit geval, wil nog niet zeggen dat nVidia mijn favoriete merk is of iets.
Ik zit wel een paar niveautjes hoger dan dat hoor, qua gedachtengang. Merken boeien me absoluut niet. Videokaarten zijn toch wegwerp-artikelen, iedere paar jaar doe je een upgrade, en koop je gewoon wat op dat moment de beste opties biedt.

[Reactie gewijzigd door Scalibq op 17 juni 2015 22:29]

Ten eerste heb ik al vaak genoeg uitgelegd dat nVidia nieuwe rasterization-technieken ondersteunt, wat van een ander kaliber is dan iets meer of iets minder limieten op resource binding.
Je hebt het terloops eens vermeld. Vaker zie ik het gebeuren dat je roept dat AMD niet alles steunt en niet vermeldt dat Nvidia dat ook niet doet. Het simpele feit is gewoon dat beiden niet alles ondersteunen. Dan kan je allerlei excuses aanhalen om 1 partij af te schilderen als zijnde ''minder'' maar als de partij die je superieur acht het ook niet allemaal ondersteunt is je argument nogal hol van binnen.
Omdat nVidia al wel een 12_1 rasterizer heeft, en AMD niet, beken ik kleur? Wat een onzin.
Je voorgaande posts zeggen genoeg, maar dat geldt maar voor 1 GPU en zelfs die ondersteunt niet alles (Wat dus mijn punt is)

Daarnaast zijn comments als deze
Nou, na al die poeha over Mantle zou je toch verwachten dat ze op z'n minst zouden zeggen of deze nieuwe kaarten ook Mantle ondersteunen of niet. Blijkbaar is DX12 zo goed/Mantle zo slecht dat ze het niet meer over Mantle hoeven hebben.
onzinnig te noemen. Mantle is immers al wat minder boeiend (Lees, wordt niet meer aan gewerkt daar andere API de filosofie van Mantle nu toepassen op hun eigen API) waarom zou het nu nog relevant moeten wezen? Roepen dat Mantle slecht is zonder enige fundering gaat natuurlijk nergens over. Dus nee, roep alstublieft niet dat je geen persoonlijke mening of voorkeur hebt. Die heb je namelijk wel.
Het simpele feit is gewoon dat beiden niet alles ondersteunen.
Nee, dat is geen simpel feit. Dat is nou net het hele punt.
Je voorgaande posts zeggen genoeg, maar dat geldt maar voor 1 GPU en zelfs die ondersteunt niet alles (Wat dus mijn punt is)
Ik zeg dat ie een 12_1 rasterizer heeft, ik claim nergens dat ie 'alles' ondersteunt.
Daarnaast is het niet 1 GPU, maar de hele familie van Maxwell v2 GPUs (GM200, GM204, GM206), dat is dus GTX960 en hoger.
Je bent weer hard aan het zoeken/trollen.
Nee, dat is geen simpel feit. Dat is nou net het hele punt.
Ja, dat is het dus wel. Nvidia heeft meer featurelevel 12 technieken, maar mist weer meer van lagere levels. AMD heeft echter minder level 12 technieken, maar weer meer op lagere levels.

Conclusie, beiden hebben dus niet alles. Wat is hier nu zo moeilijk aan?
Ik zeg dat ie een 12_1 rasterizer heeft, ik claim nergens dat ie 'alles' ondersteunt.
Niet letterlijk, nee. Maar je implicatie is maar al te duidelijk in je posts.
Daarnaast is het niet 1 GPU, maar de hele familie van Maxwell v2 GPUs (GM200, GM204, GM206), dat is dus GTX960 en hoger.
Zal het volgende keer wel volledig uitschrijven sinds ik dat dus ook bedoelde.
Je bent weer hard aan het zoeken/trollen.
Laat die toon achterwege aub.
Ja, dat is het dus wel. Nvidia heeft meer featurelevel 12 technieken, maar mist weer meer van lagere levels. AMD heeft echter minder level 12 technieken, maar weer meer op lagere levels.
Het probleem hierbij is dat je compleet voorbij gaat aan het feit dat je niet alle features zomaar op 1 hoop kunt vegen, en simpelweg tellen hoeveel een kaart ondersteunt.
Dat zegt namelijk helemaal niks.
Waar het uiteindelijk om draait is welke features wat toevoegen aan de mogelijkheden van een kaart.
Niet letterlijk, nee. Maar je implicatie is maar al te duidelijk in je posts.
Dat zit echt in je hoofd.
Zoek maar op posts hier en op m'n blog, en je ziet me vaak genoeg zeggen dat nVidia geen tier 3 heeft, alleen tier 2.
Dus als ik hier 12_1 neerzet, bedoel ik dus ook 'geen tier 3'. Want tier 3 is immers geen onderdeel van 12_1, zoals ik al vaak genoeg heb gezegd, en ik zou nooit anders willen impliceren.
Zal het volgende keer wel volledig uitschrijven sinds ik dat dus ook bedoelde.
Je zei letterlijk 1 GPU. 3 GPUs is geen 1 GPU, hoe 'volledig' je dat ook wilt 'uitschrijven'.
Het probleem hierbij is dat je compleet voorbij gaat aan het feit dat je niet alle features zomaar op 1 hoop kunt vegen, en simpelweg tellen hoeveel een kaart ondersteunt.
Dat zegt namelijk helemaal niks.
Dat zegt juist alles, namelijk wat er wordt ondersteund aan features.
Waar het uiteindelijk om draait is welke features wat toevoegen aan de mogelijkheden van een kaart.
Dus je zegt eigenlijk dat het alleen maar relevant om die DX12 features te ondersteunen die echt iets toevoegen aan een kaart?
Dat zit echt in je hoofd.
Zit het ook in andere hoofden?

[quote[Zoek maar op posts hier[/quote]
Heb ik gedaan. Je bent biased.
en op m'n blog
Misterxmedia heeft ook een blog. Maakt het hebben van een blog het soms relevanter omdat je te pas en te onpas die kan linken? Het is bijna reclame maken. Je blog is letterlijk jouw verlengstuk.
Je zei letterlijk 1 GPU. 3 GPUs is geen 1 GPU, hoe 'volledig' je dat ook wilt 'uitschrijven'.
Zucht, ik bedoelde dus 1 GPU ''familie'', namelijk Maxwell v2.
Dat zegt juist alles, namelijk wat er wordt ondersteund aan features.
Ja, dat zegt ongeveer net zoveel als hoeveel cores een CPU heeft.
Zonder te weten wat voor cores dat zijn, en op wat voor kloksnelheid die lopen, weet je nog niet wat je aan die CPU hebt.
De ene quadcore CPU is de andere niet.
Dus je zegt eigenlijk dat het alleen maar relevant om die DX12 features te ondersteunen die echt iets toevoegen aan een kaart?
Dat lijkt me wel het uitgangspunt van Microsoft geweest te zijn bij het opstellen van die featurelevels, denk je ook niet?
Of dacht je dat ze gewoon lukraak wat features bij elkaar hadden bedacht, en dat nVidia 'toevallig' het hoogste nummertje kreeg?
Heb ik gedaan. Je bent biased.
Ten eerste ging het daar niet om.
Ten tweede kun jij dat absoluut niet beoordelen.
Misterxmedia heeft ook een blog. Maakt het hebben van een blog het soms relevanter omdat je te pas en te onpas die kan linken? Het is bijna reclame maken. Je blog is letterlijk jouw verlengstuk.
Nee, maar op mijn blog heb ik letterlijk geschreven dat Maxwell v2 geen tier 3 resource binding ondersteunt.
Dus dat bewijst dat ik dat zeker niet wil verdoezelen, of wat voor rare beschuldigingen je ook naar m'n hoofd slingert.
Ja, dat zegt ongeveer net zoveel als hoeveel cores een CPU heeft.
Zonder te weten wat voor cores dat zijn, en op wat voor kloksnelheid die lopen, weet je nog niet wat je aan die CPU hebt.
De ene quadcore CPU is de andere niet.
Maar dat staat dus in die feature lijst wat het ondersteunt. Dat er niet naar performance gekeken wordt, dat is logisch. Het gaan immers om wat er wordt ondersteund. En simpelweg, geen enkele kaart ondersteunt de volledige DX12 spec.
Dat lijkt me wel het uitgangspunt van Microsoft geweest te zijn bij het opstellen van die featurelevels, denk je ook niet?
Of dacht je dat ze gewoon lukraak wat features bij elkaar hadden bedacht, en dat nVidia 'toevallig' het hoogste nummertje kreeg?
Als dat zo zou zijn, waarom zijn er dan ook minder ''relevante'' feature levels te vinden?
Ten eerste ging het daar niet om.
Jawel, je zei dat ik op je posts moest zoeken. Dat heb ik gedaan, daarom zeg ik ook dat je biased bent. Iedereen met wat logisch redeneren en deduceren kan tot die conclusie komen.
Ten tweede kun jij dat absoluut niet beoordelen.
Hoeveel andere Tweakers die met je in discussie zijn gegaan wil je hebben? :P Wie moet het anders beoordelen? Tuurlijk kan je posts beoordelen, en die vertellen gewoon een bepaald verhaal.
Nee, maar op mijn blog heb ik letterlijk geschreven dat Maxwell v2 geen tier 3 resource binding ondersteunt.
Je gaat aan het punt voorbij. Je linkt namelijk te pas en te onpas je blog om een soort van ''bron'' te hebben waar je naar kan refereren. Het komt als spam over als je dit keer op keer doet. Vandaar mijn verwijzing naar Misterxmedia. Die heeft ook een blog, zodat hij daar keer op keer naar kan verwijzen in een discussie. Zon blog is uiteraard geen onafhankelijke derde partij, slechts een verlengstuk van iemands eigen gedachten. Nogal logisch dus dat jouw eigen blog jou gelijk geeft in dingen, je hebt er immers zelf op gezet :)
Maar dat staat dus in die feature lijst wat het ondersteunt. Dat er niet naar performance gekeken wordt, dat is logisch. Het gaan immers om wat er wordt ondersteund. En simpelweg, geen enkele kaart ondersteunt de volledige DX12 spec.
Nogmaals, "de volledige DX12-spec" is een onzinnig statement.
Je hebt features, dan heb je nog de implementatie van die features in hardware en drivers, en uiteindelijk heb je nog de software die die features op een bepaalde manier gebruikt.
De ene feature is in de praktijk nutteloos omdat het niets toevoegt aan wat software wil doen... de andere feature is nutteloos omdat ie op papier wel ondersteund wordt, maar de implementatie is zo zwak dat je beter een ander algoritme in je software kunt kiezen die niet afhankelijk is van die feature, etc.
Maargoed, om dit soort dingen te begrijpen heb je daadwerkelijk inzicht nodig in de materie, en die ontbreekt bij jou, zoals zo vaak geconstateerd.
Jij komt met je beperkte kennis en begrip niet verder dan "Deze kaart ondersteunt N features, en die kaart ondersteunt M features".
Wat die features in de praktijk zouden kunnen betekenen, en hoe ze daadwerkelijk geimplementeerd zijn etc... dat is een complete blinde vlek bij jou.
Daarom is het nutteloos om met jou een technische discussie proberen te houden, en dat is ook helemaal niet jouw doel.
Als dat zo zou zijn, waarom zijn er dan ook minder ''relevante'' feature levels te vinden?
Er is meer hardware op de markt dan alleen de beste/duurste/nieuwste. DX12 moet werken op een vrij brede selectie van hardware, zowel nieuw als oud.
Een deel van de feature levels zijn dan ook gebaseerd op de feature-levels van DX11, en zijn dus niet nieuw.
Jawel, je zei dat ik op je posts moest zoeken. Dat heb ik gedaan, daarom zeg ik ook dat je biased bent. Iedereen met wat logisch redeneren en deduceren kan tot die conclusie komen.
Wederom, context. Ik zei dat je moest zoeken naar posts waarin ik zeg dat nVidia geen resource binding tier 3 ondersteunt.
Dat heb ik namelijk vaak genoeg gezegd, dus het is totaal ongepast van jou dat je mij daar steeds op aanvalt.
Iedereen kan de conclusie trekken dat jij biased bent. Je bent gewoon bezig met een persoonlijk gevecht.
Waarom weet ik niet, want ik heb jou nooit iets gedaan.
Jij neemt het blijkbaar persoonlijk op dat ik gewoon objectief zeg dat AMD een technische achterstand heeft op een aantal gebieden. Iedereen die jouw posts leest, zal tot die conclusie komen.
Hoeveel andere Tweakers die met je in discussie zijn gegaan wil je hebben?
Wil je beweren dat er niemand is hier die AMD-biased is? En die dus in discussie gaat met alles en iedereen die dingen zeggen die niet pro-AMD genoeg zijn naar hun smaak?

Jij bent zelf duidelijk AMD-biased, en dus kun jij niet objectief bepalen of iemand anders neutraal is of niet. Jouw beeld van 'neutraal' is namelijk verstoord.
Verwijzen naar andere mensen die net zo AMD-biased zijn als jij, is geen overtuigend argument.

[Reactie gewijzigd door Scalibq op 18 juni 2015 12:11]

Nogmaals, "de volledige DX12-spec" is een onzinnig statement.
Duidelijk. Je blijft immers hameren dat Nvidia een betere spec heeft zonder te vermelden dat zij ook niet alles hebben, hoe irrelevant die features ook zijn.
Maargoed, om dit soort dingen te begrijpen heb je daadwerkelijk inzicht nodig in de materie, en die ontbreekt bij jou, zoals zo vaak geconstateerd.
Roepen dat je in het DX12 Early Access program zit zonder dit te kunnen onderbouwen behalve dan door te zeggen dat je erin zit is maar 1 van je vele onzinclaims die je doet. Net als roepen dat open-source maar een hype is. Juist, daarom staat een zeker OS vaak op servers en bestaat er zoiets als Android. Het is immers maar hype ;)

Ik verdiep mij zeer zeker in de materie, maar je bent de enige hier die roept dat ik, Rhylian en anderen het allemaal niet snappen. Je stelt zelfs dat ''tweakertjes'' (Wederom toont dit je neerbuigende houding aan, vindt je het gek dat niemand met je wilt discussiëren met een dergelijke houding) toch geen kennis hebben van wat jij allemaal doet. Waarom zit je dan op Tweakers als je je boven iedereen verheven voelt? Zodat je dan op ons ''tweakertjes'' kan afgeven dat ze allemaal de leugens van AMD geloven die blijkbaar iedereen een zak geld toeschuiven om bepaalde dingen te beweren?
Jij komt met je beperkte kennis en begrip niet verder dan "Deze kaart ondersteunt N features, en die kaart ondersteunt M features".
Een authoriteit zoals jij zou toch wat minder zelfingenomen mogen zijn. Dat je iets weet van legacy hardware maakt dat niet dat je dezelfde authoriteit kan uitspreken over moderne GPU's.
Wat die features in de praktijk zouden kunnen betekenen, en hoe ze daadwerkelijk geimplementeerd zijn etc... dat is een complete blinde vlek bij jou.
Mij gaat het vooral om graphics technieken die de consument visueel kan zien, niet zozeer de features die een kaart heeft. Uiteraard ben ik dan volledig incompetent te noemen, gezien je ongenuanceerde uitspraken :) Ik moet nog steeds een tegenhanger vinden voor de technieken die in The Tomorrow Children worden gebruikt, iets wat zelfs geavanceerder is dan Nvidia's eigen VXGI.
Wil je beweren dat er niemand is hier die AMD-biased is?
Er zal vast ook een Pro-AMD Scali ergens rondlopen. Ik weet slechts dat jij Nvidia-biased bent en dat telkens laat merken in je posts. Als je namelijk werkelijk objectief was, dan zou de balans tussen Pro-AMD posts en Pro-Nvidia posts min of meer gelijk zijn. Bij jou is het echter alleen maar Pro-Nvidia.
Jij bent zelf duidelijk AMD-biased,
Gaap.. heb je al merenmalen geroepen en heb ik al merenmalen weerlegd door positief te zijn over Maxwell, Tegra X1, en door het meermaals opnoemen dat AMD veel slechtere drivers heeft dan Nvidia. Uiteraard draagt dit nergens aan bij, simpelweg omdat ik het oneens ben met je verwoording ben ik een AMD-fanboy. En die tactiek is gek genoeg niet nieuw bij je.
Jouw beeld van 'neutraal' is namelijk verstoord.
En jij kan het wel wou je zeggen? :P Kom op man, ik ben notabene neutraler over het algemeen in posts dan jij ooit kan wezen. Zoals gezegd je eigen posthistorie spreekt voor zichzelf.
Duidelijk. Je blijft immers hameren dat Nvidia een betere spec heeft zonder te vermelden dat zij ook niet alles hebben, hoe irrelevant die features ook zijn.
Okee, we zijn klaar. Hoe vaak ik ook verwijs naar plekken waar ik WEL zeg dat nVidia niet alles ondersteunt, je negeert het en blijft terugkomen met dezelfde valse beschuldigingen.

Het is duidelijk dat jij maar 1 doel hebt hier: en dat is mij structureel aanvallen met leugens. Ik laat het verder over aan de admins.
Dat je iets weet van legacy hardware maakt dat niet dat je dezelfde authoriteit kan uitspreken over moderne GPU's.
Misschien wat meer blogs van me lezen? Voordat ik me in oldskool demos ging verdiepen, deed ik vooral DX11/OGL dingen, en in oudere blogs behandel ik ook wel dat soort dingen. Dit deed en doe ik ook professioneel, ik ben lead engine developer, en daarom dus toegelaten tot DX12 early access door MS. Legacy dingen zijn maar hobby, DX/OGL is mijn vak. Ik heb zelfs een simpele OGL engine open source vrijgegeven. Min of meer een gestripte versie van een engine die ik ontwikkeld heb, en ook professioneel gebruik.
Ik draai alleen al zo lang mee dat ik ook de software-rendering tijd nog heb meegemaakt, en dat is met oldskool democoding wel weer handig natuurlijk.

[Reactie gewijzigd door Scalibq op 19 juni 2015 09:49]

Misschien ben ik de enige die hier aan denkt maar Tessellation is daar iets aan gedaan? Is dat nu een beetje degelijk geïmplementeerd, ik ben benieuwd.
Ze bouwen voort op de GCN 1.2 architectuur (R9 285) die die verbetering al had. Je kan er dus van uit gaan dat ze daar iets aan hebben gedaan.

AMD kaarten kunnen prima tesselation gebruiken zolang de tesselation factor niet belachelijk hoog is. Je kan niemand wijsmaken dat een tesselation factor van 64 nuttig is voor een stel haren, met zoveel tesselation heb je waarschijnljik meer vertices dan pixels op je scherm en dat is hardstikke dom.
Zoals in reviews al naar voren komt is een tesselation factor van 8-16 genoeg voor haar, meer voegt niks toe en kost je alleen maar performance.
Het lijkt er meer op dat de developpers van bijvoorbeeld Witcher 3 niet goed hebben nagedacht over de implicaties van hun fantastische loreal haar :p. Want het raak zowel AMD als nVidia kaarten, alleen raakt het AMD kaarten meer (doe een gok wie daar blij van wordt).
AMD kaarten kunnen prima tesselation gebruiken zolang de tesselation factor niet belachelijk hoog is. Je kan niemand wijsmaken dat een tesselation factor van 64 nuttig is voor een stel haren, met zoveel tesselation heb je waarschijnljik meer vertices dan pixels op je scherm en dat is hardstikke dom.
Deze redenering klopt niet!
De grootte van de polygons is niet direct afhankelijk van je tessellation-factor, maar van een combinatie van je source-geometry en de tessellation factor.
Je kunt een haar met 1 polygon modelleren. Als je daar vervolgens 64x tessellation op toepast, wordt het opgedeeld in 64 stukjes. Dat is nog steeds niet heel veel.
Als 64x echt zo onzinnig was, dan was het nooit in de D3D/OGL spec gekomen. Want die spec vereist wel dat het in hardware geimplementeerd moet worden natuurlijk.
Dat houdt dus in dat alle IHVs, ook AMD, het erover eens waren dat 64x een nuttige limiet was, en niet 8x of 16x.
behalve dat 16x of 64x geen enkel verschil maakt op het haar grafische gezien en dat er ook geen enkele game is waarbij dit wel verschil maakt.

daarbij komt dat in die situaties waar het wel verschil zou KUNNEN maken, je zo weinig polygonen op je scherm hebt dat AMD er ook geen moeite mee heeft.

je KAN situaties maken waarbij AMD in de problemen komt en nvidia niet. echter moet je daar echt naar opzoek, en zou je met simpele aanpassingen het hele probleem uit de wereld kunnen helpen. als je dat doet dan kan je dus gewoon spreken van bewuste sabotage.

[Reactie gewijzigd door Countess op 17 juni 2015 10:31]

en zou je met simpele aanpassingen het hele probleem uit de wereld kunnen helpen.
AMD die een GPU introduceert die net zo goed of beter met tessellation omgaat als nVidia bedoel je?
Nee, Nvidia die bepaalde closed source technieken gewoon niet gebruikt of promoot om een bepaalde game te verkopen die daardoor de framerate doen inzakken bij AMD kaarten. Want uiteindelijk is dat het gewoon: Niet dat AMD zo slecht presteert, meer dat Nvidia op verschillende manieren AMD tegenwerkt. En dat is prima, maar het moet niet ten koste gaan van performance bij ''de tegenpartij''.

Daarom vind ik je reactie ook echt een steek onderwater richting Nvidia, AMD was immers de eerste die met een tessellator in een GPU to begin with.
Nee, Nvidia die bepaalde closed source technieken gewoon niet gebruikt
Tessellation is gewoon een standaard-techniek in DX11/OGL hoor.
Ik weet niet wat open of closed source daar aan zou veranderen.
Want uiteindelijk is dat het gewoon: Niet dat AMD zo slecht presteert, meer dat Nvidia op verschillende manieren AMD tegenwerkt.
Nee, het is WEL dat AMD slecht presteert in tessellation. Dat is een simpel feit.
Dat nVidia AMD tegenwerkt omdat ze tessellation in hun games willen gebruiken is jouw interpretatie.
Als AMD gewoon even goed presteert met tessellation als nVidia, dan zie je ook geen 'tegenwerking' meer. Zo simpel ligt het.
Daarom vind ik je reactie ook echt een steek onderwater richting Nvidia, AMD was immers de eerste die met een tessellator in een GPU to begin with.
nVidia was de eerste met een goed schaalbare parallele implementatie.
Wie de eerste was, boeit toch niet? Het gaat om het hier en nu.

[Reactie gewijzigd door Scalibq op 17 juni 2015 22:23]

Tessellation is gewoon een standaard-techniek in DX11/OGL hoor. Ik weet niet wat open of closed source daar aan zou veranderen.
Als het standaardtech zou beide partijen gelijk moeten presteren, toch? Ik had het overigens over Hairworks etc.. Allemaal promotie tech die inkakt op AMD hardware. AMD heeft slechts TressFX maar maakt er een stuk minder promotie mee
Nee, het is WEL dat AMD slecht presteert in tessellation. Dat is een simpel feit.
De ontwikkelaar van de allereerste tessellator presteert slecht in deze games. Ra, hoe komt dat? Deels zal dat komen door tegenvallende drivers, maar je kan niet, consequent, in iedere post, Nvidia aanhalen als zijnde ''het betere'' product.
Dat nVidia AMD tegenwerkt omdat ze tessellation in hun games willen gebruiken is jouw interpretatie.
Andere vraag dan: Denk je dat Nvidia AMD in het algemeen tegenwerkt als het om games gaat?
nVidia was de eerste met een goed schaalbare parallele implementatie.
Wie de eerste was, boeit toch niet? Het gaat om het hier en nu.
Je gaat anders zelf er wel prat op als Nvidia ergens als eerste mee is [/offtopic comment] Laten we wel wezen, Nvidia koop je voor performance, AMD voor innovatie.
Als het standaardtech zou beide partijen gelijk moeten presteren, toch?
Waarom?
x86 is toch ook standaard? En Intel en AMD presteren toch ook niet gelijk?
Snap je dat gewoon niet ofzo?
Een standaard bepaalt alleen wat je hardware moet kunnen, niet hoe je die hardware ontwerpt.
De ontwikkelaar van de allereerste tessellator presteert slecht in deze games. Ra, hoe komt dat?
Omdat het geen garantie is dat als je de eerste was, dat je dan tot in de oneindigheid de beste implementatie hebt?
Het is heel simpel: De wet van de remmende voorsprong. AMD was wel eerder met tessellators, maar nVidia heeft uiteindelijk een beter ontwerp ontwikkeld.
Laten we wel wezen, Nvidia koop je voor performance, AMD voor innovatie.
Sorry, maar dit is echt een onzin-statement.
Het is echt niet zo dat de verhoudingen zoals ze nu zijn, compleet vast liggen.
Beide bedrijven innoveren. De ene keer doet de een wat meer, de andere keer de ander.
Ook qua performance is er nergens een garantie dat nVidia altijd de snelste zal blijven. AMD heeft in het verleden ook wel kaarten gehad die de absolute top waren qua performance.
En je zult het niet geloven, maar soms komt het zelfs voor dat er 1 merk is dat EN de meest vernieuwende kaart op de markt brengt, EN ook nog eens de snelste is!
Waarom?
x86 is toch ook standaard? En Intel en AMD presteren toch ook niet gelijk?
Snap je dat gewoon niet ofzo?
Een standaard bepaalt alleen wat je hardware moet kunnen, niet hoe je die hardware ontwerpt.
Snap je je eigen wel eens? Ik maakte een veronderstelling.
Het is heel simpel: De wet van de remmende voorsprong. AMD was wel eerder met tessellators, maar nVidia heeft uiteindelijk een beter ontwerp ontwikkeld.
Kan je 1 ding opnoemen over Nvidia GPU's welke je tegenvalt tov AMD GPU's?
Sorry, maar dit is echt een onzin-statement.
Weerleg dat maar. Je kan wel roepen dat AMD met zijn nieuwe kaarten te weinig geheugen heeft voor 4K gaming, maar dat krijg je met innovatie. Je loopt tegen limieten aan. En Nvidia heeft vooralsnog geen kaart met HBM. Die moest uitgesteld worden..
Het is echt niet zo dat de verhoudingen zoals ze nu zijn, compleet vast liggen.
Zie je mij iets anders beweren? Ik zeg alleen dat op dit moment, AMD innoveert in de GPU space, door HBM.
Ook qua performance is er nergens een garantie dat nVidia altijd de snelste zal blijven. AMD heeft in het verleden ook wel kaarten gehad die de absolute top waren qua performance.
Dan praten we oftwel over 10 jaar terug, of rond de Radeon 5000 reeks, toch?
En je zult het niet geloven, maar soms komt het zelfs voor dat er 1 merk is dat EN de meest vernieuwende kaart op de markt brengt, EN ook nog eens de snelste is!
Als de Fury reeks dit nu doet, zal je dan kunnen bevestigen dat ondanks alle fouten die AMD maakt (volgens je eigen posts dan) zij dan wel de snelste/meest vernieuwende kaart is?
Snap je je eigen wel eens? Ik maakte een veronderstelling.
Een foute veronderstelling.
Kan je 1 ding opnoemen over Nvidia GPU's welke je tegenvalt tov AMD GPU's?
Grootste nadeel vind ik misschien wel dat ze geen Eyefinity-achtige oplossing hebben. Je kunt op een AMD-kaart meer monitors aansluiten, wat voor mijn werkzaamheden een erg interessante optie is.
Weerleg dat maar. Je kan wel roepen dat AMD met zijn nieuwe kaarten te weinig geheugen heeft voor 4K gaming, maar dat krijg je met innovatie. Je loopt tegen limieten aan. En Nvidia heeft vooralsnog geen kaart met HBM. Die moest uitgesteld worden..
Maar daar komen weer excuses.
Er hoeven helemaal geen excuses te zijn.
AMD wil de eerste zijn met HBM, neemt een risico, weet dat ze maar 4 GB kunnen leveren.
Vind ik op zich prima.
Wat ik *niet* prima vind, is dat mensen die 4 GB gaan verdedigen met onzin-statements als "Ja, maar je hebt toch nooit meer nodig" of "Ja, maar deze kaart heeft compressie".
Zie je mij iets anders beweren? Ik zeg alleen dat op dit moment, AMD innoveert in de GPU space, door HBM.
En nVidia door conservative rasterization, en Intel door raster ordered views.
Of tellen die niet?
Dan praten we oftwel over 10 jaar terug, of rond de Radeon 5000 reeks, toch?
Hangt ervanaf aan wie je het vraagt. Vind ik niet zo relevant. Ik merk slechts op dat het geen vaste regel is.
Als de Fury reeks dit nu doet, zal je dan kunnen bevestigen dat ondanks alle fouten die AMD maakt (volgens je eigen posts dan) zij dan wel de snelste/meest vernieuwende kaart is?
Uiteraard.
Maar dat is een grote als, dus dat gaat niet gebeuren.
Een foute veronderstelling.
Dat mag je vinden.
Grootste nadeel vind ik misschien wel dat ze geen Eyefinity-achtige oplossing hebben. Je kunt op een AMD-kaart meer monitors aansluiten, wat voor mijn werkzaamheden een erg interessante optie is.
Ik vind het treffend dat AMD's embedded GPU's dit ook hebben, maar dat ze niet worden gebruikt in arcade games - iets waar ze zelf mee adverteren. Lijkt mij juist een geschikte plek om dat te doen.
Maar daar komen weer excuses.
Er hoeven helemaal geen excuses te zijn.
AMD wil de eerste zijn met HBM, neemt een risico, weet dat ze maar 4 GB kunnen leveren.
Vind ik op zich prima.
Wat ik *niet* prima vind, is dat mensen die 4 GB gaan verdedigen met onzin-statements als "Ja, maar je hebt toch nooit meer nodig" of "Ja, maar deze kaart heeft compressie".
Op dit moment hoeft dat ook niet. Zelfs highend titels kunnen makkelijk op 2 GB kaarten runnen.
En nVidia door conservative rasterization, en Intel door raster ordered views.
Of tellen die niet?
Zeg ik dat dan? Ook dat zijn innovaties, doch minder ingrijpend dan zoiets als HBM imo.
Uiteraard.
Maar dat is een grote als, dus dat gaat niet gebeuren.
Hoezo gaat dat niet gebeuren? Omdat jij dat zegt? Zon opmerking zet gewoon de toon. Kan je op basis van je eigen posthistorie, nog steeds zeggen dat je objectief bent? Want het is wel heel eenzijdig te noemen.
Dat mag je vinden.
Dat vind ik niet, dat is een feit.
Een standaard garandeert niet dat iedereen dezelfde performance heeft, er is genoeg empirisch bewijs daarvoor te vinden.
Hoezo gaat dat niet gebeuren? Omdat jij dat zegt?
Omdat we in ieder geval al zeker weten dat de kaarten maar 4 GB gaan krijgen, waar concurrerende kaarten meer hebben.
Daarnaast is het wat mij betreft al vrij zeker dat AMD nog steeds hun achterstand op gebied van tessellation niet heeft ingehaald, en dat DX12_1 ontbreekt.
Verder tonen benchmarks aan dat de Fury X nou ook weer niet zo wild snel is dat nVidia geen optie meer is voor performance.

Dus mijn conclusie is: het gaat niet gebeuren dat de Fury X echt *de* kaart gaat worden, die alles biedt, zowel features als performance.
Ik ga sowieso voor de DX12_1. HBM is een leuke innovatie, maar vanuit software-ontwikkeling niet relevant. Geheugen is geheugen. Dus het hebben van HBM op zich is voor mij geen criterium. Als de kaart er beter door gaat presteren is het een ander verhaal. Maar dan nog, ik hoef niet per se de snelste kaart. Ik wil 'snel genoeg', met zo veel mogelijk features.
Dus, als Fury inderdaad geen DX12_1 heeft, valt ie sowieso af voor mij.
Als ie wel DX12_1 heeft, dan zullen prijs en performance bepalen welke ik neem.
Omdat we in ieder geval al zeker weten dat de kaarten maar 4 GB gaan krijgen, waar concurrerende kaarten meer hebben.
Heel leuk dat je selectief quote, mijn vraag was namelijk tweeledig, en je negeerde het tweede gedeelte, dus nogmaals - Kan je op basis van je eigen posthistorie, nog steeds zeggen dat je objectief bent? Want het is wel heel eenzijdig te noemen.

Er zijn uiteraard andere kaarten die meer geheugen hebben, AMD heeft zelf zon kaart (En Nvidia heeft er ook meerdere van) maar dat was het punt niet.
Daarnaast is het wat mij betreft al vrij zeker dat AMD nog steeds hun achterstand op gebied van tessellation niet heeft ingehaald, en dat DX12_1 ontbreekt.
Je valt in herhaling. Maar aangezien je nu een assumptie doet met ''Het is wat mij betreft al vrij zeker dat'', graag verduidelijking ;) En je blog telt dus niet mee.
Verder tonen benchmarks aan dat de Fury X nou ook weer niet zo wild snel is dat nVidia geen optie meer is voor performance.
Welke benchmarks, precies? Ik denk zelf ook niet dat AMD met Fury X dermate veel sneller is dat de concurrentie irrelevant is. Die tijden hebben we gehad. Prijs/prestatieverhouding zal uitermate belangrijk voor ze wezen, op pure performance moeten ze het immers tegen Nvidia afleggen. Wel denk ik dat zon Radeon Nano een goed concept is. Nu heb je alleen nog third party kaartenmakers die speciale versies van bepaalde GPU's maken, met de Nano is het gewoon een algeheel model opzich. Leuk voor Steam Machines e.d.
Dus mijn conclusie is: het gaat niet gebeuren dat de Fury X echt *de* kaart gaat worden, die alles biedt, zowel features als performance.
Ook Nvidia niet, maar dat terzijde.
Ik ga sowieso voor de DX12_1. HBM is een leuke innovatie, maar vanuit software-ontwikkeling niet relevant.
Je bent dus een andere doelgroep. Jij zoekt kaarten voor zoveel mogelijk compatibiliteit, wat je dus zelf verder in je bericht ook stelt. Niet iedereen is die doelgroep.
Dus, als Fury inderdaad geen DX12_1 heeft, valt ie sowieso af voor mij.
Dat zijn ook veel validere redenen dan in elk AMD nieuwtje gaan lopen wijzen naar het falen van het bedrijf betreffende zon beetje alles. Soms is het ook gewoon goed om te zeggen ''Deze valt af omdat hij niet relevant voor mijn software ontwikkeling is. Ik wil de meeste compatibiliteit'' en dat je het dan daar bij laat.
Kan je op basis van je eigen posthistorie, nog steeds zeggen dat je objectief bent? Want het is wel heel eenzijdig te noemen.
Natuurlijk ben ik objectief. Leek me niet nodig om dat expliciet te vermelden.
Iedereen zal per definitie van zichzelf vinden dat hij objectief is.
''Het is wat mij betreft al vrij zeker dat'', graag verduidelijking
Nee, ik ga daar niet verder op in, en dat heeft ook geen nut.
*Ik* heb die conclusie getrokken op basis van informatie die ik tot dusverre gezien heb.
Zoals ik zeg: "wat mij betreft". Jij hebt misschien niet dezelfde informatie gezien, of jouw interpretatie ervan is anders.
Verder geen nut om daarover door te gaan.
Welke benchmarks, precies?
Je mag ook best zelf op zoek hoor.
Er zijn oa hier in de reacties al wat links naar benchmarks geplaatst.
Niet iedereen is die doelgroep.
Je vraagt toch naar mijn mening? Niet die van andere doelgroepen?
Dat zijn ook veel validere redenen dan in elk AMD nieuwtje gaan lopen wijzen naar het falen van het bedrijf betreffende zon beetje alles. Soms is het ook gewoon goed om te zeggen ''Deze valt af omdat hij niet relevant voor mijn software ontwikkeling is. Ik wil de meeste compatibiliteit'' en dat je het dan daar bij laat.
Erm, het probleem is juist dat ik nooit meer heb gezegd dan: "AMD heeft een technische achterstand op gebied X".
Maar dat werkt kennelijk als een rode lap op mensen als jij. Kijk maar eens naar waar jij op reageert. Dat is niet veel meer dan een dergelijk statement. Jij trekt het vervolgens compleet uit z'n verband, en gaat er allerlei andere dingen bij halen, en maakt het een nVidia vs AMD-spelletje (dingen als GTX970, Tegra X1, en al dan niet open source zijn van bepaalde middleware, en weet-ik-wat).
Nogmaals, zoek de fout eerst bij jezelf.

[Reactie gewijzigd door Scalibq op 18 juni 2015 12:18]

Slechts nu laat je pas duidelijk blijken tot welke doelgroep je behoort. Dat zou imo wel makkelijker uitgelegd mogen worden.
Had wel duidelijk mogen zijn adhv de posts die ik hier maak, en de blogs die ik schrijf.
Ik heb vaak genoeg impliciet danwel expliciet gezegd dat ik een dev ben.
Mag ik ook consequent het tegendeel beweren?
Als je komt met een goed onderbouwd verhaal met feiten, geldige logica en argumenten, dan wel.
Anders kun je beter niets zeggen.
Van hoeveel sites was je ook alweer geband wegens dergelijk AMD complot-denken en aluhoedje-redeneringen? ;) Maar het ligt niet aan jou hoor, heus niet.
Heb je enig bewijs voor deze aantijgingen?
Had wel duidelijk mogen zijn adhv de posts die ik hier maak, en de blogs die ik schrijf.
Dus je begrijpt ook dat andere doelgroepen ook andere ideeën hebben hierover?
Als je komt met een goed onderbouwd verhaal met feiten, geldige logica en argumenten, dan wel.
Jouw ''onderbouwing'' is verwijzen naar je eigen blog. En dat is geen onderbouwing te noemen. Daarnaast zie je elk ander argument behalve de jouw als zijnde irrelevant, of, als diegene erbij blijft, je die dan beticht van AMD-fanboyisme.
Anders kun je beter niets zeggen.
Pot, ontmoet ketel..
Heb je enig bewijs voor deze aantijgingen?
Heb je even? :) Dan zal ik dat later vandaag eens even uitpluizen voor je.
Dus je begrijpt ook dat andere doelgroepen ook andere ideeën hebben hierover?
Uiteraard, wederom iets dat niet expliciet gemeld hoeft te worden.
Jouw ''onderbouwing'' is verwijzen naar je eigen blog. En dat is geen onderbouwing te noemen.
Drogreden.
Op mijn blog staan namelijk diep-technisch uitgewerkte artikelen met argumenten, links etc. Onderbouwing dus.
Je hebt gelijk wat betreft dat de source waarop je tesseleerd belangrijk is, maar met haar wat je wil simuleren kan je niet met 1 polygon werken (tenzij je spikes wilt hebben :P).
Zover ik weet wordt met zowel HairWorks en TressFX de simulatie eerste gedaan op een master hair strand. Een haar met 1 polygon kan je nauwelijks simuleren want je kan het niet buigen, je zal daar toch een minimaal van 4 polygons nodig hebben omdat enigszins fatsoenlijk te doen.
Indien je op een haar van 4 polygonen 64 tesselation toepast dan zit je echt onnodig resources te gebruiken.

Disclaimer nu weet ik niet hoe de child haren worden gemodelleerd maar ik denk dat dit gewoon instances zijn van het master haar dus zal de tesselation even hoog zijn.

Dat de IHV's zeggen dat 64x een nuttige limiet is dat is heel goed mogelijk, er is een reden dat ze voor 64 hebben gekozen. Dit kan nuttig zijn op hele hoge resoluties omdat je dan tenminste nog de individuele vertices kan onderscheiden.
AMD heeft een statement losgelaten dat je de tesselation factor o.a. moet laten afhangen van de resolutie omdat het geen zin heeft om meer vertices te hebben dan pixels op een bepaalt oppervlakte.

Edit1: netter
Edit2: http://sarahtariq.com/Rea...ndRenderingOnGPU_2008.pdf Niet echt een paper maar een simpele overview, hierin wordt eerst de simulatie gedaan en daarna pas de tesselation toegepast. Wat ik hieruit begrijp is dat je dus altijd een source nodig hebt van een behoorlijk aantal vertices die je dan kan simuleren om er vervolgens tesselation op toe te passen zodat het mooi uitziet.

[Reactie gewijzigd door Sp3ci3s8472 op 18 juni 2015 13:44]

Je kan inderdaad haar met 1 polygon modeleren, als je spikes wilt hebben |:( .
Uhh nee, daar is tessellation dus voor...
De input is 1 polygon, de output is een haar die opgedeeld is in genoeg polygons om goede animatie mogelijk te maken.
Na tessellation gaan de polygons namelijk nog langs de domain shader en de geometry shader, dus je hebt nog genoeg mogelijkheden om de polygons te animeren.
Je kan mij niet wijsmaken dat je een haar van 1 polygon goed kan simuleren want dat is onmogelijk.
Wel dus.

edit:
Wat ik hieruit begrijp is dat je dus altijd een source nodig hebt van een behoorlijk aantal vertices die je dan kan simuleren om er vervolgens tesselation op toe te passen zodat het mooi uitziet.
Niet goed begrepen dus, er staat in dat ze de geometry shader een lijn geven met 2 vertices. Dat is dus een enkel lijnstuk, vergelijkbaar met de '1 polygon'-aanpak die ik noemde.

[Reactie gewijzigd door Scalibq op 18 juni 2015 22:31]

Die AMD nano is een leuke vormfactor voor kleine 'bommetjes' gebaseerd op een micro-atx moederbord en kleine kast.
Ik neem aan dat je op basis van Mini-ITX bedoeld?
Op een Micro-ATX bordje kun je best aardig nog wat kwijt. Op een Mini-ITX wordt het al snel wat lastiger, vooral als je het in combinatie wilt doen met een klein kastje.
Ben benieuwt of ze ook eindelijk zuiniger woorden die AMD Radeon kaarten, want de rede dat ik voor een Geforce GTX 960 (4GB) ging, is omdat de Radeon R9 280X +/- 120w meer gebruikt, en de Radeon R9 285 gebruikt ook nog steeds 60w meer.

En de Radeon R9 285 en 280X zijn niet veel sneller (en soms net zo snel) als de Geforce GTX 960 (4GB), en ze zijn bijna net zo duur.

De goedkoopste Geforce GTX 960 is ¤195,-

De goedkoopste Geforce GTX 960 4GB is ¤238,50

De goedkoopste Radeon R9 285 is ¤188,-

De goedkoopste Radeon R9 280X ¤220,50

En ben voor een 4GB versie gegaan omdat er WEL spellen zijn die 5 a 10 FPS sneller gaan met een 4GB vs 2GB Geforce GTX 960.


Zo als je kan zien in Grand Theft Auto V:

https://www.youtube.com/watch?v=DciW-EPXY8oo

En het zelfde in Assassin's Creed: Unity en Far Cry 4 (in min FPS), en Battlefield: Hardline, en zo zullen er natuurlijk meet wezen en komen.

https://www.youtube.com/watch?v=iX_mW36BDKs

[Reactie gewijzigd door AmigaWolf op 17 juni 2015 02:02]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True