Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 73 reacties

AMD werkt naar verluidt aan een Radeon 370X met Pitcairn-gpu waarvan het volledige aantal van 1280 cores is geactiveerd. De kaart zou vrijwel identiek zijn aan de R9 270X en de concurrentie moeten aangaan met de GTX 950.

De huidige Radeon 370 valt onder de R7-aanduiding. De screenshot die Expreview publiceerde, maar die inmiddels offline lijkt, toont echter dat de 370X onder de R9-vlag gaat vallen, constateert VideoCardz. De nieuwe kaart zou opgetrokken worden rond de Pitcairn-gpu met 1280 streamprocessors, een geheugenbus van 256bit breed, 2GB gddr5 en identieke kloksnelheden als de R9 270X, luidt de claim. Pitcairn stamt uit 2012 en kreeg bij volgende videokaartgeneraties naamsveranderingen naar Curaçao en Trinidad.

Volgens VideoCardz moet de Radeon 370X waarschijnlijk de concurrentie met de GeForce GTX 950 van Nvidia aangaan. Die kaart wordt over enkele weken verwacht. De GTX 950 zou een iets goedkopere variant worden van de al bestaande GTX 960 met een lagere kloksnelheid en minder cuda-cores. De kaarten moeten de onderkant van de midrange-markt, met prijzen rond 150 euro, bedienen.

Radeon 370 CPU_Z

Moderatie-faq Wijzig weergave

Reacties (73)

Pitcairn stamt uit 2012 en kreeg bij volgende videokaartgeneraties naamsveranderingen naar Curaçao en Trinidad
Vroeger was het redelijk normaal om één jaar te rebranden en het jaar erna met een nieuwe lineup te komen. Deze kaart gaat blijkbaar de 4 jaar halen (anders zouden ze hem niet zo laat in 2015 uitbrengen lijkt me). Dat is natuurlijk ook een manier om met het verlaagde R&D budget om te gaan (was ooit 1800 miljoen per jaar, nu rond de 1000). Zie http://ir.amd.com/phoenix...4093&p=irol-reportsannual. Maar of we daar nu allemaal beter van worden? Met DirectX12 voor de deur lijkt een upgrade mij geen overbodige luxe. Met name voor AMD op marketing gebied. Het geeft het andere "kamp" nogal wat munitie...

Ergens wel vreemd dat er niet meteen van de mogelijkheid gebruik wordt gemaakt om te upgraden naar GCN 1.2. Die techniek is immers al voor AMD beschikbaar. Blijkbaar is dat te duur, wat op zichzelf dan weer een nieuw diepte punt is. Gelukkig blijft Nvidia wel doorontwikkelen in het lagere segment (GTX 550 Ti in 2010 Fermi, GTX 650 in 2012 Kepler, GTX 750 in 2014 Maxwell1, GTX 950 2015 Maxwell2). Dat geeft eigenlijk al aan dat AMD een "rebrand omlaag" strategie niet kan blijven volhouden want op dat tempo worden de tegenhangers van AMD of te traag of te duur om te produceren.

[Reactie gewijzigd door sdk1985 op 28 juli 2015 13:48]

Ergens wel vreemd dat er niet meteen van de mogelijkheid gebruik wordt gemaakt om te upgraden naar GCN 1.2. Die techniek is immers al voor AMD beschikbaar.
Saillant detail is dat GCN1.2 ook al niet nieuw meer is, want voor het eerst gebruikt in de R9 285 in 2014. De 300/Fury-reeks is dus al min of meer een rebrand.
En daardoor missen ze ook op de 'nieuwste' kaarten dingen als HDMI 2.0 en featurelevel 12_1 (welke nVidia dus al sinds september 2014 levert, even lang als de R9 285 dus).
Om naast GCN1.2 zo lang vast te blijven houden aan 1.1 en 1.0 vind ik inderdaad een dieptepunt. Op z'n minst hadden we mogen verwachten dat AMD eindelijk de volledige range op GCN1.2 zet.
De specs lijken hier hetzelfde, wat zou nou het verschil zijn tussen de 270x en de 370x? Anders kun je toch goedkoper uit zijn en een 270x kopen? Of ben ik nou wazig?
heel goed opgemerkt van je.

volgens sommige bronnen ligt de core clock van de oorspronkelijke R9 270X wel iets lager (op 1050MHz tov 1180MHz op deze GPU-Z)

http://www.tomshardware.c...view-benchmarks,3669.html
Zelfs de release date is hetzelfde
wat ik wel net ontdek is de fabrikant van het geheugen die verschillend is (Samsung tov Hynix)
AMD zal wel een beste voorraad hebben liggen, en er vanaf wil zijn.

Of je nu een 270x of 370x koopt; beide kaarten (vooral in crossfire, 290x of zelfs sneller) zijn prima instappers en oc'en ook lekker.

Een slechte aankoop is het niet (vergeleken met de 950gtx), je schiet jezelf wel in de voet door een 370x te kopen terwijl de 270x goedkoper is.
Een slechte aankoop is het niet (vergeleken met de 950gtx), je schiet jezelf wel in de voet door een 370x te kopen terwijl de 270x goedkoper is.
Hoe weet je dat nu al? Het is slechts een gerucht.
Van zowel de 370 als de 950 weten we nog niet wat ze gaan kosten en hoe ze gaan presteren.
wordt steeds interesanter om mn oude hd7870 te vervangen.
volgens mij is deze kwa prestaties gelijk aan de 7870. alleen met de laatse directx etc
Dit is gewoon een gebrande 7870, en dus ook geen betere DX ondersteuning.
Beetje dom van AMD om niet eens nieuwe kaarten te maken, die beter zijn dan hun "gebrande" kaarten. Nu weten we op voor hand dat het "goede" kaarten zijn die tocg verliezen tegen GTX 950. Tenzij...
Het is een keuze. Nu investeren in een nieuw design of die moeite steken in de volgende generatie op een kleinere node. Er valt voor beide wat te zeggen.
Klopt. Ik heb dan liever een manier dat de concurrentie weer aangaat met Intel & nVidia, zodat AMD weer wat markt aandelen wint en niet, heel heel traag, op een crash afstevent. Ik gebruik AMD hardware, maar wil altijd het snelste van het snelste. Had mss beter een Intel CPU en nVidia GPU genomen in het begin, al kost Intel altijd wat meer. Als AMD nu de prijs lichtjes verhoogt, met betere specs en performance, dan kan AMD het redden. En als ze 33 miljoen betalen voor de 20nm te skippen, zullen ze waarschijnlijk bezig zijn met 14nm. :)

(Bron voor dit laatste komt van LinusTechTips, want er zullen weer mensen zijn die bronnen willen)

[01:06:04 - AMD Officially cancels 20nm chips and takes a $33 million charge]
https://www.youtube.com/watch?v=-DtvhX8SfUk
De originele bron is de Q2 earnings call van AMD (http://ir.amd.com/phoenix...ol-newsArticle&ID=2068551). Daarnaast hebben ze ook al de eerste tape-outs gehad van de eerste FinFet designs (Bron PDF, pagina 9, eerste reactie van Lisa Su)

LinusTechTips wordt gesponsord door nVidia btw, dus wees wel oplettend al maakt het om dit nieuws niets uit. :)
Beetje dom van AMD om niet eens nieuwe kaarten te maken, die beter zijn dan hun "gebrande" kaarten. Nu weten we op voor hand dat het "goede" kaarten zijn die tocg verliezen tegen GTX 950. Tenzij...
Nu is zijn er nog geen benchmarks van de 950 geschikbaar, maar AMD kennende zal het qua prestaties niet onderdoen. Echter, de pitcairn chip komt al uit 2012. Stroomverbuik zal tegenvallen. Qua featureset valt het mee. De pitcairn ondersteund tot 11.1 en tot tier 3 in directx 12.

Toch knap dat AMD deze chip al drie jaar weet te gebruiken en tevens goed in de markt kan zetten. Het is niet optimaal, maar blijkbaar is AMD flink zijn resources aan het opsparen voor de volgende generatie met HBM 2.0 (waarvan de Fury een mooi voorproefje is). Echter ik had liever in dit segment gezien dat AMD een 370 variant op basis van de 380 architectuur had ontwikkeld.

[Reactie gewijzigd door Bliksem B op 28 juli 2015 15:27]

Ja, als het inderdaad een Pitcairn-GPU is, dan is het GCN 1.0, dus minimale featureset.
Niks bijzonders dus eigenlijk. Rebrands zijn een simpele manier om de levensduur van een bepaalde GPU te verlengen De 8800 reeks en de Radeon HD 7850 zijn ook merenmalen gerebrand :)
Dat vind ik toch een iets andere situatie.
De 8800-serie was de eerste DX10-generatie (nou ja, tweede, lichte refresh, want de G80 is niet gerebrand, alleen de G92, en later de G92b die-shrink), en de rebrands waren alleen binnen het DX10-tijdperk, de kaarten waren alleen qua features en performance lang competitief.

Wat AMD hier doet is GCN1.0 hergebruiken, terwijl ze ook GPUs hebben van 1.1 en 1.2. Deze is dus twee generaties ouder (dateert van 2011).
Daarnaast is het een DX11-kaart, terwijl we morgen het DX12-tijdperk ingaan.
GCN1.0 is dus echt behoorlijk achterhaald, en past niet goed binnen de rest van het aanbod van AMD.

[Reactie gewijzigd door Scalibq op 28 juli 2015 15:51]

Geforce GTS 250 kwam rond de tijd uit dat de eerste DX11 kaarten ook uitkwamen. Rebrand is rebrand.

Een 7870 is, net als de 8800 GTX destijds, gewoon nog steeds competitief. Je ziet nu pas dat PC games, door de hogere algemene deler van current-gen consoles, meer en meer DX11 only zijn. Daar zal uiteraard verandering in gaan komen, maar niet ''morgen'', zoals jij beweert :)
Geforce GTS 250 kwam rond de tijd uit dat de eerste DX11 kaarten ook uitkwamen. Rebrand is rebrand.
Maart 2009.
De eerste DX11-kaarten kwamen pas in september 2009, en die van nVidia pas in april 2010, dus ruim een jaar na de GTS250.

Deze kaart komt NADAT AMD een DX12-lijn heeft gelanceerd.
Daar zal uiteraard verandering in gaan komen, maar niet ''morgen'', zoals jij beweert :)
Dat beweer ik niet, ik zeg alleen dat Windows 10, en dus DirectX 12 morgen gelanceerd worden, dus als je binnenkort een nieuwe videokaart wil kopen, is DX12 wel een leuke feature. Dat had deze kaart moeten hebben, en ik snap niet waarom men dan voor GCN1.0 zou kiezen, als GCN1.1 en GCN1.2 ook al op de plank liggen.
Waarschijnlijk om de kosten te drukken. Rebranden kost niet zoveel en levert toch een leuk zakcentje op.
Hoe kan je nou een 8800 GTX steeds vergelijken met een 7870?
Niet in prestaties natuurlijk, wel dat ze beiden relatief lang houdbaar zijn en beide onderhevig waren aan meerdere rebrands.
Ik heb de 8800gtx ook gehad en heb daar idd heel lang spellen op maximale settings kunnen spelen. Was gewoon een topkaart. Het was er een van Asus met massieve reference koeler uit aluminium. Maakte nog niet eens zoveel lawaai onder belasting. Ik heb nu een HD7950 die nu toch al moeite heeft om de nieuwste spellen op max settings te draaien. Hij is veel minder lang houdbaar dan de 8800gtx.

Idd jammer dat deze 'nieuwe' AMD-kaart geen dx12 is met de aankomende Windows 10. Aan de andere kant is het ook geen echte game-kaart maar gaan nu juist de zwakkere videokaarten geen voordeel hebben van dx12?

Edit: Pitcairn(gcn 1.0) ondersteunt wel degelijk dx12 met fl 11_1 zoals spNk hieronder zegt.

[Reactie gewijzigd door Fredi op 29 juli 2015 01:53]

Alle GCN kaarten ondersteunen DX12. Dus ook de 270(x).
Alles vanaf de 7000 serie zelfs.
Om Scali maar even voor te zijn: Niet alle feature levels. Nvidia ondersteunt 12_1, maar niet 11_2 (Als ik het goed heb)
Andere AMD GPU's ondersteunen dan weer wel 11_2 en zelfs 12_0, maar niet 12_1.

De Pitcairn zal DX12 zijn, maar wel op feature level 11_0 of 11_1 (Again, doe ik even vanuit geheugen, het is laat)
Ja, dus? Geen enkele ondersteunt momenteel alle versies ;).
Dat is toch ook niet relevant?
Het gaat erom welke features je ondersteunt. Die featurelevels zijn gewoon verzamelingen features die vaak voorkomen.
Als je een bepaald featurelevel niet ondersteunt, kun je nog wel sommige features uit dat featurelevel ondersteunen. En die kun je dan ook in DX12 gebruiken.

Het doel is dan ook niet om alles te ondersteunen, en het zou zelfs kunnen dat we nooit kaarten gaan krijgen die dat wel doen. Het gaat er in de praktijk vooral om *welke* features je ondersteunt. De features die het belangrijkst zijn in nieuwe games voor de beste performance en/of visuals.

[Reactie gewijzigd door Scalibq op 29 juli 2015 07:46]

Dat klopt, maar ik beschouw het dan ook niet als nadeel dat bepaalde AMD GCN of Nvidia Maxwell GPU's bepaalde features missen.

Het is sowieso vrij onzinnig om iets te gaan ondersteunen voor games terwijl diezelfde games nu pas de switch naar DX11 only maken, laat staan DX12. Ja, het is leuk dat je kan roepen dat je het hebt. Maar als het pas later relevant wordt heb je nog niets aan die early support ;)
Het is sowieso vrij onzinnig om iets te gaan ondersteunen voor games terwijl diezelfde games nu pas de switch naar DX11 only maken, laat staan DX12.
Het is geen kip-en-ei probleem, maar dat maak jij er wel van.
De hardware moet er eerst zijn, voordat games die features kunnen gebruiken.
Aangezien nVidia deze al tijden levert, en de verkoopcijfers van nVidia ook veel hoger liggen dan die van AMD, staat niets ontwikkelaars in de weg om die nieuwe features te gaan gebruiken in games.
Niet dat verkoopaantallen veel te maken hebben met de support van nieuwe features of zelfs APIs. Men richt zich bij development altijd op de toekomst, niet op het verleden. Neem bv Crysis, dat kort na de introductie van DX10 de lat al enorm hoog legde, en op maximale settings meer vroeg dan een high-end systeem op dat moment kon leveren. Of Battlefield 4 dat Mantle ondersteunde voor die paar Radeon-kaarten (ik meen dat op dat moment volgens Steam zo'n 11% van alle DX11-kaarten GCN-based waren, en dus eventueel Mantle-ondersteuning zouden krijgen).

Voor een eindgebruiker is het misschien minder relevant, maar voor de GPU-vendor zelf wel. Ten eerste moet je ooit die features ontwikkelen, dus je moet er R&D in steken. Ten tweede, als je die features niet ondersteunt, laten ontwikkelaars je hardware dus links liggen, want geen ondersteuning betekent ook dat ze niet voor je kunnen ontwikkelen. Je loopt zo dus een achterstand op.

Maargoed, als eindgebruiker mag je jezelf wel even achter de oren krabben als je bij dezelfde prijs en performance de kaart kiest met minder features.

[Reactie gewijzigd door Scalibq op 29 juli 2015 11:22]

Het is geen kip-en-ei probleem, maar dat maak jij er wel van. De hardware moet er eerst zijn, voordat games die features kunnen gebruiken.
En zoals ik al zei, het gaat nog een tijdje duren voor games er uberhaupt mee komen.
Aangezien nVidia deze al tijden levert, en de verkoopcijfers van nVidia ook veel hoger liggen dan die van AMD, staat niets ontwikkelaars in de weg om die nieuwe features te gaan gebruiken in games.
Eigenlijk wel, want AMD heeft ook gewoon een marktaandeel. Doen alsof ze er niet zijn verandert daar niets aan. Wat er moet gebeuren voordat DX12 only titels ook maar enigzins relevant worden:
- Beide partijen (en Intel, uiteraard) moeten de ''nuttige'' features ondersteunen.
- Dan moeten consumenten nog die kaarten kopen. Daarbij is het van belang dat juist Intel deze features ondersteunt daar volgens Steam zij de meest populaire GPU's aan boord hebben.
- Consoles moeten erbij betrokken worden. Nu is dat wat lastiger daar niet alles DirectX is, maar voor multiplatform releases is het redelijk om aan te nemen dat hier aan gedacht wordt. Kost dus ook tijd.
Neem bv Crysis, dat kort na de introductie van DX10 de lat al enorm hoog legde, en op maximale settings meer vroeg dan een high-end systeem op dat moment kon leveren.
Crysis was dan ook een benchmark game die alleen voor PC verscheen met Cryengine 2. De enige titel die nu zo compromisloos is, is Star Citizen, en die lijdt aan het ''Ik wil alle features hebben ongeacht hoe lang het duurt'' syndroom. Een ander voorbeeld is Reset, maar diens Praxis engine is DX10 als laagste spec. (Ondersteunt wel DX11 uiteraard). Een echte hardcore PC game die hardware pusht is er bijna niet, daarom blijft een 7870 rebrand relevant voor 1080p/Xbox One equivalent settings gaming.
Voor een eindgebruiker is het misschien minder relevant, maar voor de GPU-vendor zelf wel. Ten eerste moet je ooit die features ontwikkelen, dus je moet er R&D in steken.
Het heeft weinig zin de eerste ergens in te zijn als dergelijke features nog lang niet worden gebruikt ;)
Ten tweede, als je die features niet ondersteunt, laten ontwikkelaars je hardware dus links liggen, want geen ondersteuning betekent ook dat ze niet voor je kunnen ontwikkelen. Je loopt zo dus een achterstand op.
Vandaar dat je dus concurrentie moet hebben, als Nvidia een monopolie positie had zouden ze het niet de moeite waard vinden om bepaalde technieken mogelijk te maken.
Maargoed, als eindgebruiker mag je jezelf wel even achter de oren krabben als je bij dezelfde prijs en performance de kaart kiest met minder features.
Die R7 zal vast wel wat goedkoper worden dan de 7870 waar hij op is gebaseerd. Sommige mensen hebben niet zoveel eisen en willen gewoon gamen op een redelijke resolutie met redelijke settings. Dan is zon 370X geen slechte keus.
En zoals ik al zei, het gaat nog een tijdje duren voor games er uberhaupt mee komen.
Hoe weet je dat?
Zoals ik aangeef met Crysis, komt het best wel eens voor dat kort na de launch van een nieuwe Windows/DX/GPU-generatie een game komt die de nieuwe technologie volledig benut.

Je moet rekenen dat DX12 al heel lang beschikbaar was voor developers, alsmede de hardware van nVidia die de nieuwe features ondersteunt.
Developers hebben dus al maandenlang gewerkt aan hun DX12-code. UnrealEngine4 is al een tijd uit voor DX12, beschikbaar voor ontwikkelaars in het DX12 Early Access program.
Eigenlijk wel, want AMD heeft ook gewoon een marktaandeel. Doen alsof ze er niet zijn verandert daar niets aan.
AMD heeft op dit moment 25% van discrete GPUs, nVidia de overige 75%.
Daarnaast, dergelijke features zijn altijd optioneel, dus dat AMD het niet heeft is geen reden om het niet te implementeren voor hardware die het wel heeft, nu en in de toekomst. Het DX12-only argument gaat dus niet op.
Het is vooral jammer voor mensen die een nieuwe AMD-GPU kopen, en die features moeten missen die ze met een nieuwe nVidia-GPU wel hadden gekregen.
- Beide partijen (en Intel, uiteraard) moeten de ''nuttige'' features ondersteunen.
Dat hoeft dus niet, want features kunnen optioneel gemaakt worden in games. Zoals gebruikelijk is.
- Dan moeten consumenten nog die kaarten kopen.
Dat doen ze al sinds september 2014 met de 900-serie van nVidia.
Daarbij is het van belang dat juist Intel deze features ondersteunt daar volgens Steam zij de meest populaire GPU's aan boord hebben.
Nee, want features optioneel.
- Consoles moeten erbij betrokken worden. Nu is dat wat lastiger daar niet alles DirectX is, maar voor multiplatform releases is het redelijk om aan te nemen dat hier aan gedacht wordt. Kost dus ook tijd.
Ook niet heel relevant, zie wederom voorbeeld van Crysis en andere DX10-games uit die tijd. Er zijn nooit DX10-consoles geweest. Pas sinds de Xbox One en PS4 hebben we DX10+-hardware in consoles.
Dit heeft DX10/11 op de desktop niet tegengehouden.
Het heeft weinig zin de eerste ergens in te zijn als dergelijke features nog lang niet worden gebruikt ;)
Dit gaat alleen op voor de eindgebruiker, omdat die zelf niet kan beslissen wat hij gebruikt of niet.
De ontwikkelaar gaat aan de slag met nieuwe hardware en features zodra deze beschikbaar zijn. Dan is het dus wel van belang om de eerste te zijn.
Dat zie je ook in de historie vaak terug. Bv GeForce256 was de eerste DX7-kaart, ATi maakte nooit veel kans.
GeForce3 was de eerste DX8-kaart, ATi maakte nooit veel kans.
Radeon 9700 was de eerste DX9-kaart, nVidia maakte nooit veel kans.
GeForce 8800 was de eerste DX10-kaart, ATi maakte nooit veel kans.

Het punt is namelijk dat developers dan engines gaan ontwerpen en optimaliseren voor die eerste hardware. Als jij later komt, en jouw hardware wijkt te veel af, dan kom je dus in een markt waar alle games suboptimaal zijn. Vooral met de GeForce FX en de Radeon 2900 ging dat gigantisch fout.

Bij CPUs zie je iets vergelijkbaars, bv met de Pentium 4 en de AMD Bulldozer. Twee architecturen die niet heel goed om kunnen gaan met bestaande code.
Vandaar dat je dus concurrentie moet hebben, als Nvidia een monopolie positie had zouden ze het niet de moeite waard vinden om bepaalde technieken mogelijk te maken.
Dat lijkt me wel, want je moet mensen wel overhalen om zo'n nieuwe, dure videokaart te gaan kopen. Als ze niet met nieuwe features komen, houdt de upgrade-cycle op een gegeven moment op.
Die R7 zal vast wel wat goedkoper worden dan de 7870 waar hij op is gebaseerd. Sommige mensen hebben niet zoveel eisen en willen gewoon gamen op een redelijke resolutie met redelijke settings. Dan is zon 370X geen slechte keus.
Zoals ik zeg, als nVidia een kaart levert met vergelijkbare prijs en performance, maar meer features, dan is zo'n 370X dus wel een slechte keus.

[Reactie gewijzigd door Scalibq op 29 juli 2015 12:29]

Hoe weet je dat?
Ik observeer dit a.d.h.v analyses bij Digital Foundry, NeoGAF en Lens of Truth alsmede developer interviews en uiteraard de systeemeisen die ontwikkelaars uitbrengen. Hoevaak de 8800GT nog als minimum eis is voorgesteld.. Je ziet nu, met de huidige consoles en dito games, dat titels buigen naar DX11 only, simpelweg omdat de laagst algemene deler die ondersteund wordt (De Xbox One) een API equivalent met DX11 is. Daar wordt dan tegenover ontwikkeld. Nu PS360 geen hoofdplatformen meer zijn (Welke equivalent zijn aan DX9) zal daar geen rekening meer mee worden gehouden
Zoals ik aangeef met Crysis, komt het best wel eens voor dat kort na de launch van een nieuwe Windows/DX/GPU-generatie een game komt die de nieuwe technologie volledig benut.
Sinds Crysis is er geen enkele game meer geweest die dit doet. Of kun je soms een PC-only titel opnoemen die DX11 volledig benutte? Lijkt me niet.
Je moet rekenen dat DX12 al heel lang beschikbaar was voor developers, alsmede de hardware van nVidia die de nieuwe features ondersteunt.
Niet echt relevant zolang Intel niet de nuttige featurelevels ondersteunt of AMD. Games zijn er nog niet tegenop ontwikkeld, dus voor nu nog niet relevant. In 2016 verwacht ik dat hier wat mee zal worden gedaan. Dat komt ook mooi uit , Dan worden Arctic Islands en Pascal ook aangekondigd.
AMD heeft op dit moment 25% van discrete GPUs, nVidia de overige 75%.
Graag een bron hiervan. Ik denk dat het namelijk wel iets hoger ligt.
Daarnaast, dergelijke features zijn altijd optioneel, dus dat AMD het niet heeft is geen reden om het niet te implementeren voor hardware die het wel heeft, nu en in de toekomst. Het DX12-only argument gaat dus niet op.
Je spreekt jezelf dus tegen wanneer je zegt dat de hardware er eerst moet zijn voor dat games die features kunnen gebruiken. Daar AMD/Intel het niet hebben, kunnen die features op dit moment nog niet worden gebruikt. AMD zal geheid volgend jaar dergelijke features gaan ondersteunen, maar voor de 7870 refresh is dat immers niet nodig :) En zoals gezegd, voor een goede goedkope kaart voor wat kwaliteit gaming is het geen slechte keus.
Het is vooral jammer voor mensen die een nieuwe AMD-GPU kopen, en die features moeten missen die ze met een nieuwe nVidia-GPU wel hadden gekregen.
Beetje onzinnig punt. Wat hebben ze nu aan features die nu niet relevant zijn en pas in 2016 op zijn vroegst iets gaan betekenen in gaming in het algemeen? Tegen die tijd zal zon consument, die een R7 koopt, misschien al wel iets anders kopen. Of kiezen ze ervoor op 900p te draaien. Het lijkt mij zeer sterk dat alle PC titels vanaf 2016 alle DX 12_1 gaan ondersteunen.
Dat doen ze al sinds september 2014 met de 900-serie van nVidia.
Steam Survey stelt dat het overgrote deel van GPU's van Intel afkomen. Hoe groot is het aandeel van 900 series GPU'S?
Ook niet heel relevant, zie wederom voorbeeld van Crysis en andere DX10-games uit die tijd.
Dan mag je mij uitleggen waarom alle multiplat games grotendeels een Geforce 8800 GT en/of HD 3870 als minimale eis aanbevelen als er niet naar console equivalents wordt gekeken. Hoe je het ook went of keert, er zijn vrijwel geen PC only titels meer vandaag die echt de hardware pushen, en ontwikkelaars houden rekening met console specs, en passen daarop hun minimale hardware eis voor de PC versie aan.
Zoals ik zeg, als nVidia een kaart levert met vergelijkbare prijs en performance, maar meer features, dan is zo'n 370X dus wel een slechte keus.
En die kaart is? Juist omdat het een 7870 rebrand betreft zullen alle afgeleide kaarten (Dus voor deze R7) weer in prijs dalen. En voor gemiddeld gamen is het geen slechte keus, hoevaak je ook iets anders tracht te pluggen.
Ik observeer dit a.d.h.v analyses bij Digital Foundry, NeoGAF en Lens of Truth alsmede developer interviews en uiteraard de systeemeisen die ontwikkelaars uitbrengen. Hoevaak de 8800GT nog als minimum eis is voorgesteld.. Je ziet nu, met de huidige consoles en dito games, dat titels buigen naar DX11 only, simpelweg omdat de laagst algemene deler die ondersteund wordt (De Xbox One) een API equivalent met DX11 is. Daar wordt dan tegenover ontwikkeld. Nu PS360 geen hoofdplatformen meer zijn (Welke equivalent zijn aan DX9) zal daar geen rekening meer mee worden gehouden
Maar dan heb je het over de minimumeisen, terwijl we het hier over de maximum features hebben.
Niet echt relevant zolang Intel niet de nuttige featurelevels ondersteunt of AMD.
Zoals ik zeg, dat heeft niets met de maximum features te maken.
Er worden vaak genoeg features in een game gebouwd die maar op GPUs van 1 vendor werken.
Games zijn er nog niet tegenop ontwikkeld, dus voor nu nog niet relevant.
Dus wel, zoals ik al zeg. Developers hebben al lang de beschikking over DX12 en de benodigde hardware. Er is al veel mee gedaan, en games met DX12-support zullen vrij snel komen.
Graag een bron hiervan. Ik denk dat het namelijk wel iets hoger ligt.
http://www.dsogaming.com/...gamers-own-an-nvidia-gpu/
Je spreekt jezelf dus tegen wanneer je zegt dat de hardware er eerst moet zijn voor dat games die features kunnen gebruiken.
Nee, ik spreek mezelf helemaal niet tegen. Ik zeg dat de API en de hardware er zijn, dus kun je ermee ontwikkelen, en software op de markt brengen die er gebruik van maakt.
Daar AMD/Intel het niet hebben, kunnen die features op dit moment nog niet worden gebruikt.
Natuurlijk wel, want nVidia heeft die hardware wel. Wat AMD/Intel doen, is niet relevant voor de mensen die een nVidia-kaart hebben. Bij hun werkt het gewoon.
AMD zal geheid volgend jaar dergelijke features gaan ondersteunen, maar voor de 7870 refresh is dat immers niet nodig :) En zoals gezegd, voor een goede goedkope kaart voor wat kwaliteit gaming is het geen slechte keus.
Tsja, de 950/960 kunnen het wel, dus is het wel een slechte keus.
Beetje onzinnig punt. Wat hebben ze nu aan features die nu niet relevant zijn en pas in 2016 op zijn vroegst iets gaan betekenen in gaming in het algemeen? Tegen die tijd zal zon consument, die een R7 koopt, misschien al wel iets anders kopen. Of kiezen ze ervoor op 900p te draaien. Het lijkt mij zeer sterk dat alle PC titels vanaf 2016 alle DX 12_1 gaan ondersteunen.
Hoezo onzinnig?
Ik vind het onzinnig dat jij vindt dat iedereen volgend jaar alweer moet gaan upgraden. Ik doe zelf vaak 3-4 jaar met een GPU. Ik koop gewoon een van de snelste, meest feature-rijke GPUs van het moment, en daar kan ik dan jaren mee vooruit.

Verder vind ik het onzinnig dat jij met het criterium komt van "alle games". Zodra er ook maar 1 game is die het ondersteunt, heb je al meerwaarde van je nVidia-kaart met 12_1.
Steam Survey stelt dat het overgrote deel van GPU's van Intel afkomen. Hoe groot is het aandeel van 900 series GPU'S?
Daar gaat het hier toch niet om? Het gaat om mensen die games met de nieuwste features kunnen spelen, dat zijn dus mensen met high-end systemen, en per definitie niet Intel.
Dan mag je mij uitleggen waarom alle multiplat games grotendeels een Geforce 8800 GT en/of HD 3870 als minimale eis aanbevelen als er niet naar console equivalents wordt gekeken.
Nogmaals, omdat jij naar minimum specs zit te kijken, terwijl we het hier hebben over optionele nieuwe features.
Wat snap je niet aan optioneel? Je hebt toch wel eens een game gespeeld? Je weet toch dat er meerdere detailniveaus in zitten, en allerlei effecten die aan/uit kunnen? Waarbij bepaalde effecten/details alleen werken op de betere/nieuwere kaarten?
Zelfs Crysis kon op een Radeon 9700 draaien qua minimum specs, first-gen DX9 dus. Terwijl dat de ultieme DX10-game was, die zelfs een GeForce 8800Ultra op z'n knieën kon krijgen.
Op minimum specs *werkt* de game, maar meer ook niet. We hebben het hier over wat voor effecten er mogelijk zijn op de nieuwste hardware, en minimum specs hebben daar niets mee te maken.
En die kaart is? Juist omdat het een 7870 rebrand betreft zullen alle afgeleide kaarten (Dus voor deze R7) weer in prijs dalen. En voor gemiddeld gamen is het geen slechte keus, hoevaak je ook iets anders tracht te pluggen.
Volgens het artikel zal dat de 950 worden.
Maar dan heb je het over de minimumeisen, terwijl we het hier over de maximum features hebben.
Daar heb ik het de hele tijd al over. Laagste algemene deler. Ik weet niet waarom je nu ineens maximum features erbij haalt, daar ging het niet om.
Zoals ik zeg, dat heeft niets met de maximum features te maken.
Je stelt nu dus dat de features uit DX 12_1 vooral zoiets gaan worden ala Hairworks? Tja, dat maakt je algehele punt (Games zullen dit ondersteunen) er niet echt aannemelijker op.
Er worden vaak genoeg features in een game gebouwd die maar op GPUs van 1 vendor werken.
Inderdaad, Hairworks, TressFX.. Vaak staat er ook een grote zak geld tegenover en werkt het een pak slechter op de tegenpartij. Gebruikertje pesten, noemen we dat. Een kwalijke situatie.
Dus wel, zoals ik al zeg. Developers hebben al lang de beschikking over DX12 en de benodigde hardware. Er is al veel mee gedaan, en games met DX12-support zullen vrij snel komen.
Ook ik geloof graag dat DX12 ''support'' er gauw zal zijn. Maar wanneer word het DX12 ''only''? Ik denk dat dit wat langer in beslag zal nemen (Hence waarom verschillende GPU ontwikkelaars niet alle nuttige features vooralsnog ondersteunen)
Natuurlijk wel, want nVidia heeft die hardware wel. Wat AMD/Intel doen, is niet relevant voor de mensen die een nVidia-kaart hebben. Bij hun werkt het gewoon.
Je eigen bron stelt het zelf al: ''One thing is certain: an NVIDIA monopoly won’t benefit PC gamers.'' Je bent dus een voorstander van vendor-locked features? Want op dit moment heeft alleen Nvidia die features. En aangezien het dusdanig drastische features zijn, is het op dit moment niet relevant om deze in een game te gooien. Tenzij je graag wilt dat AMD en Intel eigenaren de game niet kunnen spelen op dit moment.

Wat ik al zei: In 2016 wordt relevant. Nu nog niet.
Tsja, de 950/960 kunnen het wel, dus is het wel een slechte keus.
Gelukkig bepaal jij niet voor de consument wat zij moeten kopen. Ik denk dat een 7870 die goedkoper uitvalt nog zeker relevant is.
Ik vind het onzinnig dat jij vindt dat iedereen volgend jaar alweer moet gaan upgraden. Ik doe zelf vaak 3-4 jaar met een GPU. Ik koop gewoon een van de snelste, meest feature-rijke GPUs van het moment, en daar kan ik dan jaren mee vooruit.
Ik zei ''misschien''. Een 7870 kan uiteraard nog een tijdje vooruit.
Verder vind ik het onzinnig dat jij met het criterium komt van "alle games". Zodra er ook maar 1 game is die het ondersteunt, heb je al meerwaarde van je nVidia-kaart met 12_1.
Moet je wel:
- De game zelf leuk vinden.
- Een Nvidia kaart kopen.
- Oh, en het moet ook toevallig een game zijn die dit ondersteunt. Misschien dat Star Citizen dat is, voor de rest ken ik geen game die DX12 ook maar enigzins zou pushen, en die is nog lang niet af.

Je stelt dus dat 12_1 relevant is op basis van bovengenoemde 3 punten. Lijkt mij geen goede basis om geld uit te geven voor een nieuwe kaart.
Daar gaat het hier toch niet om? Het gaat om mensen die games met de nieuwste features kunnen spelen, dat zijn dus mensen met high-end systemen, en per definitie niet Intel.
Ik heb altijd gewezen naar de laagste algemene deler, jij wilt het gaan verschuiven naar Nvidia en diens features. Dat heeft niets met het topic te maken.
Nogmaals, omdat jij naar minimum specs zit te kijken, terwijl we het hier hebben over optionele nieuwe features.
Dat doe ik ook bewust, want games worden ontwikkeld met de laagst algemene deler in het achterhoofd. Dat is nu de Xbox One, die DX11 ondersteunt. Logisch dus dat PC titels een stuk hogere systeem eisen tegenwoordig. Tot voor kort was de laagst algemene deler een Xbox 360/PS3, en daar werden de PC versies dan ook op gebaseerd: DX9 en DX11 om iets meer features zoals tesselation mogelijk te maken. Nu zal dat steeds meer DX11 only en hoger worden. En met verloop van zal dan 12_1 ook relevant gaan worden.
Zelfs Crysis kon op een Radeon 9700 draaien qua minimum specs, first-gen DX9 dus. Terwijl dat de ultieme DX10-game was, die zelfs een GeForce 8800Ultra op z'n knieën kon krijgen.Op minimum specs *werkt* de game, maar meer ook niet.
Crysis was dan ook 1 der laatste titels waar nog een idioot visueel verschil tussen low en very high settings zat. Tegenwoordig is low ook gewoon visueel een goede afweging.
Wat snap je niet aan optioneel? Je hebt toch wel eens een game gespeeld? Je weet toch dat er meerdere detailniveaus in zitten, en allerlei effecten die aan/uit kunnen? Waarbij bepaalde effecten/details alleen werken op de betere/nieuwere kaarten?
Dit heb ik je al uitgelegd. En daarmee houd het hier voor mij ook weer op, want je toon gaat (weer) richting onvriendelijk. Je mag het gerust voortzetten, hier of elders, alleen zal ik niet meer reageren :)
Daar heb ik het de hele tijd al over. Laagste algemene deler. Ik weet niet waarom je nu ineens maximum features erbij haalt, daar ging het niet om.
Natuurlijk gaat het daar wel om, we hebben het immers over wat 12_1 kan toevoegen aan games. Aangezien 12_1 het hoogste featurelevel is, lijkt het me logisch dat je niet naar de minimum specs van games gaat kijken. Geen enkele developer zal een game gaan maken waarbij de minimum specs gelijk zijn aan de maximum specs die uberhaupt op de markt te krijgen zijn.
Je stelt nu dus dat de features uit DX 12_1 vooral zoiets gaan worden ala Hairworks? Tja, dat maakt je algehele punt (Games zullen dit ondersteunen) er niet echt aannemelijker op.
Waarom maakt dat het niet aannemelijker? Hairworks wordt toch in games gebruikt?
Daarnaast is Hairworks een technologie van nVidia, waar 12_1 gewoon een standaard is binnen DX12, en compleet los staat van nVidia. De situatie is dus niet vergelijkbaar.
Inderdaad, Hairworks, TressFX.. Vaak staat er ook een grote zak geld tegenover en werkt het een pak slechter op de tegenpartij. Gebruikertje pesten, noemen we dat. Een kwalijke situatie.
Wat jij van die situatie vindt is niet relevant. Feit blijft dat die situatie er is.
Maar wanneer word het DX12 ''only''?
Ik zie de relevantie van deze vraag niet.
(Hence waarom verschillende GPU ontwikkelaars niet alle nuttige features vooralsnog ondersteunen)
Dat heeft vooral met budgetten en tijdsgebrek te maken. Ze zullen het graag allemaal ondersteunen, en ze moeten uiteindelijk ook wel, maar het is op dit moment duidelijk dat AMD het tempo van nVidia niet meer kan volgen, getuige ook het recyclen van GCN1.0 in de 370x.
Je eigen bron stelt het zelf al: ''One thing is certain: an NVIDIA monopoly won’t benefit PC gamers.'' Je bent dus een voorstander van vendor-locked features? Want op dit moment heeft alleen Nvidia die features.
12_1 is geen vendor-locked feature. Het is een standaard-feature in DX12, die iedere vendor kan implementeren. Er is dus geen sprake van locking. Als je nu 12_1-code schrijft, zal die op toekomstige 12_1 GPUs van alle vendors draaien.
Volgens jouw kromme logica is DX11 dan een AMD-vendor-locked featureset, omdat AMD de eerste was met de Radeon 5000-serie. Natuurlijk weten we allemaal dat nVidia wat later ook met een DX11-serie kwam, die alle DX11-software prima kon draaien, en bepaalde DX11-features zoals tessellation zelfs beter deed dan de Radeon 5000. Omdat DX11 gewoon een standaard is die iedereen kan implementeren, net als DX12 en featurelevel 12_1.
En aangezien het dusdanig drastische features zijn, is het op dit moment niet relevant om deze in een game te gooien. Tenzij je graag wilt dat AMD en Intel eigenaren de game niet kunnen spelen op dit moment.
OPTIONEEL!
Weet je wat dat woord betekent? Blijkbaar niet. Zie bovenstaande posts, waar ik het al meerdere keren heb uitgelegd. Of start eens een spel op, en kijk eens in de graphics options.
Je stelt dus dat 12_1 relevant is op basis van bovengenoemde 3 punten.
Ik stel helemaal nergens dat 12_1 relevant is.
Ik noem alleen het motto: "Beter mee verlegen dan om verlegen".
Lijkt mij geen goede basis om geld uit te geven voor een nieuwe kaart.
Nee, ik zei dat bij dezelfde prijs en performance, je moet gaan voor de kaart met de meest complete featureset.
Dat lijkt me een uitstekend besluit bij het kopen van een nieuwe kaart.
Ik heb altijd gewezen naar de laagste algemene deler,
Je bedoelt dat je op mij reageert (weliswaar via de reactie van spNk, maar dat neemt niet weg dat wij daar al over bezig waren, en jij er later op inhaakt), en vervolgens de doelpalen verschuift.
Dat doe ik ook bewust, want games worden ontwikkeld met de laagst algemene deler in het achterhoofd.
Wat dus maar een deel van het verhaal is vanwege de AL HEEL VAAK GENOEMDE OPTIONELE FEATURES.
Dit heb ik je al uitgelegd. En daarmee houd het hier voor mij ook weer op, want je toon gaat (weer) richting onvriendelijk.
En jij bent weer doelbewust dingen aan het negeren en punten aan het herhalen die al meerdere keren weerlegd zijn, en daarnaast doelpalen aan het verschuiven en de schuld daarvan ook nog eens bij de ander aan het leggen.
Als je op een dergelijk irritante en kinderachtige manier discussieert met het gebruik van zoveel drogredenen, dan overtreed je de etiquette van een goed debat, en zet je dus zelf de onvriendelijke toon. In de volksmond ook wel bekend als 'trolling'.

[Reactie gewijzigd door Scalibq op 30 juli 2015 09:20]

Dan draai je het om.
DX12 kan draaien in downlevel modes op de meeste DX11-hardware (bij nVidia zelfs op alle DX11-hardware).
Het gaat er natuurlijk niet om dat een GPU onder de DX12-API kan draaien, want dat kan vrijwel iedere GPU van de afgelopen 4-5 jaar al (met uitzondering van Intel). Niet bepaald een criterium voor een nieuwe GPU dus.

Waar het wel om gaat is dat je mag verwachten dat je in de tijd van DX12 en nieuwe features, dat een nieuwe GPU die ook ondersteunt. En dat is hier niet het geval. Dit is de meest 'kale' GCN, met niet meer features dan die 7000-kaarten van jaren geleden.

[Reactie gewijzigd door Scalibq op 29 juli 2015 07:49]

Maar eigenlijk trek je nu al conclusies terwijl nog helemaal niet duidelijk is wat er daadwerkelijk voor features gebruikt gaan worden.

Het gaat er gewoon om, er is wel DX12 ondersteuning, i.t.t. jij beweerde. Dat niet alles ondersteund word, ok.
Maar eigenlijk trek je nu al conclusies terwijl nog helemaal niet duidelijk is wat er daadwerkelijk voor features gebruikt gaan worden.
Nee, nu draai je het om.
Als je voor een AMD-kaart kiest, *dan* trek je de conclusie dat je geen featurelevel 12_1 krijgt in nieuwe games.
Als je voor een kaart gaat die wel 12_1 ondersteunt, dan trek je geen conclusies, en hou je je opties open.
Als het niets extras kost, is het altijd maar beter om het wel te hebben dan niet. Je weet immers maar nooit.
Het gaat er gewoon om, er is wel DX12 ondersteuning, i.t.t. jij beweerde. Dat niet alles ondersteund word, ok.
Ik heb niet beweerd dat er geen DX12-ondersteuning is. Zoals ik al zei, dat is sowieso zinloos, aangezien kaarten van 4-5 jaar oud ook al ondersteund worden door DX12 (niet omdraaien, dit gaat om backward compatibility van de API, niet iets dat doelbewust in de hardware is ingebouwd, want van DX12 was nog lang geen sprake in 2010-2011).
Radeon 8000 series was dan wel alleen voor OEMs, die kon je niet los in de winkel kopen.
Geforce 8800 reeks, met excuus :)
Tja... het zal een kwestie van smaak zijn, maar als ik zie hoe mijn HD6670 (met Eyefinity op 3 monitoren 1600x1200) presteert, dan krijg ik niet bepaald neigingen om naar de winkel te rennen voor een nieuwe kaart.
Je maakt me niet wijs dat jij kan gamen met een hd6670 in een triple monitor opstelling
ligt er natuurlijk wel aan met welk spel
Precies. Maar wat ook een rol speelt: Als we HBM buiten besluit laten, dan leest het 4GHz GDDR5-geheugen van mijn HD6670 als een specificatie die je zo op een spiksplinternieuwe kaart kunt aantreffen: Er is de afgelopen jaren bar weinig gebeurd aan de geheugentechnologie. GDDR5 in 128 en 256 bit was destijds de variatie en is dat nu eigenlijk nog steeds.

Het enige wat wel toegenomen is, is de rekenkracht van de kaarten, hoewel ook hier enige stagnatie te zien was. De nieuwste kaarten kunnen allerhande shaders een stuk sneller doorrekenen dan de oude. Lang niet ieder spel leunt daar zwaar op.
Ja maar dat maakt toch niks uit? Als de bandbreedte niet nodig is hoeven ze hem ook niet te verhogen ;). Overigens hebben o.a. de 290 en 290x een 512bits brede bus.
Gisteren nog The Talos Principle gespeeld, framerate tussen de 30 en 60 fps, daar ben ik gelukkig mee. Cities Skylines doet 'ie ook prima. Er zullen vast spellen bestaan waar 'ie meer moeite mee heeft, alleen heb ik die dan niet.
Cities Skylines op 4800x1200 met een HD6670. Dan heb je wel alles op lower dan low staan. Of je bouwt geen stad...
Ik heb alleen de instellingen die zeer zwaar voor de kaart zijn afgezet (anti-aliasing, film grain). De rest staat op max.
Daar twijfel ik dus aan.. Ik gebruik ook mijn 7870XT nog en kan voor rond de 200 euro toch niet echt een goede vervanger vinden.. Wacht nog een generatie af.
Inderdaad, deze nieuwe kaarten van AMD zijn geen echt grote stap mocht je al een leuke kaart hebben met een bekent budget. Ik denk zelf dat we volgend jaar met de nieuwe kaarten van nvidia pas een echt grote stap krijgen.
Waarom alleen nVidia? AMD gaat ook over op een kleiner productie procedé en HBM2.

[EDIT]
Na wat zoeken, komt naar verwachting nVidia in Q2 2016 met Pascal en AMD in H2 2016 met Artic Islands.

[Reactie gewijzigd door LongBowNL op 28 juli 2015 15:13]

Zoals je zelf al ontdekt hebt, omdat Nvidia eerder met nieuwe zooi komt.

Wie van de 2 beter zal zijn (Pascal of Arctic Islands) is bijzaak. Maar ik ben me zeker dat beide een grotere stap vooruit zullen zijn dan deze marginale refreshes.

edit: Zeg ik toch ook niet. Ik heb het over meervoud aangezien AMD diverse oude zooi onder een nieuwe naam in de nieuwe lineup heeft.

[Reactie gewijzigd door Deadsy op 28 juli 2015 19:27]

nVidia heeft nu geen refreshes.

edit: Het leest wel zo.

[Reactie gewijzigd door Nature op 28 juli 2015 19:32]

Nee, je HD7870 ondersteunt ook alles wat deze R7 370X ondersteunt, doordat ze op dezelfde GPU draaien. Beide zit Pitcairn, wat dus GCN 1.0 is. Beter ben je af met een R9 380, welke GCN 1.2 ondersteunt, hetzelfde niveau als de R9 Fury(X) kaarten.
Als je je Hd 7870 vervangt zou ik voor een r9 380 4gb versie gaan, dan heb je ook echte verbetering in de architectuur. Zelf heb ik nu een r9 270x 4gb en dat is een erg leuke kaart, speel bijna alle hedendaagse games op meer als prima kwaliteit.
AMD moet heel snel met weer nieuwe kaarten komen die dan ook echt nieuw zijn anders hebben ze groten problemen en heeft nvidia binnen 2 jaar een monopolie omdat amd kapot is.

Mijn amd 7970 met zware oc van sapphire is in feite nog bijna dezelfde kaart en draait dan ook het meeste prima.
Ze hebben bijna niets vernieuwend gedaan in 4+ jaar voor de gewone kaarten en nooit van mn leven dat ik meer as 350 euro ga betalen voor een kaart.
Definieer "heel snel."
Volgend jaar komen beide (nVidia en AMD) hoogstwaarschijnlijk met nieuwe chip op een kleiner procedé. (nVidia in Q2 2016 en AMD in H2 2016)

De 7970 = 280x (en niet de 270x). In de laatste generatie kaarten zit er geen 7970 rebrand.

[Reactie gewijzigd door LongBowNL op 28 juli 2015 16:30]

amd heeft afgezien van de fury al in dik 4 jaar geen nieuwe kaarten meer gepresenteerd. ze hebben alleen oude designs hoger geclocked en in het laatste geval er meer geheugen op geplakt.
Het stroomverbruik en de hitte zijn er dan ook niet beter op geworden.

Mensen blijven dit soort praktijken niet slikken.
En game devs hebben zoiezo al de pik om amd aan de games te zien.
De meeste zijn namelijk nvidia optimized en niet amd.
Gamers zullen daardoor eerder 80 euro meer betalen voor een kaart die meer prestatie bied en meer features heeft in games.
Dat zou helemaal maf zijn; een GPU uit 2012 nemen die onder de R7 categorie viel, en deze dan nog eens upgraden naar de R9 categorie 8)7

Edit: blijkbaar verdien ik wat schoppenonder mijn kont, bedankt om me op de vergissing te wijzen! Blijft wel raar om "AMD werkt aan..." te lezen, als het gewoon een identieke GPU wordt...

[Reactie gewijzigd door Aertsvijand op 28 juli 2015 14:07]

De R9 370X zou de opvolger van de R9 270X zijn. Hij wordt niet van de R7 naar de R9 serie gezet, maar de R9 270 wel naar de R7 370, dus andersom.
Het is precies andersom, de 270X is een R9 kaart, maar wordt dus omgezet naar een R7 (370X) kaart.
Ik hoop dat AMD nog een R9 380x uit gaat brengen, een soort Tonga XT ofzo ( dus een volledig ingeschakelde chip uit de r9 380 ). Weet iemand toevallig of dat nog op de planning staat ? het stond ooit op bij de geruchten op tweakers, maar daar werd die kaart nog een r9 370x genoemd :P
http://tweakers.net/nieuw...-krijgen-grenada-gpu.html

zou wel een perfecte kaart voor 1440p worden, als hij dan tenminste ooit verschijnt.
Ik weet wel dat die chip al bestaat voor laptops, de R9 M295x. Nu hopen dat die naar de desktop "geport" wordt.
Ah dat wist ik niet, dat is wel gaaf. Nu is mijn hoop weer een klein beetje toegenomen ;)
Ik ben erg benieuwd naar de prijs van de GTX 950 en wat er dan met GTX 750 Ti gaat gebeuren. Prijs van de GTX 750 Ti vind ik best prijzig. Soms wel 150 euro. Gemiddeld 130 euro. Maar dat mag wel richting de 100 euro.
Ben benieuwd naar de benchmark tussen de 950 en de 750 ti.
Never mind deze matige rebrands waar vrijwel niemand op zit te wachten! AMD zorg nou eerst maar eens dat de Fury X wijd leverbaar is prutsers.
Ik denk dat de leveringsproblemen met de Fury (X) te maken hebben met HBM, dat ze niet genoeg HBM kunnen inkopen van Hynix of andere geheugenfabrikanten.
Idd, waarschijnlijk zijn de yields van het HBM nog te laag om rendabel te zijn. Schijnt complex te zijn om de Fiji chip te produceren met het hbm en de interposer. Maar dat had AMD van te voren kunnen weten en moesten ze dan maar gewed hebben op 8 GB GDDR5 en een volledig nieuwe gpu architectuur.

nVidia gaat rustig wachten tot hbm 2.0 volwassen is en dan 8 GB ervan in hun chips plaatsen. Jammer voor AMD helaas.
Ik denk juist dat AMD hun slag gaat slaan met HBM2, onthoud: AMD heeft voorrang bij Hynix met de afname van HBM2. Op die manier gaat AMD met HBM2 dus misschien toch een voordeel hebben op nVidia. Verder verwacht ik dat AMD met een nieuwe architectuur wacht tot de volgende die-shrink (14nm?)
Het is achteraf altijd makkelijk om een foute gok te benoemen.
In deze business moet je nu eenmaal risico's nemen om te proberen je concurrent voor te blijven. Soms pakt dat goed uit, soms niet.
Het duurt nog wel even voordat HBM2.0 er is, en AMD en Hynix zitten in de tussentijd niet stil. Het kan best dat de yields de komende tijd nog flink verbeterd gaan worden.
Laat het ons hopen voor AMD. Dat AMD het slecht doet is niemand bij gebaat, alleen nVidia. Slecht voor AMD en de consument dus, die meer moet betalen voor zijn grafische kaart.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True