Gerucht: refresh van AMD RX 570-videokaart met 12nm-gpu komt binnenkort

Volgens PConline presenteert AMD tussen 12 en 15 oktober een nieuwe versie van een Radeon-gpu met 2048 streamprocessors, net als de RX 570. De chip zou op 12nm in plaats van 14nm zijn gemaakt en hogere kloksnelheden hebben.

De Chinese website baseert zijn publicatie op bronnen bij makers van videokaarten. AMD zou de refresh van de gpu Polaris 30 noemen. Door de gpu op 12nm te maken, zou het mogelijk zijn om de kloksnelheden wat te verhogen ten opzichte van de huidige gpu's die op 14nm worden gemaakt. Naast een refresh van de RX 570, zou er ook een nieuwe versie van de RX 580 op komst zijn, maar die zou later in november aangekondigd worden. Details over de prijzen en naamgeving van de nieuwe Radeon-videokaarten zijn nog onbekend.

Volgens het gerucht gaat het om een refresh van de gpu en zijn er geen wijzigingen aan de architectuur. Het zou de tweede keer zijn dat AMD met een verbetering van zijn Polaris-gpu komt. Sinds 2016 gebruikt AMD deze chips voor zijn Radeon RX-videokaarten, eerst in de RX 400-serie en een jaar later in de RX 500-serie. De gpu's van de RX 500-modellen zijn iets hoger geklokt, maar worden nog altijd op 14nm gemaakt. AMD maakte eerder dit jaar de stap van 14nm naar 12nm voor zijn tweede generatie Ryzen-processors.

Voor een nieuwe generatie videokaarten met de nieuwe Navi-gpu wil AMD overstappen naar 7nm. Het bedrijf werkt daar al langer aan en toonde in juni een prototype van een Vega-gpu op 7nm. Dergelijke kaarten zullen eerst hun weg naar servers vinden. Videokaarten voor consumenten gemaakt op 7nm worden op zijn vroegst volgend jaar verwacht.

AMD Radeon RX 570-videokaarten

Door Julian Huijbregts

Nieuwsredacteur

08-10-2018 • 07:57

84 Linkedin

Reacties (84)

84
83
53
8
0
27
Wijzig sortering
Ik hoop echt dat AMD een antwoord vindt op RTX. Normaal gezien is de DirectX ray tracing pipeline een standaard. Dus, als amd ook hardware ray tracing kan doen in zijn volgende generatie... Ik hoop er op. Dan zitten we ook nog met dat stuk AI voor DLSS echter. We zullen wel zien zeker :/?
DLSS schijnt niet zo veel te schelen als men zou denken. Een simpelere TAA implementatie met een iets lagere resolutie dan 4k en die upscalen heeft meer detail dan DLSS (Ik vind dat ze die DLUS moeten noemen, want het is geen super scaling, maar up scaling).
Digital Foundry had hier een vergelijking van gemaakt in vergelijking met native 4K, en laten dus zien dat er wordt ingeleverd op detail:
https://www.youtube.com/watch?v=MMbgvXde-YA
Hardware unboxed had de upscaled lagere resolutie met TAA, dat er bijna hetzelfde uitzag, maar met een iets hogere framerate:
https://www.youtube.com/watch?v=nS58xlzZsLI
DLSS is een gimmick met weinig voordelen voor wat je er voor inlevert. Leuk idee, maar niet goed genoeg.
En of Nvidia zoveel heeft aan RTX met hun huidige kaarten is ook maar de vraag, omdat het in de ronde gaat dat de RTX2080Ti in "Shadow Of The Tomb Raider" nog geen 60 fps haalt op 1080p. Bij de tijd dat Nvidia de volgende generatie uitbrengt kunnen we weer kijken. Tot die tijd is er geen kaart die DXR echt aankan.
Toch wat nuanceren her en der: Iedereen lijkt toch erg tevreden over DLSS, ook in uw video's waarnaar je linkt. DLSS geen minder artefacten van TAA bij bewegende beelden en geeft een stuk meer detail in 4K dan een 1800P met upscaling naar 4K met maar 1% minder fps. Echt inleveren is dat niet, je krijgt er wel iets voor terug. Van meer detail met upscale TAA is geen sprake en al zeker niet als het beeld beweegt.

Wat we bijna zeker weten is dat DLSS 4K tussen de 30 en 35% performance boost geeft tegenover native 4K TAA zonder veel in te leveren op detail en zonder rare artefacten zoals te zien in in TAA. En het lijkt er op dat Gtx1080 gebruikers zich geen GTX 2080 moeten aanschaffen voor DLSS want een GTX1080 met upscale + TAA geeft enigsinds vergelijkbare resultaten.

Het gaat idd de ronde dat Shadow Of The Tomb Raider en RTX geen 60fps op 4K aankan maar alle geruchten zijn afkomstig van beta software en games. Dus je kan daar geen conclusies uit trekken.

Mijn Conclusie: DLSS is geen gimmick maar ook niet echt een revolutie. DLSS lijkt we wel beter dan upscaling + TAA. Voor mij ziet DLSS er ook in game veel natuurlijker, vloeiender en contrastrijker uit dan TAA.

De GTX 2080 reeks is geen typische vervanger van de GTX 1080 het is eerder een golden flag-ship kaart op nieuwe technologie te pushen bij de game developers want DLSS en RTX zijn nog steeds niet beschikbaar. Al gaat Youtube vol staan als dat wel het geval is, maanden voor AMD een variant kan presenteren. Een betere marketing machine kan je u niet inbeelden.

Het klopt dat we 9/10 moeten wachten tot de volgende generatie Nvida kaarten die RTX beter kunnen benutten, tegen die tijd zal AMD ook wel een OpenRays variant voorstellen. Maar tot RTX en DLSS live gaat is het gissen naar de werkelijke prijs/prestatie effecten.

[Reactie gewijzigd door Coolstart op 8 oktober 2018 11:19]

Ik dacht dat DF juist enthousiast was over DLSS, doordat je een verbeterde image quality krijgt, maar performance bespaard.
Nu nog een implementatie in games zelf ipv on-rails benchmarks.

Die video's zijn behoorlijk nietszeggend als het daarom gaat. De kwaliteit van DLSS is in elk geval lager dan TAA, dus hogere FPS is dan ook niet raar.

[Reactie gewijzigd door Vayra op 8 oktober 2018 10:02]

Benchmarks zijn noodzakelijkerwijs on-rails. Het doel is dat je de resultaten kunt vergelijken. Als je niet eens dezelfde scenes rendert, dan zijn de resultaten natuurlijk niet meer vergelijkbaar. Is die lelijke edge een gevolg van slechte AA of van een ongelukkige camera positie?
Ken je de Final Fantasy benchmark ook? Dat is zo'n beetje de minst betrouwbare bench die je anno 2018 kunt draaien. Je kunt zelfs een stukje rondlopen als men de zwarte auto uitstapt... Ja dat lees je goed. Met WASD.

Verder is in deze benchmark met een simpele .ini file een heel aantal settings aanpasbaar zonder dat dat in het eindresultaat wordt weergegeven. Oftewel: nietszeggende resultaten. Leuk voor de hobbyist maar verder...

[Reactie gewijzigd door Vayra op 8 oktober 2018 13:58]

Radeon heeft al lang voor nVidia met RTX kwam OpenRays: https://gpuopen.com/gaming-product/radeon-rays/
Deze zijn open source en gemaakt in openCL 1.2, dus deze raytracing library werkt gewoon op alle hardware, ook nVidia, RTX niet. Deze lib maakt real-time raytracing mogelijk, en ook al was deze bij release gericht op de pro-markt, hij werkt gewoon opVega kaarten voor real-time performance: https://gpuopen.com/announcing-real-time-ray-tracing/

Daarnaast zie ik persoonlijk niet echt het nut in van raytracing op dit moment: de performance is bagger, de 2080Ti haalt 30-70 fps op 1080p. Ik zie mezelf op mijn 144Hz 1440p scherm niet met die resolutie en framerate spelen: ik wil minstens 60 fps op 1440p en pas daar ook de settings voor aan, dus het duurt denk ik nog 2,3 generaties vooraleer ik persoonlijk de raytracing optie aan heb staan, al had ik een GPU die het ondersteunt.

Het belang van ray tracing is voor mij persoonlijk dus nog even niet aan de orde voor mijn komende aankoop (ik wil mijn GTX980 upgraden). De upgrade daarná, dan zal ik er even naar kijken. Maar goed, dat is mijn kijk erop.

[Reactie gewijzigd door kiang op 8 oktober 2018 08:40]

Daarnaast heb je natuurlijk ook nog DX12 van MS die nu ook ray tracing heeft, die zowel door AMD als nV ondersteund gaat worden.
(vulkan komt ook met RTX/raytracing)

Mensen zitten nu nV te bashen voor raytracing (voornamelijk het AMD front: niet @kiang :) ) maar ray tracing kan wel is best belangrijk gaan worden voor AMD. Raytracing is een bijkomstigheid van de richting waar in gpu makers heen gaan, de marges zitten in de compute markt. Ik denk dat nV & AMD heeft gekeken naar hoe ze compute eigenschappen kunnen inzetten in de spelwereld. Dus gebruiken ze de rekenkracht voor Ray & AI, waarbij je dus de kosten en capaciteiten verdeeld over zowel zakelijke als gaming markt, wat gewoon slim is.

Waarom belangrijk voor AMD: AMD (zie vega) maakt kaarten met veel rekenkracht die niet uit de verf komen met games (2080ti en vega 64 zitten qua single per. Tflops zelfde niveau alleen in gaming is de 2080ti +40% sneller) Ik denk dat nV gehaast de 2080ti's hebben uitgebracht om als eerste op de markt te zijn met de kaarten, zie performance issues, feit dat ontwikkelaars (BF V) weken de tijd hebben gehad om de features te implementeren en het feit dat de kaarten nog niet leverbaar zijn.
AMd & nV weten van elkaar wat ze maken ver voordat de consument dat weet, AMD heeft historisch gezien veel rekenkracht en heeft nu een feature waarbij deze rekenkracht optimaal benut kan worden.

Als AMD in de toekomst ook het energie verbruik weet in te dammen (7nm) dan zal er binnenkort weer concurrentie zijn op de gaming markt. Laat die raytracing maar komen. Om maar weer eens een 'jobs' te gebruiken:
“Some people say, "Give the customers what they want." But that's not my approach. Our job is to figure out what they're going to want before they do. I think Henry Ford once said, "If I'd asked customers what they wanted, they would have told me, 'A faster horse!'" People don't know what they want until you show it to them. That's why I never rely on market research. Our task is to read things that are not yet on the page.”
Als je gaat vragen wat mensen hier willen: 300FPS op 4k of 100FPS 8k or the faster horse.

[Reactie gewijzigd door D0gtag op 8 oktober 2018 11:35]

Mensen zitten nu nV te bashen voor raytracing (voornamelijk het AMD front) maar ray tracing kan wel is best belangrijk gaan worden voor AMD. Raytracing is een bijkomstigheid van de richting waar in gpu makers heen gaan
oh, dat was zeker niet m'n bedoeling!

Ray Tracing/Path tracing is de toekomst, zo simpel is het: rasterization zit helemaal op z'n einde, Crysis was de laatste keer dat we een sprong maakten, en dat is al een dikke 10 jaar geleden, en sindsdien heeft rasterization eigenlijk geen sprongen meer gemaakt, en voor elk klein stapje voorwaarts zijn developers tegen steeds meer problemen opgelopen wegens de limieten van de techniek.

Laat me dus duidelijk zijn: ray tracing is de toekomst, absoluut! En laat me ook duidelijk zijn: RTX is qua rasterisatie en prijs een dikke tegenvaller, en raytracing is nog niet klaar voor prime time, en ik vind eht gesloten karakter van RTX echt een slechte zaak, maar technisch innovatief is nVidia wel, en het is voor het eerst in lange tijd dat we dat zien.

AMD had dan wel al lang een boel innovatief werk gedaan op vlak van real time ray tracing, maar dit was in de pro-markt. nVidia is wel degelijk dé aanzetter tot innovatie op de consumentenmarkt door ray tracing nu te lanceren voor consumenten. Er zijn vermoedens bij analisten dat nVidia de RTX launch gerusht heeft omdat AMD later dit jaar met 7nm Vega kaarten zelf met ray tracing voor consumenten wil komen. Dat haal jij nu ook aan, maar persoonlijk ben ik niet overtuigd: Vega 7nm lijkt geen consumentenproduct te worden want ik zie geen enkele indicatie van AMD uit, het nieuws van de tweede Polaris refresh lijkt voor mij net het tegendeel aan te wijzen.
Ik heb echter graag ongelijk: ik zou graag Vega 64 rekenkracht hebben (zeker nu ik net een FreeSync monitor heb), maar dan met wat lager verbruik.
If I'd asked customers what they wanted, they would have told me, 'A faster horse!'" (...) Als je gaat vragen wat mensen hier willen: 300FPS op 4k of 100FPS 8k or the faster horse.
Ik vind dit een bullshit vergelijking: het is simpelweg een feit dat een hoge resolutie en framerate van minimaal 60 fps een goede game ervaring geeft. Niemand vraagt om 300 fps, en ik ken amper gamers die serieus 4K willen, laat staan 8K. Wat ik wel vraag, is om niet naar een fucking slideshow aan 30 fps te moeten kijken. Die enorme stap terug wil ik niet nemen om simpelweg een (veel) mooier beeld te krijgen dankzij ray tracing: RTX kan momenteel, met de allerduurste GPU, niet eens 1080p/60fps aan. Dat is voor mij het minimum voor een goede game ervaring, zeker als je zo een dure GPU koopt. En eigenlijk wil ik persoonlijk dan 1440p/60fps. Dat vind ik neit meer dan redelijk, en dat je dat wegzet met de karikatuur "mensen denken dat ze 8K/100FPS willen, wat een idioten! Mensen weten niet wat ze willen!" vind ik kortzichtig.

Om naar je 'faster horses' analogie te wijzen: RTX is momenteel alsof je een paard vervangt door een auto die slechts 10 kmpu kan rijden. Ja, de auto is de toekomst, ja het rijcomfort is beter, maar zolang hij te traag is blijf ik mijn paard gebruiken. die tweede of derde generatie auto echter, die even snel als een paard kan, daarmee wordt het pas interessant. Een merkbaar enorme stap terug wil simpelweg niemand.

[Reactie gewijzigd door kiang op 8 oktober 2018 11:34]

Ik vind dit een bullshit vergelijking: het is simpelweg een feit dat een hoge resolutie en framerate van minimaal 60 fps een goede game ervaring geeft. Niemand vraagt om 300 fps, en ik ken amper gamers die serieus 4K willen, laat staan 8K. Wat ik wel vraag, is om niet naar een fucking slideshow aan 30 fps te moeten kijken. Die enorme stap terug wil ik niet nemen om simpelweg een (veel) mooier beeld te krijgen dankzij ray tracing: RTX kan momenteel, met de allerduurste GPU, niet eens 1080p/60fps aan. Dat is voor mij het minimum voor een goede game ervaring, zeker als je zo een dure GPU koopt. En eigenlijk wil ik persoonlijk dan 1440p/60fps. Dat vind ik neit meer dan redelijk, en dat je dat wegzet met de karikatuur "mensen denken dat ze 8K/100FPS willen, wat een idioten! Mensen weten niet wat ze willen!" vind ik kortzichtig.

Om naar je 'faster horses' analogie te wijzen: RTX is momenteel alsof je een paard vervangt door een auto die slechts 10 kmpu kan rijden. Ja, de auto is de toekomst, ja het rijcomfort is beter, maar zolang hij te traag is blijf ik mijn paard gebruiken. die tweede of derde generatie auto echter, die even snel als een paard kan, daarmee wordt het pas interessant. Een merkbaar enorme stap terug wil simpelweg niemand.
Ik zeg dit niet als reactie op jouw post, eerder op de reacties van andere RTX/nV posts (zie. Wat de algemene mening was/veel gehoorde reactie: "Je hebt nu niks aan RTX ik zie liever hogere FPS"
Of mensen zien de benchmarks van de 2080ti en heeft 'maar' 20% meer fps dan de vorige generatie, RTX cores en tensor cores dragen niet bij tot die FPS maar iedereen heeft het alleen maar over de 20% toename in FPS. Terwijl juist die RTX een grote stap voorwaarts is.
Ik zeg ook niet dat hoge FPS geen nut heeft maar boven de 100 begint het sterk af te nemen, sommige zweren dan nog bij 144 maar dan neemt het waarneembare verschil sterk af tot niet waarneembaar.
Ik ken amper gamers die serieus 4K willen, laat staan 8K.
ja het rijcomfort is beter, maar zolang hij te traag is blijf ik mijn paard gebruiken
Maar dat is het punt jij vergelijkt nu snelheid en zegt ik blijf bij mijn paard (en moet je dan als autofabrikant dan dus een snellere paard maken omdat de consument dat denkt?) , een auto kan langer en grotere afstanden afleggen, is goedkoper in onderhoud, heeft minder zorgen, wordt niet ziek etc. Topsnelheid van de tford was 64 en zijn opvolger 105, tegenwoordig rijden we continue 120.
Als gamers 4k 144FPS konden zonder al te hoge kosten zouden ze echt niet op 1080p blijven steken. Als niet professionele gamer vind ik 4k wel fijn en ik wil niet meer terug naar 1080p en ik denk dat als nV aan professionele gamers vraagt wat ze willen, dat er geen RTX was geweest of 4k gaming, tesselation etc.
Ik zeg ook niet dat hoge FPS geen nut heeft maar boven de 100 begint het sterk af te nemen
Ben ik het helemaal mee eens: boven de 100 fps merk ik er niets meer van. Anderen miss wel, maar ik vind 100 echt genoeg.
Vergeet niet dat AMD ook GPUs maakt voor zowel de Sony als de Microsoft consoles. Dus er gebeurd echt wel iets bij die gasten. Het komt wel goed.
AMD heeft al iets met Raytracing. Zij noemen dit Radeon Rays wat werkt op systemen die Opencl 1.2 conform zijn. Dit betekent dat mensen met een APU hier ook baat bij hebben. Het is onderdeel van hun GPUOpen wat de AMD variant is van Gameworks.

Hier meer info: https://gpuopen.com/gaming-product/radeon-rays/
Een refresh van AMD gaat ze niet genoeg brengen om bij Nvidia in de buurt te komen helaas. En met de RTX kaarten heeft Nvidia geen hele grote prestatie stap gemaakt en was dit dus de goudenkans. Intel hebben ze kunnen achterhalen maar bij Nvidia word het toch lastig ben ik bang. Jammer want ik als gamer hoop altijd op concurrentie want het houd beide partijen scherp en geeft ze motivatie te blijven innoveren.
Ik denk dat er meer 570’s verkocht worden dan 2080ti’s
Ik denk dat er meer 570’s verkocht worden dan 2080ti’s
Dat zou best nog eens tegen kunnen vallen aangezien de 570 helemaal niet voor komt op de steam charts: https://store.steampowered.com/hwsurvey/videocard/ Dan kun je een discussie houden over hoe representatief de steam charts zijn voor de verkoopcijfers, echter totaal niet vermelden geeft toch wel aan dat de kaart niet populair is onder gamers. Het zou mij niet verbazen als over 2-3 maanden de 2xxx serie inclusief de 2080 Ti wel een notering op de steam charts krijgen. Vergis je niet de 1080 Ti staat op de 11e plek.

Overigens is het natuurlijk wel zo dat er meer midrange kaarten worden verkocht. De top 4 bestaat dan ook niet voor niets uit de 1060, 1050 ti, 1050 en de 960.

[Reactie gewijzigd door sdk1985 op 8 oktober 2018 13:51]

De userbenchmark vergelijking is treffend denk ik als je het over aandeel AMD midrange GPUs hebt. En dan niet de percentages, maar de aantallen. Dit zet dat kul-argument 'AMD pakt die midrange' toch wel even in een ander daglicht:

*Shocking* vond ik het eerlijk gezegd... en ik was al overtuigd dat AMD"s strategie niet ging werken, maar dan nog:
http://gpu.userbenchmark....-vs-AMD-RX-570/3639vs3924

344.000 versus 8000 tests (!!)
En zelfs als je alleen de 1060 6GB neerzet tegenover zowel de RX 550, 560, 570 én 580 dan kom je nog met moeite op een 85/15 verhouding ten gunste van de 1060.

Maar, zeggen AMD fans dan, dit was ook maar een refresh. OK. De RX 480
http://gpu.userbenchmark....-vs-AMD-RX-480/3639vs3634

344.000 versus 95.000...

Al met al komt AMD opgeteld met de RX 4xx én de RX 5xx lijn, dus ALLE GPUs op de midrange sinds Polaris, nét aan de helft van het aantal verkochte 1060 6GBs. Pak je de 3GB erbij, dan is het nog een stuk minder dan de helft.

Ik denk dan ook dat Nvidia meer x70 - x80 en x80ti kaarten wegzet dan AMD met zijn hele midrange. Alle cijfers wijzen die kant op. Jon Peddie Research laat ook elk jaar weer zien dat hoewel PC krimpt, gaming groeit en binnen gaming er een sterke beweging richting de high-end is.

[Reactie gewijzigd door Vayra op 8 oktober 2018 14:24]

Er is nog een derde manier en dat is via de omzet. AMD maakt het hierin wel lastig omdat computing & graphics sinds een aantal jaar bij elkaar wordt opgeteld. Heel concreet kun je daardoor niet zijn over hoe het nu echt met Radeon gaat. Echter worden tijdens de zogenaamde conference calls met investeerders weleens vragen gesteld. Daarin werd vorig jaar aangegeven dat de groei die AMD heeft gerealiseerd op de computing & graphics tak volledig wordt toegeschreven aan het succes van Zen. Dat impliceert dat de cryptoboom bij Radeon geen omzetstijging heeft gecreëerd. Later werd dit dan weer ook half bevestigd doordat er werd gesteld dat het einde van de crypte vraag ook weinig invloed op de omzet zou hebben. Met andere woorden AMD heeft sinds Polaris X units geproduceerd en is dat aantal blijven produceren gedurende de crypto boom.


Ondertussen zie je bij Nvidia dat ze van 800 miljoen per kwartaal naar meer dan 3 miljard per kwartaal zijn gegroeid. Nu is Nvidia wat duurder maar dat zegt ook wat over het volume.

Maar goed het zou voor iedereen beter zijn als AMD de cijfers van Radeon gewoon open en eerlijk publiceert. Dus inclusief omzet en (operationele) winst. Dan hoeven we minder koffiedik te kijken om uitspraken te doen over hoe het bij AMD gaat.

[Reactie gewijzigd door sdk1985 op 8 oktober 2018 17:43]

Is dat niet meer OEMs , weet niet of de diy builds er ver van afwijken
Ja die hele hype rond high end kaarten gaat nergens over, leuk voor YouTubers om een beetje mee te klooien, voor de rest zijn de aantallen echt een heel klein deel van de markt.
Echter baseren heel veel consumenten hun aankopen wel op welke halo-kaart er nu het beste presteert. Voor de meeste mensen zijn AMDs heel interessant, want de prijs-prestatie-verhouding is prima (zo lang er niet actief gehamsterd wordt voor mining), maar toch zie ik ze zelden aanbevolen. Juist deze 570 zit op de sweetspot qua prijs, ze zijn goed genoeg voor games op 1080p (ook met veel opties aan), en stellen verder ook geen gekke eisen aan koeling etc.

Wat dat betreft zou het prettig zijn als er een nieuwe set reviews komt, en een 'refresh' kan daarvoor zorgen.
ik zag vandaag een reclame van AMD op twitter voor een rx 570 met 3 games waarvan een de nieuwe assassins creed voor 150 dollar, echt een bizar goeie deal als je die game toch al wou. https://twitter.com/Radeon/status/1049011548012908544

[Reactie gewijzigd door t link op 8 oktober 2018 09:25]

Ja die ze zijn gek op die mail in rebates in de states, dit is idd een insane deal.
Heel veel consumenten bouwen geen PC's zelf. Die kopen een laptop of (zelden) een prefab PC. Lijkt me toch dat ze hele andere criteria hebben dan het merk op de GPU die er in zit zoals prijs, gewicht, uiterlijk etc.

Consumenten die het verschil weten tussen AMD en nVidia zijn er niet super veel lijkt me.
Het ging mij er meer om dat nu nvidia met hun nieuwe lijn weinig prestatie winst boeken en AMD met een nieuwe kaart dichter bij kon komen. Maar ze hebben nog geen echte nieuwe kaart en blijf de prestaties in feiten gelijk aan wat het was. Dat de high end kaarten minder marketshare hebben is logisch maar een AMD kaart die de 1080ti kan bij benen voor een zachtere prijs zou natuurlijk perfect zijn voor gamers.
Zolang de kaart 1080p/60 kan doen bij hedendaags DX12 games is er eigenlijk niet meer nodig. Dat is het segment waar volumes gedraaid worden en waar nog goede winsten te behalen zijn.

Ook stuk goedkoper om te ontwikkelen.

Zou me niks verbazen als AMD prima omzet draait op hun GPU divisie vanwege consoles en deze mid range kaarten en het wel prima vind dat nVidia het topsegment domineert.
En meer 1060s dan 570s.. (denk ik).

Financieel doet nV het extreem goed.
Dat doet niet ter zake. Zodra je niet meer mee kan komen in de top-end is het een aflopende zaak en is de stap naar herstel steeds een stukje groter. Verder is het een beproefd principe dat die halo-producten voor extra verkopen in je hele product range zorgen. En dan is er nog de marge - die is laag op de midrange. En: de midrange van vandaag, is de low-end van morgen. Maw er zit geen toekomst in. De enige reden dat AMD weer met iets nieuws kan komen is vanwege een die shrink. Da's toch wel heel, heel erg triest.

Ik zou zeggen kijk naar het marktaandeel en je ziet hoe goed het gaat met een midrange aanbod. Nvidia kan met duurdere producten meer volume wegzetten en heeft daarbovenop nog een high end die de concurrent niet eens kan maken.

[Reactie gewijzigd door Vayra op 8 oktober 2018 10:07]

http://gpu.userbenchmark....4027vs3924#pricesenttable

Grappig, had het zelf niet verwacht dat de 570 lijn zo enorm zou stijgen. Het kan denk ik nog wel even duren voordat de 2080 de 570 voorbij gaat.

Ik hoop trouwens wel dat ze met een duidelijke stukje extra naam komen zodat het niet al te verwarrend wordt of je nou een nieuwe of een oude pakt.
Dit is ook nog eens een vertekend beeld denk ik - dit gaat over market share bij mensen die benchmarks delen met userbenchmark, iets wat inherent naar de high end toe leunt.

Veel mensen die een value/budget GPU kopen gaan minder snel zelf benchmarks uitvoeren dan iemand die meer dan 500 euro kan en wil besteden aan een enkele component van zijn computer.
Valt wel mee hoor, 2080 heeft al 1700, de Ti een stuk minder verwegen de beschikbaarheid.

Maar je weet dat je hiermee de 2080 TI ~ 800 pounds vs 200 pounds vergelijkt? zit een verschil in. Dan zou dit eerlijker zijn: http://gpu.userbenchmark....-vs-AMD-RX-570/3639vs3924
Maar je weet dat je hiermee de 2080 TI ~ 800 pounds vs 200 pounds vergelijkt? zit een verschil in. Dan zou dit eerlijker zijn: http://gpu.userbenchmark....-vs-AMD-RX-570/3639vs3924
Weet ik, is een wereld van verschil. Ben zelf, helaas, van het groene team naar het rode team gewisseld i.v.m. freesync.
Het doel van deze refresh is natuurlijk ook niet om in de buurt te komen van RTX. Daarvoor is AMD bezig met Navi.

Deze refresh is hoofdzakelijk voor het midden segment, waar AMD volgens mij al de beste keus was.
Dat zeiden we 3 jaar geleden ook over Vega, helaas is dat ook niet zo gegaan :P Vega56 en 64 presteren opzich prima, maar powerdraw en efficiency legt het helaas af, om over de prijs nog maar niet te beginnen :(
Er is/was genoeg mis met Vega. Vooral dat AMD teveel op performance heeft gelet en daardoor was de powerdraw veel te hoog... Nu kan je dat zelf heel goed verminderen door te undervolten, maar dat moet gewoon out of the box goed werken.

Prijs vind ik niet dat je bij AMD kunt neerleggen. Launchprijzen waren eigenlijk wel prima, maar daar had AMD ook voor gezorgd. Maar toen het launchwindow voorbij was... zorgde de mininghype voor debiele prijzen. Maar daar had Nvidia ook last van.
"Undervolten" moet je echter vaak ook combineren met "underclocking" - zeker voor miners. Wat je feitelijk ziet is dat AMD met de 570 een prima mid-range kaart heeft gemaakt, met een goede power/performance ratio, om die vervolgens af-fabriek te overclocken. Dat is funest voor die power/perfomance ratio, maar AMD moest wel om de concurrentie met de 1070 aan te gaan.
Eeuhm. De 570 moet je niet tegenover de 1070 plaatsen.... Het is niet omdat ze beiden eindigen met 70 dat ze concurrentie van elkaar zijn :)
Hoezo? Dat staat toch voor een verplichte (minimum) refresh rate van 70FPS bij een vastgelegde resolutie,
bij een vastgelegde benchmark (of stukje uit een game), én door een onafhankelijk bureau getest en gecertificeerd ;)

Goh, dat zou het kiezen simpel maken!
De top end markt is leuk voor marketing maar is slechts 1% of 2% van de verkopen. Juist in de mid range worden veel kaarten verkocht. de 1060 is een van de populairste kaarten en daar een goede concurrent tegenover zetten is dus geen slecht idee.
De top end markt is leuk voor marketing maar is slechts 1% of 2% van de verkopen. Juist in de mid range worden veel kaarten verkocht. de 1060 is een van de populairste kaarten
Één van de redenen van het feit dat de 1060 goed verkoopt zijn de prestaties van de high-end kaarten.
Zoals ik aangaf is de top-end leuk voor marketing doeleinden en verkoopt daardoor de mid-range ook beter maar zelfs zonder dat valt er veel te halen in de mid-range als je naar marktaandeel kijkt.
Ik ben juist heel benieuwd naar deze refresh. Mijn full HD monitor houd ik nog wel een paar jaar, en daarvoor is zo'n kaart perfect.
Bij techspot hebben zij forza 4 gereviewed:
https://www.techspot.com/...horizon-4-gpu-benchmarks/
Daar is te zien dat het verschil tussen RTX2080ti (11GB)en de RX vega 64 LC (8GB) maar 18 frames is,
op 1080p Ultra 2xMSAA op 4K is dit wel opgelopen tot 25 frames. Maar in mijn ogen niet een onwijze achterstand t.o.v. de RTX kaart. Sterker nog valt de RTX kaart juist tegen. Het is wel één spel, maar maakt wel inzichtelijk dat qua hardware/technologie de RX Vega geen slechte kaart is. Het probleem lijkt 'm meer bij de developers te liggen.
Bij techspot hebben zij forza 4 gereviewed:
https://www.techspot.com/...horizon-4-gpu-benchmarks/
Daar is te zien dat het verschil tussen RTX2080ti (11GB)en de RX vega 64 LC (8GB) maar 18 frames is,
op 1080p Ultra 2xMSAA op 4K is dit wel opgelopen tot 25 frames. Maar in mijn ogen niet een onwijze achterstand t.o.v. de RTX kaart. Sterker nog valt de RTX kaart juist tegen. Het is wel één spel, maar maakt wel inzichtelijk dat qua hardware/technologie de RX Vega geen slechte kaart is. Het probleem lijkt 'm meer bij de developers te liggen.
Dat argument werkt toch twee kanten op. Wellicht is er niet geoptimaliseerd voor RTX. Wie zal het zeggen...

Primaire probleem van Vega zijn en blijven de productie kosten en de beperkte aantallen die beschikbaar zijn voor verkoop. In eerste instantie zouden er uberhaupt geen custom kaarten komen, puur omdat AMD richting AIB al had aangegeven dat het een beperkte oplage werd en het dus niet rendabel was om een custom kaart te gaan ontwikkelen.

[Reactie gewijzigd door sdk1985 op 8 oktober 2018 17:46]

True, maar het viel de reviewers op. En het ontkracht de stelling dat de architectuur van AMD dusdanig slechter is dan die van NVIDIA, en dus zouden achterlopen op NVIDIA.
RTX kaarten heeft Nvidia geen hele grote prestatie stap gemaakt
Zo groot is die prestatie stap anders niet, eigenlijk heeft alleen de 2080TI een soort van grote stap gemaakt, maar lang niet groot genoeg om de prijs te rechtvaardigen imo

de 2080 heeft nagenoeg dezelfde prestaties als een 1080TI voor 100/150 euro meer
als je een hevig overclockte 1080TI pakt is die vaak zelfs sneller dan de 2080 voor minder geld.

ik zie het zelf nog wel positief in voor AMD, zal nog wel een tijd duren maar ik denk dat ze wel weer terug komen, bij CPU's had ook niemand verwacht dat ze een grootmacht als Intel de hak konden zetten
Dat zeg ik toch ook ?
whoops ik las een hele grote stap, mijn fout

Het is zo jammer dat je in een aantal games echt de power van AMD kaarten kan zien en dat zelf de oude AMD kaarten dicht bij de 2xxx serie van Nvidia kan komen, helaas is het maar bij zo weinig spellen
De AMD RX 570 kostte bij release ongeveer 200 euro, dus ik verwacht bij deze opvolger ook zoiets.

Ergens wel opvallend dat Intel zoveel moeite heeft met produceren op 10nm en AMD al bezig is met 7 nm.
*TSMC is bezig met 7nm en vooralsnog is er geen pijl te trekken op de werkelijke beschikbaarheid van 7nm producten in de nabije toekomst. Eén ding is zeker: er zijn veel kapers op de kust. Er is dan ook goede reden dat 7nm Vega geen gaming kaart wordt. Simpelweg te duur.

Verder is Intel's 10nm eigenlijk stiekem een stukje 'kleiner' dan TSMC 7nm.
Marketing.

[Reactie gewijzigd door Vayra op 8 oktober 2018 08:13]

Het is inderdaad marketing, maar stiekem is intel zijn 10nm een stukje groter: https://www.semiwiki.com/...l-10nm-gf-7nm-update.html

Trouwens, als we semiaccurate mogen geloven (en dat mag je meestal wel doen) is intel zijn 10nm een 10/12 nm hybride geworden.

En in de nabije toekomst is er weldegelijke en pijl te trekken op de beschikbaarheid van 7nm ! AMD heeft officieel gezegd dat vega 7nm instinct in 2018 beschikbaar komt en begin 2019 Rome.

De soc van de nieuwe iphone en huawei is trouwens reeds 7nm.
Dat dus inderdaad. En Intel kan pas eind 2019 op 10nm leveren... op zijn vroegst.

Ik ben altijd een Intel / Nvidea fan geweest, maar de laatste tijd wordt AMD steeds aantrekkelijker qua prijs.
Het is inderdaad marketing, maar stiekem is intel zijn 10nm een stukje groter: https://www.semiwiki.com/...l-10nm-gf-7nm-update.html
Ik denk dat dat precies de goede term is: Intel's 10nm proces is ietsjes groter dan de andere 7nm processen. Om precies te zijn is hun SRAM cel 15% groter (oppervlakte, 2D). Voor een 1-dimensionale maat moet je dat dus halveren; Intel's 10nm proces loopt 7.5% achter op de 7nm processen.

En wat betreft "als we semiaccurate mogen geloven" - je linkt naar een artikel wat uitlegt waarom Global Foundries succes gaat hebben op 7nm. Inmiddels weten we dat GF er niet eens aan gaat beginnen.
De link slaat op de grootteverschillen van de nodes.

Hier is de link naar semiaccurate: https://www.semiaccurate....m-to-get-it-out-the-door/
Niet om te bashen. Maar ik hoor/lees dit veel vaker. Hoe zit dit precies? Wanneer mag je iets 12nm of 7nm noemen en ligt dit vast of mag iedereen gewoon wat roepen?
Je mag iets noemen zoals je wilt, daarom klopt er geen hout meer van, ook niet bij Intel. Het is niet zo dat de hele CPU op 14, 10 of 7nm is gemaakt, maar als je geluk hebt enkele 'elementen'. Het meeste is nog een factor 2 of 3 (of meer) groter...

Er komt vast iemand die hier met meer detail op in zal gaan ;)

[Reactie gewijzigd door Vayra op 8 oktober 2018 08:25]

Ik meen me te herinneren dat ze die naamgeving af laten hangen van de kleinste componenten in de chip
Die conventies stammen nog uit de tijd dat de lithografie de afmetingen beperkte tot micrometers. Ik herinner me nog goed de stap naar "sub-micron". Op IC schaal zijn micrometers groot - het blijft allemaal vrij klassieke natuurkunde.

Inmiddels kunnen we dus structuren maken van 7nm, dankzij ASML's EUV proces (iets wat we vroeger nog gewoon "zachte rontgenstraling" noemden, maar dat klinkt marketing-technisch niet zo geweldig. Zacht én radioactief :X ). Het probleem is nu dat we een heleboel structuren wel 7 nm kunnen maken, maar dan werken ze niet simpelweg meer. Je ziet dan ook dat een groot aantal lagen van van die 7nm chips helemaal niet met ASML's 7 nm proces worden gemaakt!
Dat klopt niet, TSMC 7nm zal kleiner zijn dan Intel 10nm. Niet in verhouding met de getallen, maar het wordt het kleinste proces tot nog toe. Verder zal TSMC EUV-lthografie inzetten, terwijl Intel immersielithografie gebruikt, waardoor het proces op die manier ook geavanceerder is.
TSMC zet pas euv in bij de 2e gen ofwel 7nm+
Verder is Intel's 10nm eigenlijk stiekem een stukje 'kleiner' dan TSMC 7nm. Marketing.
Misschien loopt Intel alsnog voor op TSMC. Who knows.
Verder is Intel's 10nm eigenlijk stiekem een stukje 'kleiner' dan TSMC 7nm.
zoals gezegd TSMC's 7nm is marginaal kleiner (maar ligt er ook weer aan wat je meet)

Maar dat was tegenover het originele 10nm plan dat intel had. Dat kreeg intel echter niet van de grond dus hebben ze het op de schop gegooid, en daarover hebben ze nog niks losgelaten. Dat zou zomaar wat groter kunnen uitvallen.

En zelfs over het originele plan zei intel dat het niet beter zou zijn als 14nm+++++ wat kloksnelheid betreft.
Het herontwerp zal daar geen verbetering in gebracht hebben. Intel heeft 10nm vooral nodig om grotere server chips te kunnen produceren.
zoals gezegd TSMC's 7nm is marginaal kleiner (maar ligt er ook weer aan wat je meet)
Totaal aantal transistors / die size? ;)
welke die? wat zit er op? logica? cache/geheugen? I/O? een mix van alles?
zo ja in welke verhouding? ect

Het antwoord op die vragen zou bepalen welke kleiner of groter zou zijn geweest.
De dies van concrete processoren, je vergelijkt dan dus processoren en niet zozeer productieprocessen.
Dat is geen realistische vergelijking, omdat Intel geen processoren maakt in het TSMC proces, en AMD geen processoren in het Intel proces. Je hebt daar dus nooit een concrete vergelijking tussen 1 ontwerp op 2 processen.

Nu kun je wel realistisch een AMD quad-core desktop CPU vergelijken met een Intel quad-core, maar dat is dus een stukje minder concreet.
OK - weer wat geleerd, of mijn info is oud. Dat kan best!
Heb je een bron?
Naar ik weet is Intel 10nm nog net een klein beetje groter dan die van TSMC.

https://forums.anandtech....-iedm-2017.2523567/page-8

Overigens bijna te verwaarlozen, met het grote verschil dat de 7nm al een tijdlang al worden geproduceerd.
De AMD RX 570 kostte bij release ongeveer 200 euro, dus ik verwacht bij deze opvolger ook zoiets.

Ergens wel opvallend dat Intel zoveel moeite heeft met produceren op 10nm en AMD al bezig is met 7 nm.
An sich is dat niet zo opvallend want Global Foundries zijn de fabrieken die vroeger van AMD waren en die hebben 7nm volledig opgeven. Het is eerder lovenswaardig dat het bij TSMC zo goed lijkt te gaan.
Heerlijk AMD.
Ik ga echt zo'n kaart halen. Goed voor mijn portemonnee!!!
Ik ben benieuwd wat het vermogen zal zijn van deze kaart. Tot nog toe heb ik nog nooit een kaart gehad, die meer dan 75 Watt trekt. Ik doe graag zuinig met stroom. Waarschijnlijk sla ik deze kaart dan ook over. Ik kijk wel uit naar een vervanging voor mijn RX460 om Hellblade: Senua's Sacrifice te kunnen spelen, maar vind een RX570 teveel gebruiken. Zal de kaart van dit gerucht op 12 nm een zuiniger kaart worden, of zal ik toch beter m'n geld in m'n zak kunnen houden voor 7 nm? En komt er een opvolger voor de RX460? (Qua verbruik was de RX560 eigenlijk niet eens een opvolger: deze had net als de RX570 ineens een extra voedingskabel nodig, waar de RX460 al zijn benodigde stroom uit het PCI-slot kon halen).

[Reactie gewijzigd door FairPCsPlease op 8 oktober 2018 09:24]

De schaal verkleining zal een beetje besparing opleveren.
Maar dat gebruiken ze om de kaarten hoger te kunnen klokken om meer performance te krijgen.
Het uiteindelijk verbruik zal ongeveer gelijk blijven, alleen de performance per watt zal iets omhoog gaan.
Je houdt vooral jezelf voor de gek. Volgens deze review is de RX560 idle 5 watt zuiniger en in games zelfs 10 watt.

https://www.gamersnexus.n...review-vs-gtx-1050/page-2
Die Sapphire kende ik nog niet, de merken die ik destijds gezien heb, hadden een extra powerconnector op de R560 kaarten. Overigens is de RX560 een te kleine sprong voorwaarts t.o.v. de RX460 om het materiaal-gebruik van een RX560 kaart te rechtvaardigen, als ik die zou kopen. Dat is teveel zonde van het milieu.

Overigens is gamen natuurlijk sowieso geen milieuvriendelijke hobby, maar in elk geval rijd ik geen auto, vlieg ik nooit, eet ik voornamelijk vegetarisch en grootste impact van al: heb ik ervoor gekozen geen kinderen te krijgen (verwekken). Tech kopen is de enige uitspatting die ik me veroorloof.

[Reactie gewijzigd door FairPCsPlease op 9 oktober 2018 11:30]

We leven inmiddels in 2018, niet 2008. En ooit van de GTX480 gehoord?
Ja klopt, en in 2018 is Pascal voor een gelijk TDP nog altijd een heel stuk sneller...

Wat heeft een GTX480 hiermee te maken? Koop jij nog Fermi tegenwoordig? Het is inderdaad geen 2008 nee, het is handig om up to date te blijven als het om kennis van GPUs gaat. Dingen veranderen weleens...

[Reactie gewijzigd door Vayra op 8 oktober 2018 14:05]

Een GTX1050 zou volgens mij wel meer prestatie/watt leveren, maar ik boycot nVidia vanwege de ondermijnende praktijken als Gameworks en PhysX waarmee ze hun best doen de concurrentie te ondermijnen door het propageren van software in games die niets anders doet dan de kaarten van AMD slechter te laten draaien op games die het implementeren. Daar wil ik niet aan meebetalen, zulke smerige praktijken. Dus ga ik voor de zuinigste AMD kaart.

Neither trolling nor clueless dus: er is voor mij meer dat meetelt.

P.S.: de kaart die ik had vóór mijn RX460, namelijk de Radeon HD6670, was ook een AMD kaart met een gunstige performance/watt voor zijn tijd, ik kon er goed op gamen met een TDP van minder dan 75 Watt.

[Reactie gewijzigd door FairPCsPlease op 9 oktober 2018 12:03]

Mantle en trueaudio van amd gemist? Als je principieel wil doen dan moet je een AMD kaart kopen van voor het tijdperk van Mantle :).

[Reactie gewijzigd door sdk1985 op 11 oktober 2018 19:10]

Inderdaad gemist. Ik zie op Wikipedia dat Mantle een rol speelde tussen de HD7000 serie en de RX200 serie. In die tijd heb ik helemaal niet naar graphic card nieuws omgekeken omdat ik nog volop plezier van mijn HD 6670 had. Pas twee jaar terug ben ik het weer gaan volgen, toen RX400 eraan kwam. En toen veel gelezen over nVidia's praktijken die ik hierboven noemde.
Dit is wat mij betreft weer een voorbeeld van hoe amd geld laat verdampen... verlaag gewoon de prijs van je 580 en dan heb je prima competitie voor de gtx 1060.
Waarom een hele nieuwe kaart de markt op slingeren als hij met wat hogere clocks ongeveer even snel gaat zijn als de 580.

Tenzij het echt fors sneller gaat zijn is het gewoon een kansloos product behalve voor echte amd fans die meer om amd geven dan om prestatie per euro.

Nvidia kan daarnaast ook zeer makkelijk met een snellere kaart komen mocht hij sneller zijn als de 1060 of simpelweg de 1060ti prijs omlaag gooien en amd de vinger geven.
Ze kunnen beter wat research in de vega chip stoppen en dat beest zuiniger en sneller maken dan een gpu updaten zonder echt voordeel voor amd zelf.
AMD doet dit niet om een betere kaart uit te brengen.
Ik denk dat ze gewoon goedkoper kunnen produceren op 12nm.
Nauwelijks ontwikkelingskosten.
Die verbetering komt bijna gratis mee en klinkt leuk in de pers.

[Reactie gewijzigd door SCS2 op 9 oktober 2018 22:17]

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee