3DMark-resultaten van Radeon VII-videokaart verschijnen online

Er zijn benchmarkresultaten van AMD's nieuwe Radeon VII-videokaart online verschenen. In 3DMark Fire Strike scoort de kaart ongeveer gelijk aan de GeForce RTX 2080 van Nvidia, in de 3DMark Time Spy-test is de Radeon VII langzamer.

Twitter-gebruiker Tum Apisak vat de scores van de Radeon VII-videokaart in 3DMark samen. Hij vond de resultaten in de 3DMark-database. De Radeon VII wordt daar nog aangegeven als een 'onbekende videokaart'. In alle gevallen wordt gekeken naar de score van de graphics-benchmark, niet de overall-score.

In de 3DMark Fire Strike-benchmark is de Radeon VII goed voor 27.587 punten. Daarmee is de kaart marginaal sneller dan de GeForce RTX 2080 FE, die in de review van Tweakers in diezelfde test 27.229 punten haalt. Ook in Fire Strike Ultra is de AMD-kaart iets sneller met 6871 punten, tegenover 6596 punten voor de RTX 2080 FE.

Volgens de resultaten heeft de Radeon VII-kaart meer moeite met de 3DMark Time Spy-benchmark. De score is daarin 8700 punten, terwijl een RTX 2080 FE in die test 10.335 punten haalt. De 3DMark-scores zijn vermoedelijk afkomstig van reviewers, de Radeon VII komt pas uit op 7 februari.

Twitter-gebruiker Komachi merkte ook Radeon VII-resultaten op in de Final Fantasy XV-benchmark. Daarin scoort de kaart lager dan de RTX 2080, maar hoger dan de RTX 2070. In de benchmark op de hoogste kwaliteit doet de Radeon-kaart het veel slechter, met een score die onder die van de GTX 1070 Ti uitkomt. De FFXV-benchmark is echter niet representatief omdat deze optimalisaties heeft voor Nvidia-kaarten.

AMD kondigde de Radeon VII-videokaart begin januari aan op de CES. De kaart maakt gebruik van een Vega 20-gpu die op 7nm wordt gemaakt en heeft 16GB hbm2. De kaart is gebaseerd op de Instinct Mi 50-accelerator die vorig jaar werd gepresenteerd. De adviesprijs is 699 dollar.

3DMark Fire Strike 3DMark Fire Strike Ultra 3DMark Time Spy
Radeon VII 27.587 6871 8700
RTX 2080 FE 27.229 6596 10.335
GTX 1080 Ti 27.785 6835 9404
RX Vega 64 23.083 5450 7254

AMD Radeon VII

Door Julian Huijbregts

Nieuwsredacteur

29-01-2019 • 17:31

111

Reacties (111)

111
110
51
10
1
44
Wijzig sortering
te vroeg, te onbetrouwbare getallen, geen conclusies mogelijk,
het zou handig zijn om de datum van de entry ergens te vinden, geeft tenminste aan of het van afgelopen jaar was of recent (het is recent gevonden, maar is het ook recent gebenchmarked?).

[edit] gevonden https://www.3dmark.com/compare/fs/18067351/fs/18071203#
januari 28 2019 , driver: 25.20.15015.2003

lollig ook , dat mensen de VII met 1080 TI vergelijken, allebij een introductie prijs van 699.
terwijl de 2080 FE 799 als introductie prijs heeft.
zou je eigenlijk zowel Nvidia als AMD moeten afschieten.

ik wacht wel op de dikke data-backed reviews, as usual....

[Reactie gewijzigd door ripzor op 22 juli 2024 23:53]

Mee eens en ik vind prijs van VII niet zo spannend... (eerder :z )

2080 FE €799
VII €699 (Deze kaart+prijs zal met "beperkte" voorraad verkochte worden anders zal ze ruzie krijgen met Asus,Gigabyte enzo)

Gigabyte GeForce GTX 1080 WINDFORCE OC 8G €551
Gigabyte VII kost ?? €699 + €60-120.
Gigabyte GeForce RTX 2080 Windforce 8G €735

[Reactie gewijzigd door icegodd op 22 juli 2024 23:53]

stabiele fps telt meer dan 99% fps, en vergeet niet dat deze gpuook gericht is op content creators, dus compute telt ook, niet alleen fps. denk trouwens ook aan stroomverbruik en lawaai die zo'n kaart kan geven.
Zoals verwacht toch ?
Dat Radeon 7 zou presteren tussen de 2080 en de 1080 TI.
Helemaal gelijk, niets meer en niets minder. Maar dan met voordeel van 16GB HBM voor [ook] content creators.

En dan hebben we de worst-case test voor de Radeons nu ook mee gehad met 3DMark Fire Strike en FFXV-benchmark. Voor de gene die nu onder een rots vandaan komen:

3DMark heeft openlijk aangegeven (of bezwijkt onder druk van Nvidia) dat men voor Nvidia's "Pre-Emtion" in hun benchmark hebben gekozen jaren geleden. En negeert Parallel Asynchronous volkomen(!) Iets wat AMD al sinds 2011 in hun kaarten ingebakken heeft. Met andere woorden: 3DMark is een zeer goede afspiegeling voor Nvidia kaarten. Maar één van de sterkste wapens van Radeons in de vorm van Asynchronous Compute wordt niet gebruikt in de huidige benches.

Er gaan nu wel verhalen rond dat de volgende testsuite van 3DMark wel synchronous Compute wordt ondersteund. Dit komt door Nvidia's Turing. want die heeft nu eindelijk ook een soort Parallel Asynchronous in de vorm van Tensor and RT cores.
Niet echt. Dit is niet 30% sneller dan een Vega 64. Laat staan een Vega 64 non-reference. Met een goeie Vega 64 LC variant haal je zo 27000> gpu score firestrike.
Klopt, is ook maar één sample. Zou hier niet teveel waarde aan hechten.
Volgens mij stond er vega 56 niet 64 ;)
Wow hij scored lager dan een Geforce GTX 1080 Ti in 3DMark Time Spy, dat is echt niet zo best.

Had toch echt rond de Geforce RTX 2080 verwacht.
Eens, als AMD zegt dat hij zo snel als een 2080 is, dan was het geen vreemde aanname om er van uit te gaan dat dit het best case scenario is, en hij in andere benchmarks iets daaronder eindigt.
Ik zit voor mijn upgrade zwaar te twijfelen tussen de RTX2080 en deze Radeon VII. Kan iemand mij vertellen of op basis van deze benchmark gegevens deze AMD ook beter is in VR toepassingen. Ik lees nl op een bepaalde site, dat die AMD met HBM2 geheugen in theorie veel beter zou presteren in VR dan de RTX2080 met GDDR6 geheugen.
De enige vereiste voor VR is veel FPS halen, vooral dan niet te veel dips. Voor de rest staat dat los van de onderliggende technologieën. Dat geheugen enzo heeft er niets mee te maken, het is gewoon de kaart met de beste FPS, niet zozeer de kaart met de grootste geheugenbandbreedte... ( toch niet per definitie )
Ik zie niet zo één twee drie waarom HBM een groot verschil bij VR moet maken. Mijn R9 Fury doet het ook niet bovengemiddeld ofzo bij VR, en die heeft ook HBM (en doet het bagger bij belabberd geoptimaliseerde spellen die zijn VRAM voltrekken, maar goed, daar zal deze geen last van hebben).

Ik weet wel dat als je naar de toekomst kijkt Nvidia opties erin heeft voor foveated rendering (geen flauw idee of AMD dat ook heeft, dus misschien is dit een irrelevant punt, misschien niet, ik weet het simpelweg niet). En bij Nvidia krijg je Virtuallink connector. Wat uiteindelijk ook niet het grootste punt natuurlijk is, of je uiteindelijk je headset in één of twee connectoren moet steken (relevanter bij een laptop dan een desktop imo). Tegelijk heb je dan wel een dedicated USB poort voor je VR, en geen potentiele bandbreedte problemen.
Ik zit voorlopig nog prima met mijn 1080Ti zie ik al. Wel blij dat AMD een inhaalslag aan het maken is, goed voor de markt.
Probleem is alleen dat nVidia zo $150 kan zakken in prijs en dat AMD deze kaart voor onder de productieprijs ongeveer verkoopt. Als puntje bij paaltje komt kan nVidia dus gewoon prijzen verlagen. Verder lager stroomverbruik en wat extra features (DXR, DLSS, nu nog vrijwel nutteloos) dus dan is de keuze snel gemaakt voor de gamer. Tja 16GB HBM2 tov 8GB DDR6 kan een voordeel worden in 4K gaming, dat zou dan de afweging vóór de Radeon VII zijn.
Vooral in 4k/8k videobewerking is 16GB handig!
Dat is begrijpelijk, maar hoe klein is die markt? AMD zet al groot in met hun professionele kaarten (Hoe heten die dingen, M50 II en M60 II ofzo?) en deze Vega VII is gewoon een bonusje voor de hardcore AMD liefhebber/gamers. Ik heb het gevoel dat de mensen die 4K, laat staan 8K, video's bewerken niet met heel veel zijn.
Klopt velen hebben al gezien dat het een afgeleide is van de M50, maar dan een consumenten versie voor ongeveer de helft van prijs? De markt waar content creators de zelfde "rig" voor gaming gebruiken is wellicht beperkt, maar wel een leuke kaart, weer een beetje andere insteek dan normaal vind ik.
Dus ben erg benieuwd naar een volledige review.
Maar ik zit ook niet te springen om een nieuwe GPU, heb een 1080ti aangeschaft en ben daar erg tevreden mee. De meerprijs van een nieuwe GPU t.o.v. prestatie winst is het deze generatie gewoon niet waard vind ik.
Klopt velen hebben al gezien dat het een afgeleide is van de M50, maar dan een consumenten versie voor ongeveer de helft van prijs? De markt waar content creators de zelfde "rig" voor gaming gebruiken is wellicht beperkt, maar wel een leuke kaart, weer een beetje andere insteek dan normaal vind ik.
Dus ben erg benieuwd naar een volledige review.
Maar ik zit ook niet te springen om een nieuwe GPU, heb een 1080ti aangeschaft en ben daar erg tevreden mee. De meerprijs van een nieuwe GPU t.o.v. prestatie winst is het deze generatie gewoon niet waard vind ik.
Precies, ook de rede (en de absurde prijs natuurlijk) dat ik niet de Geforce RTX 2080 (Ti) kocht, en nu wacht op de Geforce RTX 3080 (Ti).
Is dat zo? Meeste effecten/snijden etc. doe je via de CPU. De videokaart is dan alleen een framebuffer. 4k framebuffer is dan iets van 26Mb aan data. Waar is die extra sloot goed voor?
Die prijsdaling is veel te ruim ingeschat... De rtx kaarten kosten gewoon veel meer dan pascal gtx kaarten kosten om te maken. Deze generatie hebben we aanbeide kanten te maken met dure grafische kaarten omdat er heel veel dure hardware op gestoken wordt. Die extra rt en tensor cores bij nvidia en hbm2 bij AMD. Daarbij kom je met 150 dollar daling in de knoei met de rest van je stack. Van de 2070 heb ik (gamersnexus video) begrepen dat deze niet veel goedkoper geproduceerd kunnen worden dan 530
Wellicht dat de RTX cores nog erg duur zijn omdat het proces nieuw is? Het lijkt mij sterk dat nVidia kaarten lanceert zonder grote marges, dat doen ze altijd als ze weinig tegenstand hebben. De GTX680 was ook ooit voor €550 gelaunched en 9 maanden later was die ~€300 wegens tegenstand van AMD.
Ik verwacht altijd dat nVidia nog een flinke mep achter de hand heeft.
Ik ben benieuwd naar wat GamersNexus zei, maar het zou mij niks verbazen als de RTX2060 naar ~€300, RTX2070 naar ~€425 en RTX2080 naar ~€600 kan zonder dat nVidia verlies gaat draaien.
Het ging om deze video. Daarnaast is het niet alleen het process maar ook de grote van de verschillende dies en kosten voor gddr (6 is wel weer wat duurder). Zo is de die van de 1080 314 mm2 en die van de 2080 545 mm2. Daarbij dus dat je van de 2080 volledig werkende TU104 chips moet hebben om er wat mee te kunnen, en dat ze inderdaad op een nieuwer procede zitten. Als je je er een beetje in gaat verdiepen zit er wel wat in de prijs steigingen van de afgelopen jaren op die manier. Maar vooral met RTX vraag ik mij af of de extra technologie die we tot onze beschikking krijgen wel echt de moeite waard is.

Verder onderzoek dan nog wel even er bij ook, 980ti die size was 601 mm2, dus dit zegt ook niet alles... hoewel het uitschakkelen van onderdelen hierop mogelijk simpeler was dan afhankelijk zijn van verschillende cores waar je er genoeg van over moet houden...

Maar... Ik ben het verder opzich wel met je eens dat Nvidia wel echt veel betere margins weet te vangen op haar kaarten, en dat ze daar best nog wel wat van zouden kunnen afsnoepen om kaarten aantrekkerlijker te kunnen maken dan die van AMD. Hoewel ze dan dus misschien eerder weer een 2070ti er tegen aan zullen gooien denk ik...
Datzelfde geldt toch ook voor AMD, nieuw productieproces etc? Is geen argument dat je alleen voor Nvidia kan gebruiken.
Je kan mij niet wijsmaken dat een 2080ti dubbel zo duur zou zijn om te maken als een 1080ti. Het probleem is dat Nvidia daar nog geen concurrentie krijgt en die prijs dus nog niet omlaag hoeft, wat wel jammer is
De die size van de 2080ti is echter wel dicht bij twee keer zo groot! 471 tegen 754. Daarbij komt dat je bij steeds grotere dies ook een veel groter probleem met defects krijgt. Maar nee, ook ik geloof niet dat de 2080ti twee keer zo duur is om te maken en dat zeker op die high end kaarten er heel veel margin is. Tussen de 1070 en 2070 geloof ik echter eerder dat daar wel eens een 150 dollar kosten verschil in zou kunnen zitten. Full die zonder defect nodig hebben tegen een cut down kaart (15 van de 20 van de gp 104) dat brengt gewoon echt wel extra kosten met zich mee

Edit. Nu schiet me het feit dat ze ze voor deze prijs ook echt lang niet meer zo goed verkopen ook te binnen (last quarter earnings die heel erg tegen vielen) Wordt dus wel interessant wat de prijzen gaan doen.

[Reactie gewijzigd door sonnemans op 22 juli 2024 23:53]

inderdaad, Had ook al gelezen dat ze minder winst maken. Apple bleef ook nog meer omzet maken maar dat viel dit jaar tegen. Komt waarschijnlijk doordat de prijs kwaliteit heel erg ruk is. Ik geloof echt wel dat die 2070 iets duurder is maar geen 150. bovendien zal daar ook nog wel een marge op hebben gezeten. Het zou me niet verbazen als bepaalde prijzen nog wel flink gaan droppen. Ik heb het niet voor alle 2080 gecheckt maar ik weet dat de Aorus 2080 100 euro goedkoper is dan in oktober. Nou is dat 3 maanden en weet ik niet of alle 2080 dat hebben gehad of dat het komt door de wisselvallige resultaten van de kaart. Mochten mensen het minder volgen, de Aorus 2080 is veel gedoe om doordat er veel wisselvallige resultaten zijn van de onderste regionen tot absolute top. Maar de prijzen nemen zeker wel af en Nvidia moet iets gaan doen in hun prijs kwaliteit
Fatsoenlijk werkende freesync is ook wel een dingetje.
Dit is geen nieuwe kaart. Het is de Instinct MI50, maar met display outs en misschien wat kleine veranderingen/verbeteringen. Vega II is niets meer dan een die-shrink van de al bestaande vega gpu's, die op hun beurt ook met name voor instinct's bedoeld zijn.
idd, zit met een 980ti die vanwege nieuw scherm (1080 > 1440 en 60hz > 144hz) het nogal zwaar heeft maar enige kaarten die kwa kracht ik graag zou hebben die in aanmerking komen zijn een 1080ti of RTX 2080 die me toch eigenlijk net te duur zijn, hopen dat nvidia met een "goedkope" gtx 1170 of 1180 komt anders wachten op RTX 3060/3070 zouden snel genoeg moeten zijn voor mijn wensen en toch nie 2x zo duur als me 980ti >.>

sta wel open voor een amd kaart als hij goedkoop genoeg word en toch mijn doelen haalt (min 72 fps op 1440p high/ultra settings) moet nu al vaak terug zakken richting medium/high voor meestal 72fps)

en voor die wat het afvragen natuurlijk wil ik 144fps maar ik besta niet uit 99% goud dus....72 will do.

[Reactie gewijzigd door anub1s17 op 22 juli 2024 23:53]

Ik haal met een vega 56 toch mooi 144 fps op 1440p in bf v met high/sommige ultra settings ;) Goed genoeg om tot navi en 4k vol te houden.
Dus net zo snel als een bijna twee jaar oude kaart en duurder? :?
Huh wat? De GTX 2080 is geen 2 jaar oud.

Het is juist bizar dat AMD van jarenlang een beetje achter Nvidia aanhobbelen, nu in 1,5-2,5 generatie weer on par is.

Ik ben er eigenlijk best wel van onder de indruk hoe AMD even 2 partijen een sprint voor hun geld geven, die beide een veel hogere omzet hebben dan AMD in totaal heeft. Het is bijna ongehoord en het voelt een beetje surreal. Hoe dan? Hoe kan zo'n klein bedrijfje 2 van zulke reuzen compleet in bedwang houden. Nu vermoed ik dat achter de schermen MS een erg belangrijke rol heeft gespeeld.
Ik proef hier nogal AMD fanboy-isme. Laten we wel wezen, het is duidelijk dat @Cogency de 1080TI bedoelt. Die in Time Spy zelfs aanzienlijk hoger scoort dan de Radeon VII, echt een knappe prestatie vind ik het ook weer niet en ben wel benieuwd naar stroomverbruik en warmteproductie.

Concurrentie is altijd goed en helaas zijn de 1080ti's niet meer te krijgen. Hopelijk zorgt dit ervoor dat de 2080 (ti's) in prijs gaan zakken, want die zijn absurd momenteel. Gelukkig hier vanwege GPU-rendering al een aantal (5) 1080ti's (11gb vram is eigenlijk een must) maar ben flink aan het balen dat ik de boot heb gemist toen die 1080ti's tijdelijk erg cheap te krijgen waren, waar de 2080ti nu 1300,- kost.

Dus in die zin, ik gun AMD het echt van harte. Maar tot nu toe is er op gpu-vlak niet heel veel bewezen de laatste jaren.

Edit: Wauw. Er wordt hier weer eens gemodereerd op gevoel in plaats van on-topic reageren.

Ik bedoelde het fanboy niet als een belediging, maar juist alsof er door een roze bril gekeken wordt. Erg indrukwekkend voor de prijs is de kaart niet. De 1080ti en 2080 lijken voor nu nog beter te presteren. Ik zou zelf ook hopen op een super AMD kaart. Hoe goedkoper en meer concurrentie, hoe beter.

En @Richo999 dat zijn nogal wat aannames die je doet. Ik zeg dus juist dat 1300 absurd is. Verder gebruik ik gpus voor zakelijke doeleinden. Mocht AMD dus met een geweldig kaart komen, graag. Dan wordt die 2080ti hopelijk wat goedkoper.

En @Avathar je kunt dan wellicht zeggen dat het cherrypicken is, maar het is wel de benchmark waar een aanzienlijk verschil in zit. De rest gaat redelijk gelijk op, en zijn oudere benchmarks.

[Reactie gewijzigd door Inverted_World op 22 juli 2024 23:53]

Het is veel te vroeg om op zijn nvidia's te juichen. Dat de resultaten goed zijn in fire strike is leuk. Dat ze in time spy tegen vallen is jammer... maar zou zo maar door de driver kunnen komen. De kaart is nog niet eens uit.

Dus reken op een score tussen de 2080 en 2070 in. Dat is waar AMD op mikt en dat lijkt ook gewoon gehaald te worden.

Het is echt typisch om te cherry picken "oe er is een slecht resultaat dan gebruik ik dat als maatstaf" beetje zielig.

@Inverted_World Ik raadt je aan om naar adoredtv te kijken en dan vooral de vids waarin hij laat zien hoe corrupt de hardware en software review,... maar ook benchmark sectoren zijn.
Dat is punt 1.
Punt 2 is... het is een beta versie van de kaart, een engineering sample met beta drivers. Je kan nog niks definitiefs zeggen. Ook niet als het een modernere benchmark is.

Overigens is het zo dat AMD het zelf al een stop gap measure noemt. Tot Navi, dat zou een concurrerende GPU moeten zijn.

[Reactie gewijzigd door Avathar op 22 juli 2024 23:53]

Ah, verklaard een hoop.

Maar in 2/3 testen is AMD dus on par, 1tje niet. Met Time Spy lijkt AMD al wat langer moeite te hebben.

AMD heeft de afgelopen paar jaar eigenlijk alleen maar achter gelopen. Als ze van een jarenlange 3/3 achterstand dit nu terug hebben weten te werken naar 1/3, dan is dat een enorme stap in de goede richting. En dat van een bedrijf met een veel kleinere omzet, RnD en dit ook nog eens opdeelt. Nvidia haar omzet is bijna 2x zo hoog en doet vrijwel enkel GPUs.

Als je dat allemaal bij elkaar telt is het gewoon indrukwekkend hoe ze Nvidia bijblijven en nu weer kaarten neer weten te zetten die op 2 velden nu on par is. Nu AMD weer een beetje mee kan vechten in dat top segment, gaat ze dat voordelen opleveren in de hele markt (hoeveel mensen wel niet Nvidia kopen omdat ze bovenaan staan). En als die balans in de GPU markt weer een beetje terugkeert, is dat goed voor ons allemaal.

En zodra AMD weer een beetje op niveau komt, zal ik mijn fanboyisme weer een paar tandjes omlaag schroeven. Voor nu verdienen ze als underdog IMO elk steuntje wat ze kunnen gebruiken.
Volgens de laatste geruchten is de bom (bill of materials) van de kaart $650 terwijl de MSRP $699 is. Dit houdt in dat AMD geen winst op deze kaart kan maken. Immers AIB, distributeur, retail, enz willen ook winst maken dus die MSRP is lang niet het bedrag dat AMD ontvangt. Zelfs niet als ze het, net als Nvidia, direct via de eigen site zouden verkopen.

https://fudzilla.com/news...n-vii-production-cost-650

Deze kostprijs past goed bij het eerdere gerucht dat er sprake is van een zeer beperkte oplage van 5000 stuks zonder custom kaarten: https://www.tweaktown.com...e-custom-cards/index.html Van een kaart waar je x honderd dollar verlies op draait ga je er natuurlijk geen miljoen van produceren.

Met al die hardware kunnen ze volgens deze figuur net een kaart bijhouden die waarschijnlijk nog niet eens de helft kost om te produceren. Nvidia heeft gisteren immers laten zien dat ze hun gross margin opnieuw hebben verbeterd, nu tot 61% (!). Operating income zit op 34%.

Dus nee dit is alles behalve indrukwekkend. In vergelijking met Nvidia is veel hardware voor een klein resultaat.

Begrijp me niet verkeerd het is goed dat AMD in ieder geval *iets* in high-end uitbrengt, al is het maar om de naam te redden. Echter indrukwekkend is niet van toepassing op dit product. (Op Polaris wat mij betreft bijvoorbeeld wel).

[Reactie gewijzigd door sdk1985 op 22 juli 2024 23:53]

Aanames? Is volgens mij normaal bij AMD, hun drivers zijn niet optimaal bij release en ze hebben maanden nodig voor software tweaks. What Nvidia bij de release meestal redelijk in orde heeft moet AMD nog fixen, de hardware is meestal dus beter dan hun groene tegenhanger, maar de software slechter.
Zakelijk gezien is die 16 GB HBM dan niet beter in veel gevallen?
Het blijft een aanname tot dat is terug te zien in benchmarks. En helaas ondersteunen de meeste render engines geen AMD, anders was het interessant.

De reden dat ik dus vooral juist hoop dat AMD iets geweldigs neer zet is omdat gpu rendering maar een kleine markt is, Gaming veel groter. Concurrentie op dat vlak is dus gewoon top. Ik heb nu alleen een beetje het Vega gevoel, in de benchmarks komen ze in de buurt of gelijk aan de vorige generatie high end Nvidia. Zolang het maar niet zoals toen een stroomverbruik heeft wat aanzienlijk hoger ligt. Ah well, we zullen het zien.
Het is vrij logisch dat veel render engines kiezen om eerst te optimaliseren voor Nvidia kaarten. Vooral als het om game render engines gaat. Bij de Steam hardware survey, heeft NVidia al ruim 2 jaar een marktaandeel van +/- 75%. AMD (15%) heeft zelfs marktaandeel verloren aan Intel (10%).. Ik verwacht eigenlijk niet dat die statistieken bij platformen zoals Origin of UPlay heel anders zullen zijn..

Overigens hoeft AMD helemaal geen kaart te leveren welke kan concurreren met de RTX2080TI. AMD moet vooral concurreren op de RTX2060 en RTX2070 kaarten.

Ik zou op zich best wel eens de GPU acceleratie statistieken van Adobe of Autocad willen zien..
Logisch wellicht, maar zelf gebruiken ze als argument: CUDA. Ongetwijfeld valt daar omheen te werken, maar goed. Voor VFX / 3D animatie is AMD in ieder geval een no-go.
Fanboy? Noem het wat je wilt, daarom mag jij nu lekker €1300 betalen voor een gpu die eigenlijk nog geen €800 waard mag zijn :+ .
Die rtx 2080 wordt niet veel sneller, maar die Radeon VII word zeer wss nog sneller binnen jaar van release door driver optimalisatie en dan is ie opeens stuk sneller dan de 2080 voor dezelfde prijs of minder.
Fanboy? Noem het wat je wilt, daarom mag jij nu lekker €1300 betalen voor een gpu die eigenlijk nog geen €800 waard mag zijn :+ .
Die rtx 2080 wordt niet veel sneller, maar die Radeon VII word zeer wss nog sneller binnen jaar van release door driver optimalisatie en dan is ie opeens stuk sneller dan de 2080 voor dezelfde prijs of minder.
Haha, ja na een jaar na dat Radeon VII uit komt, komt Nvidia al weer bijna met de Geforce RTX 3080, so what's your poin't ?!?!
Hopelijk wordt de 2080ti iets goedkoper. Zelf vind ik nu dat het opvalt dat de prijs van de 2080 en de premium 2070 zo dicht bij elkaar liggen dat je bijna geforceerd bent of een goedkopere 2070 te kopen of een 2080 dan direct. Hetzelfde geldt voor de 2060 premium ten opzichte van de 2070. Alleen de 2080ti staat echt compleet los maar die is dus echt belachelijk geprijsd. En ik ben het met je eens dat de resultaten voor de prijs nou niet echt schokkend zijn. Stel het waren 2070 prijzen was het een ander verhaal maar voor nu is wat AMD laat zien op grafisch gebied gewoon echt wel te weinig
De GTX1080ti is wel ongeveer 2 jaar oud though, daar ging het over ;)
Ik geloof dat iedereen wel door heeft waar op gedoeld wordt, maar waarom zou je de Radeon VII vergelijken met een topkaart van Nvidia van 2 jaar terug (en de kaart daarop aanvallen) i.p.v. de veel meer voor de hand liggende vergelijking tussen Radeon VII en RTX2080?
Immers, nu wordt AMD eenzijdig verweten dat ze niet tegen de 1080TI opkunnen terwijl NVidia dat zelf niet eens kan (de 1080TI was immers fors goedkoper en in meerdere scenario's gewoonweg sneller dan de 2080)! Kortom: de vergelijking is vergezocht en eenzijdig, en komt bij velen daarom een beetje gekleurd over.

We hebben nog niet alle feiten binnen, maar als ik mijn kristallen bol laat extrapoleren komen ik tot het volgende:
- Radeon VII heeft vergelijkbare prijs als de 2080, en vergelijkbare prestaties (ik vermoed dat de Radeon over het algemeen iets slechter presteert tegen een lagere prijs, omdat de 2080 kaarten pas starten vanaf 700+€ maar dan heb je echt B merk blowerkaarten en de betere referentiemodellen zijn veel duurder). Dus ik ben benieuwd naar de europrijzen en beschikbaarheid van de Radeon.
- Radeon heeft geen Raytracing of DLSS (persoonlijk heb ik 0,0 interesse in beide features maar daar ga ik nu even verder niet op in).
- Radeon zal zeer waarschijnlijk een hoger verbruik hebben. Ik ben heel benieuwd hoeveel dit uiteindelijk zal gaan schelen.
- Ik ben heel benieuwd in welke scenario's 16GB HBM2 een toegevoegde waarde gaat hebben. In veel scenario's zal 16GB overkill zijn, maar tegelijkertijd is de 8GB van de 2080 -voor een kaart van die klasse- ook wel erg karig (waarschijnlijk dat daarom de 1080TI ook af en toe beter scoort met zijn 11GB). Daarentegen hebben content creators vaak ook weer voordeel van de CUDA cores op de Nvidia kaarten.

Maar zoals ik al zei: laten we lekker de reviews en definitieve prijs afwachten. Ik ben al een hele tijd in de markt voor een nieuwe videokaart maar op dit moment vind ik dat beide kampen niks interessants te bieden hebben qua prijs/prestatie in het hogere segment. Dus v.w.b. de VII/2080 snap ik niet zo goed waarom iemand Nvidia nu naar boven zou praten en AMD naar beneden, of vice versa.

[Reactie gewijzigd door Top-Rob op 22 juli 2024 23:53]

Waarom zou je AMD's nieuwe topkaart niet mogen vergelijken met Nvidia's (inmiddels vorige generatie) topkaart wanneer ze overduidelijk niet mee kunnen met Nvidia's huidige generatie?

Je koopt een RTX 2080 niet over een 1080Ti vanwege het prestatieverschil (want verwaarloosbaar die paar procent), maar juist vanwege features zoals raytracing. Aangezien de Radeon VII, evenmin als de 1080Ti nieuwe features als raytracing heeft is een vergelijking met deze twee jaar oude kaart volledig gerechtvaardigd.

Lang verhaal kort: AMD kan twee jaar later hetzelfde als Nvidia destijds met de 1080Ti, oftewel: AMD loopt qua high end gpu's vooralsnog twee jaar achter. Das een feit.

Indien AMD nu met een kaart zou komen die kan tippen (zowel qua features als snelheid) aan de 2080Ti, maar dan voor bijvoorbeeld een euro of 1000, hadden ze mijn respect afgedwongen en had ik die kaart meteen gekocht.
Wat betreft de noodzaak voor 16g vram, merk ik dat als ik shadow of the Tombraider 4K Ultra settings speel op mijn Gigabyte Aorus RTX 2080ti er continue 8gb vram gebufferd wordt wegens de zware Smaa 4x textures. Daar zal op termijn 16gb handig zijn. En on topic qua radeon 7 krijg ik het gevoel dat als die kaart echt 20-30% sneller is dan de vega 64, twee radeon 7's in crossfire ruim over de 100fps komt wat betreft de AAA games als je de benchmarks van de vega 64 crossfire extrapoleert. Damn had ik moeten wachten op de introductie van de radeon 7. Had ik shadow of the Tombraider op 4k ultra settings op de radeon 7 in crossfire met +100fps kunnen spelen voor de prijs van mijn 2080ti kaart ipv 60 FPS. Het leven kent teveel keuzes.

[Reactie gewijzigd door Andromedakimchi op 22 juli 2024 23:53]

De 1080ti is 2 jaar oud...
Maar dan heeft nVidia dus ook een kaart uitgebracht die net zo snel als een 1080ti is, en evenveel kost.. Twee jaar later. Je snapt zijn punt toch wel?
Ja, dat doet NVIDIA omdat ze geen concurrentie hebben. Dat betekent niet dat het goed is. Had juist gehoopt dat AMD alles weer recht zou zetten.
Nee hoor, de RTX serie was gewoon nagenoeg een flop. Die hebben ze echt niet expres laten tegenvallen. Hun aandeel de afgelopen maanden laat dit ook duidelijk zien. Het ding is niet heel veel sneller, en het verkoopt niet, ze hebben hun omzet met 500 miljoen gemist en investeerders springen van boord.

Als het hun bedoeling was geweest, hadden ze een dikke marge gehad en gezwommen in de winst.

De enige reden dat AMD de VII uitbrengt - die eigenlijk allang gecancelled was - is omdat nVidia's RTX2070 en 2080 gewoon tegenvielen en omdat Navi nog even gaat duren. Nee, tuurlijk is die VII geen fantastische kaart. Maar hij is net zo snel en duur als nVidia's aanbod, naar het schijnt.

[Reactie gewijzigd door Boxman op 22 juli 2024 23:53]

Kijk maar eens naar de chips die gebruikt worden. Nvidia heeft gewoon alles een model opgeschoven. De 2080ti had gewoon de 2080 moeten zijn. De 2080 had de 2060 moeten zijn etc.
Het fiscale plaatje past gewoon niet in jouw hypothese. Als ze alles 'een plekje hebben opgeschoven' zouden ze per kaart een dikke 500$ extra winst maken. Toch hebben ze de beroerdste fiscale resultaten in tijden laten zien gisteren - ze hebben alle revenue targets dik dik dik gemist. Ze kunnen de 2080ti niet verkopen voor 799$, dan maken ze gewoon dik verlies.

Als wat jij zegt waar zou zijn, hadden ze moeten bulken van de winst. In tegenstelling daartoe, valt de verkoop enorm tegen en kunnen ze de prijzen blijkbaar niet verlagen om zo hun omzet targets te halen.

Je hebt het gewoon mis.

[Reactie gewijzigd door Boxman op 22 juli 2024 23:53]

Ze maken ook veel meer winst op de 2080ti. Alleen koopt niemand ze, door de prijs en omdat RTX redelijk geflopt is. Of geloof jij dat de productiekosten van een 2080ti boven de $1000 ligt? Zelfs met 750mm2.

[Reactie gewijzigd door DoubleYouPee op 22 juli 2024 23:53]

Welk punt wil je maken? Als je product niet verkoopt omdat je winstmarge te groot is, verklein je die zodat je je omzet-targets haalt. Niemand heeft wat aan gigantische marges als je dan maar enkele kaarten verkoopt. Blijkbaar zit er geen rek in de prijs, anders hadden ze die wel bijgesteld. In plaats daarvan komen ze met paniekerige statements dat hun Q4 omzet totaal geflopt is vanwege tegenvallende RTX verkoop, met een kelderend aandeel als gevolg omdat dat betekent dat nVidia met onverkochte voorraad blijft zitten die in het ergste geval met verlies weg moet. Dat doen ze allemaal niet voor de grap omdat er 'geen concurrentie' is. Het is ze deze gen gewoon niet gelukt.

Dat is heel wat anders dan "alles is 1 naam opgeschoven vanwege 'geen concurrentie'", want in dat geval had de prijs van een 2080ti makkelijk door de helft gekund zonder winstgevendheid te veliezen en waren ze als warme broodjes over de toonbank gegaan.

[Reactie gewijzigd door Boxman op 22 juli 2024 23:53]

Ja, dat doet NVIDIA omdat ze geen concurrentie hebben. Dat betekent niet dat het goed is. Had juist gehoopt dat AMD alles weer recht zou zetten.
Precies jammer dat veel mensen dat niet begrijpen, de rede dat hun Geforce RTX 2080 tegen vallen qua snelheid is omdat AMD al jaren niks snellers uitbrengen dan de snelste van Nvidia, of 14 maanden later pas komen met kaarten die net zo snel waren als de Geforce GTX 1080, zo als de Radeon RX Vega 64, maar dan net zo duur bijna waren als de Geforce GTX 1080Ti.
Ik snap de -1 niet echt hier. De kaart is ongeveer even snel als de 1080Ti. Dat is nou niet bepaald geweldig voor een nieuw model.
Hangt er vanaf wat geprobeerd wordt met de kaart, volgens mij weten we allemaal wel in welk marksegment AMD vooral richt.

In jouw redenering is elke videokaart die nu uitkomt en niet sneller is als de 1080TI niet geweldig... in andere woorden voor jouw is alleen de 2080 en 2080TI een goeie kaart ?
In jouw redenering is elke videokaart die nu uitkomt en niet sneller is als de 1080TI niet geweldig... in andere woorden voor jouw is alleen de 2080 en 2080TI een goeie kaart ?
Dat zeg ik niet, dat maak jij er van. Het gaat om prijs/prestatie. Los van dat is een nieuwe kaart uitbrengen die even snel is als een kaart van 2 jaar terug nou niet bepaald geweldig.
Dat zeg ik niet
Daar komt je opmerking wel op neer...

Als het gaat om prijs/prestatie, dan is het toch wel een geweldige prestatie dat deze kaart €100 tot €200 minder gaat kosten dan de vergelijkbare, op één na hoogste kaart van Nvidia?
Het gaat om prijs/prestatie.
Als het gaat om prijs/prestatie dan vallen alle RTX kaarten boven de 2070 enorm tegen...!

Edit@Pilatus hieronder:
Daar ben ik het mee eens. Beide fabrikanten kunnen het wat mij betreft niet waarmaken op het moment.

[Reactie gewijzigd door Top-Rob op 22 juli 2024 23:53]

Klopt, maar deze AMD kaart ook.
Die is even snel als rtx2080 en kost evenveel als rtx2080.
Met dan dat de rtx potenieel sneller kan zijn in games die al die nieuwe features ondersteunen (met raytracing off natuurlijk). Misschien kunnen we enkel hopen dat Intel volgend jaar effectief een NVIDIA killer op de markt zet. Een vroegere kaart (zie Linus TT) bevatte al zeer mooie technologie.
De RTX 2080 is niet veel sneller dan een 1080ti, maar nu AMD dat scoort dan is het ineens niet bijzonder. Bedenk dat het om een kaart gaat die €100 to €200 minder gaat kosten...

[Reactie gewijzigd door lars_jj op 22 juli 2024 23:53]

Nvidia heeft ook een veeeel groter budget.

Volgens spendeert AMD met hun CPU/GPU R&D net zoveel als de helft van wat Nvidia spendeert aan hun GPU R&D.

AMD heeft niet dezelfde middelen.
Dat kan zo zijn, maar persoonlijk loop ik nou niet echt warm voor een kaart als deze. Opzich knap dat ze zoiets kunnen maken met een beperkt budget, maar als ik ga kijken naar prijs/prestatie is het gewoon geen geweldige kaart en lopen ze 2 jaar achter. Waarom ze dan achterlopen is een ander verhaal, maar de gemiddelde consument gaat daar niet naar kijken.
In absolute zin is een 1080ti/2080 nog steeds best wel snel en de Seven/Vega II dus ook. Maar de enige reden waarom dit product uberhaupt bestaat is dat de 20xx serie, hetzelfde kost als de 10xx serie en geen praktische verbeteringen brengt tov de 10xx (naast rtx en dlss voor de 2 games die er gebruik van maken) en dat navi een issue had die zodanig groot was dat ze een nieuwe revisie nodig hadden. Bron: Adored.

Het is ook geen nieuw product. De R VII is in feite een instinct MI50, met display outs en misschien wat kleine veranderingen/verbeteringen.

[Reactie gewijzigd door B127 op 22 juli 2024 23:53]

Nvidia heeft ook een veeeel groter budget.

Volgens spendeert AMD met hun CPU/GPU R&D net zoveel als de helft van wat Nvidia spendeert aan hun GPU R&D.

AMD heeft niet dezelfde middelen.
Hoe is dat relevant? Voor AMD het bedrijf Ati (Radeon) opkocht hadden Nvidia en Ati een gelijkwaardig R&D budget. Het is de keuze van AMD geweest om hier in te snijden. Nu mogen wel 10 jaar later niet opmerken dat een product tegen valt? Hoe is dat logisch?
Als consument doet het budget van het bedrijf er natuurlijk niet toe, lekker belangrijk. Die wil betaalbaar, prijs/performance, etc..

[Reactie gewijzigd door Cogency op 22 juli 2024 23:53]

TIL: 2080 is 2 jaar oud
Eindelijk weer wat concurrentie in het hogere segment dus.. Hopelijk gaan de prijzen hierdoor ook zakken naar een weer wat betaalbaarder niveau..
Ja de huidige prijzen gaan nergens over, denk je misschien na een paar jaar een oud kaartje kopen zodat alles wat soepeler loopt, betaal je nog 500+ voor een oud model.

Blijf voorlopig nog bij m'n GTX 980.

[Reactie gewijzigd door JDx op 22 juli 2024 23:53]

Ja de huidige prijzen gaan nergens over, denk je misschien na een paar jaar een oud kaartje kopen zodat alles wat soepeler loopt, betaal je nog 500+ voor een oud model.

Blijf voorlopig nog bij m'n GTX 980.
Een GTX 980 heeft toch twee jaar lang op dik 600 euro gestaan? Voor minder geld koop je nu een behoorlijk snellere kaart. Ik schat 25% op techpowerup dus dat is 100/75=+33%.

Begrijp net niet verkeerd ik zie ook liever goedkopere kaarten maar wie in 2014-2016 al bereid was 600 euro neer te leggen voor een gpu heeft nu niet echt wat te klagen lijkt mij. Dat zijn eerder de aanjagers ;). Het wordt vooral even spannend wat er onder de RTX 2060 gaat komen en of AMD dit jaar nog met Navi komt als vervanging van RX 580 tot aan Vega 64.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 23:53]

Ja dat is t probleem, ik heb nu geen 600 euro meer over voor een 2080 dus wilde ik graag een 1080 ofzo voor 350 euro, maar die prijzen zakken dus niet.

Bij de meeste producten is het nieuwe model de prijs van de oude en zakt de prijs van het oude model, hier lijkt dit niet te werken.

[Reactie gewijzigd door JDx op 22 juli 2024 23:53]

Hmm ja sinds een jaar of 6 zie je oude producten vaak verdwijnen in plaats van heel goedkoop worden. Kaarten als de GTX 260 (eerste generatie) had ik voor +- 120 euro omdat de opvolger net iets meer cores had. Dat zie je bijna niet meer.
Ik zou het niet verwachten. Voor een prijs die een fractie lager zal zijn dan van een goedkope RTX2080 (uitgaande van adviesprijs voor deze), krijg je dus waarschijnlijk vergelijkbare tot iets lagere prestaties. Wel waarschijnlijk ten koste van hoger energieverbruik. En ook Freesync is niet echt een argument meer voor deze kaart.

Oftewel als hij fatsoenlijk te krijgen is, dan is het een valide keuze om te maken. Maar tegelijk is hij niet zo geprijsd dat Nvidia zenuwachtig zal worden en prijsverlagingen door moet voeren om relevant te blijven.
Grootste vraag is of de AiB's ook custom versies van de kaart mogen maken. PC bouwers in de hogere segmenten wil vaak ook graag een kaart die er mooi uit ziet/met hun build past.
Ik verheug me hier heel erg op.
Voeding is al vervangen voor een sterkere zodat ik mij RX580 kan gaan vervangen voor een Radeon VII.
Hopelijk komt MSI of Gigabyte snel met een custom variant die goed uit de test komt!
Leuke is dat dit gewoon een aftreksel is van hun accelerator en toch scoort hij nu al beter. Ben wel benieuwed of amd hier oon tensor en rtx achtuge core aan toe gaat voegen in de toekomst, ze zijn nu dan kwa performance dan wel bij maar ze misse nog next gen features
ach, rtx is nu nog maar een niche ding wat niet zo goed werkt. nVidia heeft dat alleen maar gepushed om "bijzonder" te zijn.
Hoezo werkt RTX nou in een keer weer niet,

werkt als een trein. jou verwachting is echter verkeerd.
Als ik 900 euro neer leg voor een kaartje, dan wil ik ook 60 fps halen op zijn minst.

Als ik 100 euro betaal dan verwacht ik minder. Zo simpel is het.

Een auto van 90k is ook beter dan 10k.
en wat FPS betreft dat halen ze ook allemaal 60+

voor je vergelijking bijde autos kunnen 120 op de snelweg , 80 buiten en 50 binnen de bebouwde kom. ze brengen je je beide van en naar je bestemming.

de ene heft alleen wat meer feature aan boord die wat nieuwer zijn dan de andere

[Reactie gewijzigd door Scriptkid op 22 juli 2024 23:53]

Daar heb je het mis. De duurdere kan meer dan 120 op de snelweg, de goedkopere ook. Alleen zal de duurdere harder kunnen dan de goedkopere.

Verwar kunnen niet met mogen.
Maar de kaart is nog niet uit, ze gaan hem nog optimaliseren er komen nog driver updates. Prima competitie naar mijn mening, vooral voor videobewerking.
Netjes van amd. Ik ben echter wel benieuwd naar echte benchmarks over meer verschillende games.

Als de prijs goed is dan kan dit een erg interessante kaart worden.

Op dit item kan niet meer gereageerd worden.