AMD Radeon RX 5700-videokaarten met Navi-gpu en pci-e 4.0 komen in juli uit

AMD brengt in juli zijn videokaarten met Navi-gpu uit. De kaarten komen terecht in de nieuwe Radeon RX 5000-serie en ondersteunen pci-e 4.0. AMD toonde een demo van een RX 5700-videokaart die in de game Strange Brigade 10 procent sneller is dan de GeForce RTX 2070.

Tijdens zijn Computex-keynote gaf AMD de eerste details over de komende Navi-videokaarten. In een korte demo liet AMD zien dat een RX 5700-videokaart in de game Strange Brigade 10 procent sneller is dan een GeForce RTX 2070. Het is niet duidelijk op welke resolutie de game stond en wat de instellingen waren. Hoe de verhoudingen in andere games zijn, is nog niet bekend.

De kaarten in de RX 5000-serie zijn gebaseerd op de nieuwe Navi-architectuur en wordt gemaakt op het 7nm-procedé van TSMC. Technische details over de architectuur heeft AMD nog niet bekendgemaakt, maar volgens de fabrikant zijn de prestaties per kloktik 1,25x beter dan bij de GCN-architectuur en de prestaties per watt zijn met 1,5x toegenomen. Dat is te danken aan een nieuw ontwerp voor de compute units en een vernieuwd multi-level cache-ontwerp.

AMD Navi-videokaarten

Over raytracing werd bij de presentatie niet gesproken en de Navi-kaarten lijken er dan ook geen hardwarematige ondersteuning voor te hebben. Raytracing is wel mogelijk via software. Welk geheugentype de Navi-kaarten krijgen noemde AMD niet bij de presentatie, maar in een persbericht staat dat het om gddr6 gaat. Dat bleek eerder al toen afbeeldingen van een printplaat van een Navi-videokaart verschenen.

Volgens AMD gaat de Navi-architectuur de komende jaren dienen als de fundering voor videokaarten voor gamers. Daarnaast blijven er ook nog GCN-ontwerpen met Vega-gpu verschijnen voor gebruik in datacenters.

AMD heeft nog geen specificaties of prijzen bekendgemaakt van de kaarten in de RX 5000-serie. Dat gaat de fabrikant doen tijdens de E3-gamebeurs, via een eerder aangekondigde livestream. Daarin belooft AMD meerdere videokaarten aan te kondigen. In juli komen de Navi-videokaarten op de markt, maar op welke dag precies is nog niet bekend.

AMD Radeon RX 5700

Door Julian Huijbregts

Nieuwsredacteur

27-05-2019 • 05:24

103

Reacties (103)

103
99
41
3
0
41
Wijzig sortering
Goh wat is er met de Radeon RX 3000 serie gebeurt. Had AMD eindelijk een kans om haar totale productlijn gelijk te trekken. Zodat het elkaar verstrekt.

Dus ook geen RX 680 rebranding dus? Wat mij een rare naam lijkt zo onder de RX 5000.

10% in een AMD favoriete game is geen goed teken. Voor de snelste Navi 10 chip.* Snel afwachten met wat voor kloks AMD dit doet. Al is een simpele rekensom zo te maken. Of gaat er toch snel nog een RX 5800 komen.
*Speculatie
Wat mij een rare naam lijkt zo onder de RX 5000.
Ja, dat vond ik ook al. RX 3000 had gekund vanwege Ryzen 3000, RX 600 had gekund als opvolger van de RX 500 serie, maar RX 5000 lijkt compleet uit het niets gekomen te zijn.
Anoniem: 443119 @NiLSPACE27 mei 2019 08:41
Niet uit het niets, Tweakers heeft de betekenis achter de naam gewoon niet in de artikel opgenomen.
50 --> 50 jaar AMD Anniversary, hier een video van de conference (ik zat net naar te kijken).
https://youtu.be/ZZr7hpkBc-E?t=2m10s
Ah, nu is het inderdaad iets logischer.
Sorry, maar noem het dan de RX 50. Het lijkt nu wel alsof AMD bewust Nvidia in de weg probeert te zitten met de naamgeving. RX 5000 lijkt namelijk bijzonder veel op een opvolger van RTX 2000.
Uiteraard proberen ze dat, RX 5000 klinkt hoger dan RTX 20XX dus voor een leek zal de AMD kaart dan wel beter zijn.
Ja maar... wat moet AMD dan? Een hoger getal is dus niet goed. Volgens dezelfde logica volgens was een lager getal dan ook niet goed geweest... en hetzelfde getal was helemáál uit den boze. Dan vind ik eigenlijk juist dat 5000 hier juist duidelijk ver genoeg vanaf zit om die associatie niet te hoeven maken: zelfs de ongeïnformeerde consument zal toch wel snappen dat bijv. een goedkopere (?) RX 5000 niet 2½ keer zo goed zal zijn als een RTX 2070, en dat puur cijfertjes vergelijken dus geen goede warenvergelijk is.

Overigens... Dit is slechts mijn mening maar als je van 9xx naar 10xx naar 20xx naar 16xx gaat dan is je nummering toch al vogelvrij.

Persoonlijk vind ik al die onnodig hoge getallen trouwens maar onnozel. Maar ja, het zal wel beter verkopen.
Precies dit @Pandanl. Bel een gemiddelde systeemverkoper sales persoon en je krijgt dit soort advies. Linus tech tips heeft daar een prima video serie over gemaakt ($1500 Gaming PC Secret Shopper).
Alles staat of valt met de prijs. 10% minder als een 2070 is helemaal geweldig als je het voor 150 dollar minder kan krijgen bijvoorbeeld

Daarbij is het een nieuwe architectuur. De verhouding tussen de prestaties in deze game en het gemiddelde game kunnen dus weer anders liggen als met de huidige generatie het geval is, positief of negative. Het kan nog alle kanten op.

[Reactie gewijzigd door Countess op 23 juli 2024 07:28]

Ik schat ergens tussen de 350 en 450 euro voor deze kaart. In de buurt van de vega 64 in ieder geval, want zo presteert hij ook (als ik het goed heb tenminste, is een vega 64 ongeveer gelijk aan 2070 - 10%). Waarschijnlijk overigens eerder richting 450 dan 350 want nieuw silicon moet terug verdiend worden en een 2070 kan ook verkocht worden voor 500.

[Reactie gewijzigd door DwarV op 23 juli 2024 07:28]

De geruchten over de prijs van 499 dollar/519 euro vind ik te hoog. We gaan het op de E3 mee maken.

Waar ik nog geen bevredigend antwoord op heb is wat er met de naamgeving/line up. Navi 20 komt pas later. Is dit de nieuwe RX570? Dan zijn de prestaties geweldig. Is dit een nieuwe Vega 56 dan vind ik de prestaties wat teleurstellend.
Ja, dat dacht ik ook. Geen goed vooruitzicht 10% winst bij een AMD gesponsorde game, dat betekend waarschijnlijk gemiddeld 5-10% trager dan een RTX2070 gemiddeld bij de huidige games. Hopelijk zijn de kaarten gunstig geprijsd.
Was bekend dat Navi niet veel was, engineers wilde doorgaan en Navi helemaal vergeten...
(Tip voor meer AMD speculaties: AdoredTV op YouTube)
Thnx, zal 't checken.
Afgelopen weekend zag ik voorbij komen dat nvidia r 3000 gebruik wilde blokkeren, misschien hebben ze gewoon op safe gespeeld daarmee ook
En hoe zou nvidia dat dan kunnen doen hebben? R3000 lijkt me namelijk iets te generiek als naamgeving om zomaar even te gaan claimen.
Nvidia probeert om een trademark op 3080, 4080 en 5080 te krijgen, mogelijk daarom voor iets anders gegaan. Zou ook kunnen dat ze daarom een GPU (chip) lieten zien in plaats van een hele videokaart, omdat hier mogelijk 3080 ofzo op kon staan ( pure speculatie ).

https://nl.hardware.info/...an-voor-3080-4080-en-5080

https://www.overclock3d.n...80_with_a_new_trademark/1
Anoniem: 25604 27 mei 2019 08:09
Mooi. Als de prijs ook nog rond of onder die van de RTX 2060 ook ligt, ben ik om. Dat geëmmer over raytracing... Het is niet eens echt praktisch of alleen mondjesmaat inzetbaar bij de huidige RTX-reeks. Ik zal het niet missen, net zoals ik hairworks ook nooit heb gemist. Ik heb er niet wakker van gelegen dat Geralt of Rivia niet met extra gedetailleerde en bewegende kapsel op zijn paard op mijn scherm rond heeft gehost. Maar ieder z'n ding.
Als beste voorbeeld voor wat raytracing/pathtracing bied, dient deze mod van minecraft. Minecraft is objectief gezien, grafisch niet mooi, maar deze mod maakt er simpelweg iets heel moois van. En stel je dit dan voor bij een game als halflife (of een andere oude game)

Raytracing (pathtracing) is simpelweg de toekomst en bied veel mooiere omgeving en kortere ontwikkelingstijd voor games. Het is geen hairworks..
Minecraft zonder raytracing maar met mods kan er ook al mooi uitzien hoor... Jouw video vergelijken met vanilla Minecraft is niet echt eerlijk.
https://youtu.be/UROt_SJFjTA

Raytracing is misschien wel de toekomst, maar voor mij ligt het ook nog duidelijk daar, in de toekomst. Met de huidige games en hardware heeft het naar mijn mening een te hoge performance impact voor een te kleine boost in graphics. Ja, het is mooi, maar als ik een game speel gaat het me meestal nog niet meer opvallen dan de vermindering in framerate. Dan heb ik dus voor nu ook liever een videokaart die al zijn silicon besteedt aan het verbeteren van die performance in plaats van dat de helft van de chip waar ik voor betaald heb niks staat te doen als ik raytracing toch maar uitzet.
Het punt is, wanneer ga je implementeren, nV heeft er voor gekozen om er mee te beginnen om de toekomst te laten beginnen. Het is niet een kleine boost in graphics, het is een compleet andere manier van renderen, wat grafisch echt fotorealisme kan opleveren op termijn (alle games die er nu zijn maken er alleen deels gebruik van) en nogmaals het maakt game development veel korter. Dus hopelijk meer tijd om de bugs of gameplay te verbeteren (hopelijk leest EA dit ook).
Doordat er mensen wel bereid zijn om dat geld ervoor neer te leggen zal de ontwikkeling doorgaan, want als iedereen zoals jij was en geen rt cores wil komt de toekomst natuurlijk nooit. Zaten we nu nog steeds op 2d. (want 3d haf vroeger exact het zelfde verhaal)
En dat is prima, laat Nvidia dan maar die superdure kaarten bieden voor mensen die graag de allerbeste grafische kwaliteit willen, niks mis mee. Maar er is toch ook niks mis mee als ik een kaart wil die dat niet heeft?
Paar punten hierop:
Het is niet een kleine boost in graphics, het is een compleet andere manier van renderen, wat grafisch echt fotorealisme kan opleveren op termijn
1) Echte raytracing komt grafisch heel dichtbij fotorealisme maar is veel te zwaar voor real time toepassingen zoals games. Daarom heeft Nvidia ingezet op 'trucs' om tot een soort pseudo raytacing te komen. Dit pseudo raytracing gaat ernstig ten koste van het fotorealisme maar is nog steeds heel erg zwaar. Ik wil niet technisch worden, maar vooral zaken als bewegende waterlichamen zullen heel snel artefacts genereren omdat het (te) veel rays gaat kosten om dit te vermijden. Daarom zal het nog een lange tijd maar heel spaarzaam ingezet kunnen worden. Is dit pseudo raytracing het volgende station voor games? Tja, vast wel. Maar het is zeker geen eindstation.
Het maakt game development veel korter.
2) Het tegendeel is waar: op zijn minst zullen voor de eerstkomende paar jaar games die raytracing ondersteunen ook nog de niet raytacing manier van renderen moeten ondersteunen. Oftewel: dubbel werk. Niet alleen omdat voorlopig niet iedereen een raytracing kaart heeft, maar ook omdat in de verdere toekomst niet iedereen bereid zal zijn om heel veel frames in te leveren voor raytracing (en het dus mogelijk bewust uit gaat zetten). En dit is een probleem waarschijnlijk nog heel lang zal gaan spelen; zeker gezien Moore's law al opgedroogd is.
Daarnaast: dat raytracing helemaal niet makkelijk is om te implementeren hebben we wel gezien aan de games die het op dit moment ondersteunen. Er waren issues mee, het duurde langer dan oorspronkelijk geschat om toe te voegen, etc.. Dit zal vast in de toekomst nog wel verbeteren maar goed. Vooralsnog is er niet voor niks weinig animo bij developers om het in hun spel te stoppen en als het echt zo makkelijk was dan zouden ze het nu al echt niet zo massaal laten liggen.
Het punt is, wanneer ga je implementeren, nV heeft er voor gekozen om er mee te beginnen om de toekomst te laten beginnen.
3) Als NVidia hier was om de toekomst te laten beginnen hadden ze geen markups van 60% op hun videokaarten gehad. Dit hindert de adaptatie van raytacing immers enorm. Oftewel: ze hebben gekozen voor hun portemonnee en niet voor de toekomst. Is daar iets mis mee voor een commercieel bedrijf? Absoluut niet. Maar laten we dan ook niet doen alsof ze het beste met de gamer en zijn/haar toekomst voor hebben.
Raytracing- eerder pathtracing, is laten we zeggen - de domme manier- heel intensief. Waar ze nu gebruik van maken is een (hardwarematige) denoising -algoritmen (voor minder rays) en machine learning (ook voor minder rays) om het gebrek aan rays op te vullen. Het is wel degelijk raytracing en niet pseudo raytracing/pathtracing.
Ze hebben een technische manier gevonden om met minder rays meer opgevuld te krijgen. (zoiets als machine learning die met stock foto's beelden kan genereren van iets anders, zelfde idee hierbij, en denoising die van een gespikkeld beeld een vloeiend geheel kan maken).

Het tweede punt: raytracing geeft veel minder werk. (punt) de keuze van een developer om andere platformen te ondersteunen is dan zijn keuze. Maar de eerste xbox of ps met volledige raytracing maakt games die veel sneller gereleased kunnen worden. de non raytracing varianten zullen gewoon later komen.
Het gaat dan om volledige raytracing zonder rasterization of de hybrid die nV op dit moment bied (uit pure noodzaak) een ps of xbox hoeft dat niet en zou in theorie volledig raytracing kunnen bieden. Volgende generatie wordt (als er raytracing inzit) een hybrid oplossing waarbij delen met raytracing worden bereikt. Ook dan hoeven ze veel werk niet te doen (als licht inbakken bij textures, plaatsen en vormgeven) zeker bij openwereld games scheelt dit gewoon enorm veel werk (als je alleen alles een txture hoeft te geven).

Punt 3 is gewoon je eigen interpretatie, ik zeg niet dat nV goed of slecht is (wat overduidelijk wel uit jouw verhaal komt) of bezig is een toekomst visie te creëren. nV had geen keuze dan deze oplossing: Hybrid raytracing. nV probeerd maximaal aan te verdienen en doet het gewoon slim om zo nieuwe technologie te testen. De eerste die volledig raytracing doet zal de toekomstige marktleider worden. Dit kan zowel van amd als nV komen maar onderschat intel niet.
Er is hier nogal wat meer veranderd dan alleen raytracing aan. Hele textures zijn vervangen, specular maps zijn toegevoegd, enzovoort. Je vergelijking gaat hierdoor dus mank.
Dat klopt, maar resource pack alleen bied dit niet. Zoek maar op hoe het eruit ziet met alleen die mods, het ziet er beter uit dan vanilla maar het raytracing element bied visuals die ongeëvenaard zijn.

Maar textures vervangen binnen een game als minecraft, is vrij eenvoudig (vanwege het type game).
Textures in een game als *noem een recente titel* zijn vaak met licht in gebakken (om de illusie te wekken van radiosity, ambient Occlusion en GI) en kosten heel veel tijd om dat goed te krijgen en moeten per level bekeken, ontworpen en aangepast worden. Veel daarvan hoeft niet meer met raytracing.

Er is veel haat omdat nV dit gelanceerd heeft, terwijl juist AMD heel sterk kan worden met raytracing aangezien nV veel beter geoptimaliseerd is voor rasterization (daarom zijn hun kaarten zuiniger en sneller) maar amd heeft heel veel raw potential, op papier was de vega64 (en vaak ook bij opengl toepassingen) sneller dan de 1080ti, we weten allemaal hoe het in games was.
De2080ti (niet te vergelijken in games met vega) heeft fp16 performance van ~27Tflops
Vega64 heeft een fp16 performance van 25Tflops
1080ti heeft 177Gflops.... (nV hield dit laag zodat mensen niet een 1080ti kochten ipv een quadro :P)
(raytracing maakt veel gebruik van fp16)

[Reactie gewijzigd door D0gtag op 23 juli 2024 07:28]

deze vorm van Raytracing is 100% softwarematig en werkt dus ook gewoon op AMD GPU's en heeft dus helemaal niks met DX12 DXR set te maken welke Nvidia's RT cores gebruiken.

De hele hype rondom Raytracing begrijp ik niet we zijn nu een half jaar verder en slechts 1 spel gebruikt het namelijk Battlefield 5 de rest van de handje vol titels is nog niet uit en de vooruitzichten zijn nu niet rooskleurig.

Intels Larabee zou 10 jaar geleden volledig renderen met Raytracing real time en dat is ook niks geworden. Raytracing als een effect mjah zal wel gaan komen maar zo'n snelle vaart als iedereen hier denkt zal het niet gaan lopen. denk nog maar rustig 2-3 generaties verder. Op korte termijn heeft Nvidia's DLSS meer tractie maar dan moet het wel beter geimplementeerd worden als dat Square het in Final Fantasy XV heeft gedaan.
Werkt dus niet op AMD gpu's, had een snelle internet zoektocht je ook kunnen vertellen.
Dit is 100% software matig daarom heb je een 2080ti en een intel i9 nodig om hem rond 60fps te draaien op 1080p.... (werkt alleen nog maar met nV en maakt geen gebruik van de RTX cores hoe krom dat ook klinkt)
Zie seus:
SEUS PTGI is an experimental version of SEUS that includes a totally custom software implementation of ray tracing that does not require an RTX graphics card and will work on any NVIDIA graphics card (though low-end cards may struggle with performance. AMD compatibility is still being worked on)

RTX hardware zorgt er dus voor dat dit efficiënter gaat. Nogmaals, komt er maar niet in.. raytracing is niet een effect, het is een compleet nieuwe manier van renderen. Als de xboxen en ps'en het gaan implementeren gaat het al een stuk sneller. Vooralsnog hebben we alleen nog hybrid solutions rasterization+raytracing. De eerste full raytracing chip is dus een kip en ei verhaal.
De hype rond om raytracing begrijp je niet? dat klinkt als mijn ouders die de hype rond (breedband) internet niet begrepen, nu kan je ze er niet van af trappen.
Iedereen die ooit eens iets gerenderd heeft en de transitie naar raytracing heeft mee gemaakt snapt het wel.
Anoniem: 25604 @D0gtag27 mei 2019 19:17
Misschien of waarschijnlijk. In ieder geval moet je bij ingeschakelde Raytracing in games waar dat standaard ingeschakeld kan worden behoorlijk inleveren in frames. Dat is voor mij niet acceptabel. De (meer)prijs die nu betaald moet worden voor een minder bruikbare hardware feature vind ik zot. €500 + voor een GTX 2070 die kwa performance mijn €300 undervolte Vega 56 niet overtuigend kan verslaan op 1440p vind ik zot. Ik vind onder de 60 frames gamen zot.

[Reactie gewijzigd door Anoniem: 25604 op 23 juli 2024 07:28]

oef, toch nog iemand met gelijkaardige gedachten als mij...

[Reactie gewijzigd door KipCurreh op 23 juli 2024 07:28]

Software raytracing op de ps5 dus.
Dat zie ik voorlopig nog niet gebeuren. Want zelfs met een hardwarematige ondersteuning voor raytracing is de performance hit te groot om het voor een console toe te passen. Ik denk dat console games dit pas in de PS6 gebruiken.
De PS5 krijgt Raytracing, dat is officieel al bevestigd. De Navi chip in de PS5 is ook helemaal custom made gemaakt in samenwerking met Sony. Ik verwacht dus niet dat het hier over een softwarematige oplossing gaat.

Er zijn overigens verschillende versies van Navi: https://nl.hardware.info/...rsteuning-voor-raytracing

[Reactie gewijzigd door Recon24 op 23 juli 2024 07:28]

Raytracing is buiten de enorme hoeveelheid data die moet worden berekent niet heel erg gecompliceerd.
Ik heb het ook over de games. De huidige generatie GPU’s ondersteund al raytracing. Ik denk dat console games het pas bij de ps6 gaan toepassen. Zodat minimaal 4k@30fps mogelijk is.
https://www.theverge.com/...s4-backward-compatibility

Raytracing is gewoon aanwezig, op welke resoluties, framerates en welke technieken ze allemaal gebruiken voor RT is nog niet bekend.
Ik zeg ook niet dat het niet aanwezig is of ondersteund word. Het ligt nog altijd aan de game developers of ze het gaat toepassen. Als de performance hit zo groot is, zodat 4K@30fps niet mogelijk is gaan ze dat natuurlijk niet in hun game implementeren. Want je wil geen game op 4k of 8k spelen met 5-10fps. De ondersteuning is er nu ook al, de huidige GPU's ondersteunen het al.

[Reactie gewijzigd door Crp op 23 juli 2024 07:28]

Je eerste post was dan wel redelijk onduidelijk. Daar lijkt het net alsof je zegt dat het er beide niet gaat zijn en pas van de "PS6". Tuurlijk zal niet iedereen RT gebruiken, maar je moet RT niet gelijk linken aan Nvidia. Er zijn veel meer mogelijkheden om RT efficient te laten werken.

Het is nu alleen nog maar giswerk.
Ik link ook niet specifiek aan Nvidia, er is al eerder aangetoond dat raytracing op AMD hardware mogelijk is, en dit was op 1080p@30fps.
https://www.cryengine.com...monstration-for-cryengine

Mooie prestatie natuurlijk maar op 4K en 8K gaat 30fps dan niet lukken.
Navi heeft ook geen hardwarematige raytracing ,dus zal dit ook gewoon softwarematig verlopen, en de prestaties van Navi zijn niet verdubbeld. Zodoende zie Navi nog geen raytracing op 4k@30fps doen. Benchmarks moeten nog komen natuurlijk en hopelijk heb ik het mis.
Daarom kan de PS5 gebaseerd zijn op Navi 20 met wel Hw Raytracing support. Daarbij moet je een GPU die op de consumentenmarkt ook niet vergelijken met een GPU die in een console zit. Die zijn altijd custom made met instructiesets die niet altijd aanwezig zijn op PC GPU's.
Ik zou E3 en microsoft even afwachten. Er gaan geruchten dat de nieuwe xboxen wel hw rt hebben, al weet ik niet of ms al over dat soort details iets gaat zeggen.

[Reactie gewijzigd door drakiesoft op 23 juli 2024 07:28]

Er zijn ander (efficiëntere) ray trace technieken als degene die nvidia gebruikt, waarmee je een groot deel van de effecten ook kan doen.
Voxel ray tracing bijvoorbeeld is veel lichter.
Tja, dat is nogal een aanname. De geschiedenis leert ons dat de consoles vaak wat maatwerk bevatten die niet terugkomt in de 'over the shelf' hardware zoals wat net aangekondigd is.
Raytracing kan ook in een aparte chiplet toegevoegd worden.

Aangezien raytracing traag (veel calculaties met weinig data) is is het bandbreedte/latency probleem tussen de chiplets heel erg klein.
Valt vies tegen, in de game benchmark presteert de kaart ongeveer rond het level van de vega 56-64. Enkel de prijs kan dit, in mijn optiek, nog rechtzetten.
In de geteste game presteert hij 10% beter als een vega64, want in strange bridge scored de vega64 gelijk aan een RTX2070, waar deze Navi 10% boven zat.

En het was al lang bekend dat dit in eerste instantie ene mid range GPU zou zijn. en als daar een mooi midrange prijsje bij zit dan is dat een enorme vooruitgang.
Als Navi 10 dit al kan presteren, dan denk ik dat dat veel goeds voorspelt voor Navi 20 volgend jaar.
Ik kreeg altijd het idee dat Tweakers vol zat met AMD fanboys, maar schijnbaar zijn er ook wel wat Nvidia fanboys. Dat een RTX2070 raytracing heeft is leuk, maar laten we wel wezen, vooralsnog voegt dat niet veel toe, zeker niet op een 2070.

AMD zal de beste benchmark hiervoor hebben gekozen, maar keihard liegen mag niet. Dus de nieuwe kaart zal rond de RTX2070 presteren. Wie weet wat driver optimalisaties nog brengen, maar tegelijk zou ik geen kaart kopen nu omdat die over 2 jaar misschien wel de betere is.

Wat mij vooral tegenvalt is de 1.5x performance per Watt. Ik ga er van uit dat dit vergeleken is met een Vega64. Simpelweg omdat je ook hier niet mag liegen, maar je wel een groot getal wil, en je dus vergelijkt met eentje die nou niet heel geweldig was qua energieverbruik. Alleen als we kijken naar de RTX2070 review (reviews: Nvidia GeForce RTX 2070 - Turing op budget? dan is 1.5x performance per Watt niet genoeg om Nvidia te verslaan, ondanks dat ze een moderner procedé hebben. Dus ja, zeker een stap in de goede richting. Maar indrukwekkend zou ik het niet noemen.

Onder de streep gaat de grote vraag worden voor welke prijs dit beschikbaar komt. Mijn gok als Nvidia niks veranderd de komende maanden aan de prijs: €500, misschien €450. Ja, ik ken alle geruchten van €250, maar ik zie daar nog steeds geen enkele logica in voor AMD om dat te doen.
Zeer indrukwekkend wat ze hier hebben neergezet. Mooi om te zien dat Intel het zwaar gaat krijgen en zeker met de prijs verhoudingen!

Al met al een mooie presentatie, zeer tevreden over wat Zen 2 te bieden heeft en zeker voor de prijzen! Navi presteerde zoals te verwachten rond de RTX 2070, hoop nog wel dat er meer duidelijkheid komt op E3 op 10 juni maar we zullen zien. Wel mooi om te zien wat voor performance boost pci-e 4.0 gaat geven.

Ik kijk uit naar een mooie zomer en ik kan niet wachten om dit in m'n handen te krijgen, well done AMD! _/-\o_

Edit: Oeps, ik ben nog wat slaperig. Dit artikel gaat alleen over de gpu's 8)7
My bad!

[Reactie gewijzigd door ThunderThome op 23 juli 2024 07:28]

Pci-e 4.0 heeft dubbel bandbreedte dan Pci-e 3.0, maar games worden gemaakt om in het vram te passen. Als dit niet in het vram past, komt het teveel in het ram van de pc zelf en gaat dit over de Pci-e bus. Deze is sneller, dan de vorige generatie, maar nog altijd traag in verhouding met het vram, waardoor je zeer waarschijnlijk nog altijd onaanvaardbare fps over houdt.
Navi presteerd dus helemaal niet zoals de RTX 2070 , Als we het zo horen van de demonstratie presteerd navi dus 20-30 slechter dan de RTX 2070 als je apples en apples vergelijkt. Je moet wel alle hardware vergelijken gezien de RTX series tensor en RT cores aan bord hebben vor hardware acceleratie.

RTX is een nieuwe classe hardware met dedicated offloading voor raytracing en eventuele andere zaken op de tensor cores ("Benieuwed wat hier in de toekomst door games nog meer mee gedaan gaaat worden.")

Gezien Navi dit allemaal niet kan kun je ze alleen vergelijken met GTX series van Nvidia.
DXR verslecht het uiterlijk van de game toch, dus dat is niet zo'n gemis
Beiden (@Scriptkid en @ThunderThome ) hebben het fout als je alles baseert op 1 testje van AMD en verder geen enkele gegevens over de prestatie van deze RX5700.

Eerst de onafhankelijke reviews afwachten dus voor je ongefundeerde conclusies trekt.
Anoniem: 63072 @Scriptkid27 mei 2019 08:22
Je doet echt je best om niet serieus genomen te worden toch?

Die resultaten worden door een benchmark onderbouwd, dus je bent ook in de VS kansloos in een rechtzaak. Dat die gekozen benchmark juist die benchmark is waarin jij er bovenuit springt doet er niet toe, de uitspraak is feitelijk juist en daarmee strandt de rechtzaak voor hij goed en wel begonnen is bij de JMOL.
Je doet echt je best om te herhalen wat ik zeg
Je hebt gelijk dat ze niet keihard kunnen liegen. Maar dit zal wel een spel zijn waarbij de verhouding goed uit kwam voor ze, onder instellingen die goed voor ze waren. Net als de opmerking van een 1.5x betere performance per Watt. Dat is natuurlijk mooi, maar ten opzichte van welke? Ga er maar vanuit dat het ten opzichte is van de meeste hongerige videokaart die we hebben, dus een Vega64. Dan lopen ze nog significant achter tov Nvidia, ondanks dat ze op een moderner procedé zitten.
Je zegt toch 100% het zelfde als wat ik zeg.
Anoniem: 63072 @Scriptkid27 mei 2019 07:53
Dus we kunnen Navi niet met RTX kaarten vergelijken vanwege de 7 ofzo spellen die RTX ondersteunen en omdat er tensor cores zijn die een extra vorm van anti-aliassing mogelijk maakt die in wat 17 spellen max gebruikt wordt op dit moment?

Natuurlijk verwacht ik dat dit (flink) gaat toenemen. Maar het duurt echt nog weel een jaar of twee drie voor dat het enigzins gemeengoed is en zelfs dan zal elk spel ook 'klassieke' rasterizing bieden. Tegen die tijd verwacht ik echter dat de huidige implementaties in de alles behalve misschien de 2080Ti/Titan RTX de minimum vereiste zijn. Als AMD er in slaagt ergens in de komende anderhalf jaar RTX support toe te voegen, dan is dat snel genoeg.

En voor het gemak: er is geen enkele reden waarom DXR support in de GPU ingebouwd zou moeten zijn, een aparte DXR chip op de videokaart werkt prima. Je zou zelf een dual GPU opzet kunnen gebruiken, waarbij 1 kaart DXR via compute shaders implementeert en de andere kaart het beeldscherm en de klassieke 3D taken op zich neemt. Dat vergt alleen wel de nodige software support die er nu niet is.
Anoniem: 63072 @Scriptkid27 mei 2019 08:18
Als je niets zinnigs kan zeggen, zeg dan niets...

Als een Fiat 500 op de huidige wegen vergelijkbare omvang (zie waarom je fiat 500 een domme keuze is) en prestaties als een Tesla zou hebben en de Tesla nieuwe wegen nodig heeft die de komende jaren aangelegd worden om zijn voordeel tov van de Fiat te kunnen gebruiken zou je vergelijking misschien nog ergens op slaan.
Nu ga je zelf alle feature verschillen plat slaan en bij de video kaarten doe je dat niet dat noemen we met 2 maten meten
Anoniem: 63072 @Scriptkid27 mei 2019 15:59
Sorry, maar ben je nu serieus?

Buiten RTX en Tensorcores, waarbij alleen die eerste echt iets nieuws toevoegen, valt er niets plat te slaan bij videokaarten. De kaart presteert om en nabij de RTX2070 zonder RTX en kan daar dus prima mee vergeleken worden door mensen die RTX nu nog niet het geld waard vinden. En daar kan je een hele goede casus voor bouwen.
Tuurlijk en dat zeg ik ook alleen dan moet je ook de kosten reduceren en niet de kosten van rtx en tensor meenemen.
Anoniem: 63072 @Scriptkid27 mei 2019 18:51
Wat een bullshit, dus ik kan een 2070 kopen voor minder geld, want ik gebruik de RTX en Tensor Cores niet?

Die kaart kost wat hij kost en is voor iemand die geen waarde hecht aan wat hem zo duur maakt gewoon te duur.

Als de AMD kaart goedkoper is en dezelfde rasterization performance heeft, dan koop ik de AMD kaart. Als AMD zo stom is om hem net zo duur te maken, koop ik uiteraard de nVidia kaart. Je krijgt die functies er dan immers 'gratis' bij.

Misschien iets langer nadenken voor je post?
Daarom heft Nvidia de GTX series geintroduceert precies voor dat doel wat jij nu wilt. De performance van de 20** serie chip maar dan zonder RT en Tensor cores en een stuk goedkoper

nieuws: Gerucht: Nvidia komt met GTX 11xx-serie naast RTX-videokaarten

[Reactie gewijzigd door Scriptkid op 23 juli 2024 07:28]

Anoniem: 63072 @Scriptkid27 mei 2019 21:58
En welke GTX16xx chip heeft vergelijkbare performance met de RTX 2070? Juist ja, geen één.

Omdat ze zelf ook wel weten dat er veel meer mensen zijn als ik die dan denken laat lekker zitten die RTX. En daar hebben ze te veel voor geinvesteerd.

Als je 2070 of betere non RT performance will, dan betaal je gewoon de RTX belasting of je die nu wil of niet bij nVidia.

Tot ik een significante verbetering kan krijgen tov mijn 1080Ti zonder die RTX boete te betalen blijf ik lekker op 1440p met mijn huidige kaart.
De i9 9900k/2080ti vs 3800x/RX5700 benchmark is indrukwekkend!
Het is helaas geen benchmark van de compute performance van de CPU en GPU, maar een vergelijking van PCIe 3 vs. 4. En natuurlijk komt AMD dan beter uit, want PCIe 4 zou grofweg dubbel de doorvoersnelheid moeten hebben.
Die benchmark ging puur om PCIe bandwidth, natuurlijk is dat niet wat je in games zult zien. De RX5700 lijkt eerder rond een RTX 2070 te zitten, die benchmark tegen de 9900K/2080Ti zegt jammer genoeg niet zoveel.
Ok gaat men nu Navi zonder hardware aanboord vergelijken met een kaart die dedicated raytracing doet en daardoor een heel ander prijsclasses is dat is geen apples en peren vergelijking of je moet gewoon op allebij de kaarten Ray tracing aan zetten tijdens een vergelijking en dan zul je zien dat de RTX veel sneller is omdat je apple en apple vergelijkt.

Ben zelf fan van AMD maar deze vergelijkings acties slaan een beetje de plank mis. Hoop dat zodra er reviews uit komen dit wel goed wordt gedaan.
Zoals.je zelf aangeeft.
1 test die AMD goed ondersteund.

1 test maar en dan nog eentje van de producent zelf.
Ken je het gezegde:
1 zwaluw maakt nog geen zomer.

1 test maakt nog geen uitslag in dit geval
Je conclusie is dus erg voorbarig., net als in je andere post.

Gewoon de reviews afwachten dan weten we meer.
Want een functie die maar 5 games ondersteunen geeft een lekker representatief beeld van een performance van een videokaart ...
Anoniem: 159816 27 mei 2019 08:30
Pff iets sneller dan een RTX2070, dat valt nogal tegen. High-end zal zo nog steeds veel te duur zijn. Ik kan mij nog herinneren dat je voor 550-600 euro de snelste kaart (mainstream) kocht en je voor 350 je flinke bang for buck had.
Als AMD het goed aanpakt releasen ze deze zoals Ryzen (8 core voor 500 ipv 1000 dollar in 2016), pak goedkoper, maar zal denk ik bij dromen blijven.
De top kaarten zijn "premium" producten geworden, of misschien zelfs showcase. Er is weinig reden deze te kopen, behalve als je persé de nieuwste en snelste wil. En als je dat wil, betaal je daar inderdaad heel stevig voor. Het aanbod is klein (schaarste) om exclusiviteit (en bijhorende hoge prijs) te waarborgen.
In het segment 300-400€ zitten nog steeds (relatief) high-end kaarten die 95% of meer van de toepassingen met vingers in de neus draaien.

Onze technologiemarkten krijgen veel premiumproducten tegenwoordig. Dat heeft te maken met de welvaart (meer mensen hebben geld over voor gimmicks als een telfoon of GPU van 1000€) en met het volwassen worden van technologie. De tijd dat elke generatie per definitie "must have" was, is al lang geleden, een pc (of graka) van 3-5jaar oud, voldoet nog prima.
Anoniem: 159816 @the_stickie27 mei 2019 09:35
Die showcase kaarten had je toen ook al. Een 8800GTX was bijvoorbeeld prima te betalen, en voor een bak meer geld had je een 8800ULTRA. Die kaarten waren toen al overkill.

De premium serie heeft Nvidia ook al een tijdje met de Titan...maar daar zijn ze vanaf gestapt.
Klopt. Het is een evolutie die al lang zichtbaar is, zeker wat betreft de "showcases".
Maar dat is zeker niet altijd zo geweest. Als je (nog eens 10 jaar terug) bijv een Riva TNT had, was de TNT2 nog steeds een must have upgrade... en meer high-end bestond eigenlijk niet.
Moeten deze kaarten de Radeon VII verslaan? Of is het een ander segment?
Dit is voor een ander segment, deze zijn veel goedkoper.

Radeon VII heeft 16GB HBM2, dat is al een stuk duurder dan de GDDR6 in de Navi GPUs.

Navi gaat wel een stuk efficiënter zijn, maar op vlak van pure prestaties zal de VII er nog wel iets boven blijven. In het segment van de RTX 2080 en hoger (voor gaming) doet AMD niet echt mee op dit moment. Voor productiviteit en is de Radeon VII wel een heel prijstechnisch interessante kaart (met eventueel wat gaming er bij).
Nee, de Radeon VII zal voorlopig nog de highend kaart blijven..
Dit is de gddr6 vervanging van de huidige vega 56 en 64 (dus niet VII). Ik verwacht daarom dezelfde prijs als die vegas, met iets beter overclock potentieel want lager verbruik, maar zeer zeker een grotere marge voor AMD/RTG.
Voor zover mij bekend komen deze kaarten naast de VII te staan.
VII voor de high end 2080 en navi voor 2060/2070 concurrent.
Zou onlogisch zijn na een aantal maanden de VII al met pensioen te sturen.

[Reactie gewijzigd door unfor op 23 juli 2024 07:28]

Het is echter al logischer als je de Radeon VII ziet als noodgreep omdat Navi nog niet klaar was.
Nee, totaal niet logisch. Een kaart uit brengen om hem maar een aantal maanden te voeren is nooit logisch, en zou gepaard gaan met enorme verliezen.
Hoezo de MI 150 hadden ze toch al gebouwd voor de zakelijke markt, al met al niet super veel extra werk.
Normaal ja, Maar deze kaart gebruikt een bestaande GPU en PCB. Namelijk die van de mi50.
Andere koeler er op en klaar zeg maar. dat kan prima voor ~9 maanden.
Echter blijft de VII gewoon bestaan als high-end segment, de discussie is daarom niet heel relevant.

Op dit item kan niet meer gereageerd worden.