AMD toont teaser van prestaties Radeon RX 6000

AMD heeft donderdag aan het einde van zijn Zen 3- en Ryzen 5000X-aankondiging een glimp getoond van de Radeon RX 6000-kaart en zijn prestaties. Het bedrijf toonde onder andere enkele basale benchmarkresultaten.

AMD-ceo Lisa Su had aan het eind van de aankondiging van Zen 3 en Ryzen 5000X nog een kleine one more thing met een preview van de Radeon RX 6000. AMD toonde eerder al een render van de kaart met drie ventilatoren, maar Su had nu een daadwerkelijke 'big navi'-kaart in handen.

Lisa Su Radeon RX 6000

Daarnaast toonde het bedrijf hoe Borderlands 3 in 4k met de instellingen op badass op 60fps draaide op een systeem met een Ryzen 5950X en Radeon RX 6000. Ook toonde het bedrijf statistieken hoe Call of Duty: Modern Warfare in Ultra op 4k met gemiddeld 88fps zou draaien, en Gears of Wars 5 op Ultra met 73fps.

AMD Radeon RX 6000

Verdere details over de benchmarks en het gebruikte systeem gaf AMD niet, waardoor het moeilijk is om te vergelijken met bijvoorbeeld RTX 3080-resultaten bij het draaien van die games. Planet 3DNow! doet toch een vlugge poging en gebruikt daarvoor testresultaten van Eurogamer en Hexus, met betrekking tot Borderlands 3 en Gears of War 5. De Radeon RX 6000 lijkt het op basis van de testen van beide sites Gears of War 5 wat af te moeten leggen tegenover de RTX 3080, maar zoals gezegd is een directe vergelijking nog moeilijk te maken. Op 28 oktober volgt meer informatie, want dan houdt AMD een evenement rond de RDNA2-architectuur en de RX 6000.

Update, 20.45: Planet 3DNow! heeft gecorrigeerde cijfers gepubliceerd. Onderstaande afbeelding is daar op aangepast.

Planet 3Dnow Radeon RX 6000 gecorrigeerd

Door Olaf van Miltenburg

Nieuwscoördinator

08-10-2020 • 20:33

212

Reacties (212)

212
199
101
5
0
76
Wijzig sortering
Tja als hij 500 gaat kosten dan is het een prima alternatief tov een 3080.
Dat kan je vergeten! vorige generatie AMD (ATi) videokaarten waren ook behoorlijk aan de prijs. En idle power usage was erg hoog. Ik hoop dat ze nu wat meer innoverend zijn, want NVidia heeft al jarenlang geen concurrentie
Haha, als je denkt dat de vorige generatie van AMD nog ATi heette, dan leef je wel een tijdje terug :+ dat is al 10 jaar geleden?

De 5700XT was meer mid-range gepositioneerd en was behoorlijk wat goedkoper tov wat Nvidia nu voor een 3080 vraagt. De power usage van die kaart was helemaal niet zo gek en de prijzen waren regelmatig lager dan wat Nvidia wou voor een kaart die grofweg dezelfde prestaties bood.
En dan nog: resultaten uit het verleden bieden geen garantie voor de toekomst.

@bones heeft nog gewoon gelijk, alles valt of staat met de prijs en daar valt nog helemaal niks over te zeggen.

En innoverend? Nvidia Reflex is overduidelijk afgekeken van Radeon Anti Lag. AMD doet meer dan genoeg, maar krijgt daar nooit de credits voor. Het gros kijkt alleen maar naar Nvidia.
Je moet wel even kijken naar de prijs/prestatie. De 5700XT zit qua performance tussen de 2060 super en de 2070 super, maar qua prijs zit hij tegen de 2070 super. Daarnaast kan hij met gemak 50W meer gebruiken, warmer draaien en meer geluid produceren.

Er wordt vaak gewezen naar de 2080 (in jou geval naar de 3080) en vergeleken met die prijs, maar dat is onzin. De 5700XT komt qua performance niet eens in de buurt.

Laten we eerlijk zijn, het is een redelijke kaart voor de prijs. Het was geen topper en liep duidelijk ook achter op nVidia.

Buiten dat, de drivers van AMD zijn een nachtmerrie. Het komt veelte vaak voor dat ik moeite moet doen om een spel aan de gang te krijgen. Niet te vergeten alle bugs die we hebben gehad, zover dat windows niet eens wil opstarten of dat een driver niet wil installeren.

[Reactie gewijzigd door TechSupreme op 25 juli 2024 02:00]

Je moet wel even kijken naar de prijs/prestatie. De 5700XT zit qua performance tussen de 2060 super en de 2070 super, maar qua prijs zit hij tegen de 2070 super.
Je bedoelt de prijs van de 2070s nadat die gekelderd is door de introductie van 30x0? 8)7 Je moet wel eerlijk kijken he. Ik heb op launchday mijn 5700XT gekocht (en de volgende dag binnen zelfs!) voor 426 euro. De 2070s en 2060s zaten op resp 529 en 424 euro (zie nieuws: Nvidia brengt GeForce RTX 2070 en 2060 Super op 9 juli uit), en dat was enkel in theorie. Volgens de PW zijn de FE's namelijk nooit in NL te koop geweest (geen prijshistorie) en de AIBs zaten richting resp ongeveer 600 en 530 euro bij launch. Voor zover ik zag was enige die de prijs kon matchen (dus niet eronder!) de Inno3D 2060s dus je prijs-verhaal slaat nergens op.
Ik had goed rondgekeken voor mijn build en toen de 5700XT uitkwam was het voor die prijs eigenlijk een no-brainer, de 2070s was dus al afgeschoten en ik had geen trek in de 1080Ti voor 800+, laat staan de 2080FE voor 1100+. Ik heb het prijsverschil lekker in m'n monitor gestoken.
Buiten dat, de drivers van AMD zijn een nachtmerrie. Het komt veelte vaak voor dat ik moeite moet doen om een spel aan de gang te krijgen. Niet te vergeten alle bugs die we hebben gehad, zover dat windows niet eens wil opstarten of dat een driver niet wil installeren.
Na ooit begonnen te zijn met Geforce-kaarten heb ik de afgelopen 10 jaar alleen maar Radeon-kaarten gekocht en ik kan me niet vinden in jouw stelling. Heb je er ook echt ervaring mee of praat je alleen maar alle klagers na, die je overigens voor Nvidia net zo hard kan vinden?

[Reactie gewijzigd door DataGhost op 25 juli 2024 02:00]

de 2070S FE kon je heus wel bestellen alleen niet bij lokale winkels in nederland. De FE's kan je gewoon bij de nVidia online-shop bestellen. Ik heb de 2070S daar voor 529 euro gekocht.

[Reactie gewijzigd door BruT@LysT op 25 juli 2024 02:00]

Ok prima, maar dat is alsnog ruim 100 euro (25%) boven de 5700XT.
Als je prijzen vergelijkt dan moet je wel prijzen vergelijken van een moment dat relevant is en niet vandaag. De nieuwe generatie NVIDIA is er al, de nieuwe generatie AMD nog niet.

Maar toen ik in maart mijn Sapphire Pulse 5700XT kocht betaalde ik 407€, voor dat geld kon je geen EVGA 2060 Super kopen. Een oude 2060 of een 2060 KO, dat lukte wel voor die prijs. 2070 super? Die zaten rond de 600€.
De enige reden waarom ik over de 5700xt begon is omdat de persoon boven mij over 'de vorige generatie' begon. Deze was zoals ik zei, mid-range gepositioneerd. En dus in een andere prijsklasse dan (bijvoorbeeld) de 3080 nu.

Het enige dat ik stel is dat AMD prima kaarten in een lager prijssegment kan lanceren en dat we nog niet weten waar deze kaart gepositioneerd wordt. De vergelijking met 2080/3080 is inderdaad totale onzin en die maakte ik dan ook niet.

Het is jammer dat velen een merk niet serieus nemen als ze niet in de top meedingen, ondanks dat ze in lagere prijssegmenten regelmatig een betere deal hebben. Niet altijd, maar een slechte deal was het ook niet.

"Achter lopen" is een heel raar begrip in die context. Achterlopen qua wat? Als er de keuze wordt gemaakt om niet in de dure niche te spelen, maar voor de massa wordt geproduceerd, dan loop je niet achter. Dat zijn bedrijfskeuzes die de gpu-afdeling van AMD noodgedwongen moet nemen.
3 jaar te laat VESA adaptieve sync introduceren, of nu met veel bombarie Radeon Anti Lag kopiëren... Dat is eigenlijk daadwerkelijk achterlopen.

Uiteindelijk moeten we gewoon afwachten wat de prijs van deze kaart wordt. Deze cijfers voor de prijs van een 3070? Dan heeft Nvidia een probleem. Wordt dit duurder dan een 3080? Dan heeft AMD een probleem.
3080 is volgens u mid-range? 10% qua performance onder top kaart (workstation, "titan-class" (c) nvidia) 3090 is volgens u mid-range? 3080 is echter high-end en een generatie nieuwer, dus moet je 5700XT daar echter niet mee vergelijken.
Nee, dat zeg ik helemaal niet.
Zo willen Sony en Microsoft het liefst alleen oude, achterhaalde, niet presterende componenten in hun nieuwste generatie consoles, weet iedereen toch.

Oooh, wacht, dat is toch precies wat ze NIET doen, consoles uitrusten met oude achterhaalde meuk?

Ik ben het spoor even bijster, graag je avatar veranderen naar een nVidia logo, dan zou ik je misschen nog kunnen begrijpen.

(voor wie het niet ziet, sarcastisch geschreven)

[Reactie gewijzigd door EwickeD op 25 juli 2024 02:00]

Ach heb hier een all red systeem naast me draaien. Maar goed tegenwoordig mag je niet een beetje kritisch zonder dat je iemand op zn pik trapt, wordt je meteen uitgemaakt voor van alles. Het zal wel.Wat de custom SOC van Microsoft en Sony te maken hebben met hun desktop divisie snap ik even niet.

Als je het niet van mij wil aannemen, kijk eens de upload van LTT van gisteren, die van de Zen 3. Zegt hij toch letterlijk: "De GPU afdeling van AMD heeft de neiging om mij teleur te stellen". Moet ik anders ook video's van Gamers Nexus of Anandtech erbij zoeken?

Nee, het zullen wel allemaal nVidia fans zijn.
LTT is gek van maximum performance, maar de discussie hier ging over prestatie per prijs.

Die blijf je vol aanvallen terwijl ze met de laatste generatie inderdaad niet mee konden komen in maximum performance, maar wel veel scherper geprijsd.

Je wordt er op gewezen dat je dat doet op valse voorwaarden (huidige RTX2070 prijs gebruiken terwijl die al een opvolger beschikbaar heeft, in tegenstelling tot de RX5700XT), maar blijft ondanks dat gewoon de aanval inzetten.

Dan is het toch niet heel gek dat mensen je niet meer serieus willen nemen?
Dit trek je wel uit context. Want hij zegt dat hij goede hoop heeft dat AMD nu wel een goede kaart afleverd maar dat AMD de neiging heeft teleur te stellen. En wat mij betreft is dat de laatste jaren ook wel zo.
Je moet wel even kijken naar de prijs/prestatie. De 5700XT zit qua performance tussen de 2060 super en de 2070 super, maar qua prijs zit hij tegen de 2070 super. Daarnaast kan hij met gemak 50W meer gebruiken, warmer draaien en meer geluid produceren.
De 2070s heeft gemiddeld sinds de release rond de 600 gekost, de 2060s rond de 500 en de 5700XT onder de 500 (gekeken naar de 2 meest bekeken kaarten per type in de pricewatch). Als de prestaties van de 5700XT tussen de 2060s en de 2070s inzitten maar de prijs vergelijkbaar is met de 2060s is dat toch in dat opzicht een prima prijs/prestatieverhouden? En daarmee is
De 5700Xt komt net niet aan de 2070 Super maar kost wel even veel.
gewoon niet waar.
Een RX 5700 XT is maar een paar % minder snel als de 2070 super, dus jawel. De rx 5700 xt is beter vergelijkbaar met de 2070S dan de 2060S.
De 5700XT zit qua performance tussen de 2060 super en de 2070 super, maar qua prijs zit hij tegen de 2070 super.
qua prijs bedoel je tegen de 2060 super lijkt me. en inmiddels heeft hij nagenoeg 2070 super prestaties.
dus 2060s prijs, 2070s prestaties.
Prijs, drivers en bouwkwaliteit. Al heeft nvidia daar ook een beetje de bal laten vallen. Oh ja en beschikbaarheid.
De kaarten van NVidia (3DFX) stijgen ook maar constant in de prijs, daar moet AMD toch wat aan doen.
Ja, en nu we toch bezig zijn, hopelijk kunnen we nog iets verwachten van Matrox, Rendition, 3DLabs of Tseng Labs. En de release van de Kyro III en de BitBoys Glaze3D laat ook best wel op zich wachten. Een nieuwe XGI Volari zou ook leuk zijn.

/timemachine-mode-off
Ik kijk het nog wel even aan, mijn Cirrus Logic GD5428 doet het nog prima :+
Damn wat een modern ding joh, ik heb deze van Ben Eater
https://www.youtube.com/watch?v=uqY3FMuMuRo
Trident TVGA8900 1MB op een dik 16-bits ISA slot or bust.

[Reactie gewijzigd door brama op 25 juli 2024 02:00]

wat heeft 3dfx hier ineens mee te maken?
Ongeveer net zo veel als ATI hier mee te maken heeft.

Bijna niks.

[Reactie gewijzigd door Ulas op 25 juli 2024 02:00]

Waar heb je het over .... 8)7

https://tpucdn.com/review...ity/images/power-idle.png

De 3080 ligt zelfs idle hoger dan alle AMD kaarten zoals Vega, Polaris en RDNA bij elkaar.
Ik snap niet helemaal waar je die conclusie vandaan haalt aan de hand van je eigen bron..
met het "bij elkaar" ga ik ervan uit dat je ze bij elkaar op kan tellen en dat het dan nog lager is, maar als ik amd's laagste kaarten pak (5500 xt en 5700) zit ik al op 11W, wat meer is dan de 3080 9W.

Overigens staat er maar 1 Polaris kaart lager (de 570 met 8W), terwijl alle vega kaarten al hoger staan (minimaal 3W meer met VII).
RDNA doet het dan wel weer goed.
Haha, 5700xt is met de laatste driver updates 2% trager dan de 2070s die 100euro meer kost of beter gezegd zo'n 25% hogere prijs voor 2% snelheid.
De 2070 Super is toch echt sneller dan de 5700XT en kan dan ook meer. Leuk voor als je alleen gamed. Wil je een octane render draaien kan je die AMD kaart net zo goed weggooien. Wordt niet ondersteund.
En als je een solidworks project hebt ben je weer beter af bij amd ;) hangt idd af van wat je doet maar bij gaming gpu's zou ik de vergelijkingen voornamelijk bij games houden.
wait wut, sinds wanneer? volgens mij heb je nog steeds een externe renderen nodig voor amd (ik had de vega 64 en gebruikte radeon prorender), en werkt het met nvidia en de cuda cores gewoon flawless (visualize binnen solidworks) en heeft met de 2020 patch rtx support. -> heb nu een 2080ti voor solidworks.
Dus verkoop onzin maar ergens anders :)

[Reactie gewijzigd door D0gtag op 25 juli 2024 02:00]

Had dat stukje over rtx nog niet eerder gelezen. Heel interessant dat ze zoveel extra performance kunnen krijgen! Mijn comment was op basis van een (eerlijk gezegd ouder) artikel van GN: https://www.gamersnexus.n...ere-autocad-vray-and-more.
Bij solidworks deed amd het best netjes (580=1080ti en v64=2080ti) meen me ook te herinneren dat in iemands review van de 3080 (denk ltt al is dat niet de beste bron voor benchmarks) dat de 5700xt gelijk/beter zou zijn dan de 3080.

[Reactie gewijzigd door Gamerstijn op 25 juli 2024 02:00]

ja ik ken de benchmarks aangezien ik daarom de vega had gehaald toentertijd maar, in de praktijk werkt het zeer omslachtig grote modellen werken vrij goed met elke moderne gpu trouwens, maar het gemak van in program renderen is gewoon beter met cuda/nvidia en daarnaast crashte de prorender om de haverklap, want het blijft wel AMD he :P
AMD vega is trouwens niet een xt5700 aangezien dat een hybrid is van rdna2 en vega, dus voor workstations werken die minder goed, vega was best wel goed maar had ook hmb2 wat de kaart zeer duur maakte. Visualize en RTX is wel heel erg mooi en snel, ben benieuwd of AMD met deze generatie dat ook gaat ondersteunen maar rdna is gemaakt voor gaming (waar vega weer heel goed was voor workstations-> not for gaming)
Wss zou je beter af zijn met een cdna kaart van amd voore echte pro dingen, het zou een andere architectuur moeten zijn die net zoals gcn ckmpute focused is (alw eet ik niet of er al uberhaupt cdna kaarten zijn).
Hardware unboxed heeft vorige maand nog een vergelijking gedaan tussen deze 2 kaarten. Waar ze eerder een aanzienlijk prestaties verschil opmerkten is deze zodanig gekrompen dat ze vergelijkbaar zijn.
Zo vergelijkbaar zijn ze niet, 7% on average prestatie verschil terwijl je geen RTX en DLSS ondersteuning hebt (RTX met DLSS maakt games als Control toch erg mooi met een goede framerate)

https://youtu.be/gt9h5ckS_xo?t=802

Zoals je kan zien is de 7% maar de average, er zitten een hoop populaire games onderin het lijstje welke meer dan 15% sneller zijn op de 2070 super.
Gemiddeld die 7% klopt. Maar je redenering die volgt is het verhaal van één kant bekijken.
Natuurlijk zijn er uitschieters waar een 2070S 15-20% beter presteert. Maar er zijn ook uitschieters waar de 5700XT 15-20% beter presteert. Onderaan de lijn presteert de 2070S gemiddeld 7% beter. Uitschieters daargelaten.

Al met al heb ik uiteindelijk voor een 5700XT gekozen, gemiddeld 7% minder performance voor ± 20% minder kosten.
Toen der tijd kocht ik de MSI GAMING X 5700XT voor €450 en was de MSI GAMING X 2070S om en nabij de €550. Dan vind ik persoonlijk die €100 voor marginaal betere performance het geld niet waard.
Als we echt nitpicken zijn er fors meer games sneller dan langzamer natuurlijk op de 5700XT.

Maar het gaat mij er meer om dat mensen altijd lijken te vergeten dat er gewoon een hele sectie aan cores aan de GPU geplakt zijn voor raytracing iets wat de 5700XT gewoon nie theeft. Zodra je wel waarde hecht aan raytracing, iets wat steeds belangrijker en beter geoptimaliseerd gaat worden. Is de 2070 Super gewoon een veel betere kaart. Dan is die 100 euro niets. Wat dat snelheids verschil is een factor 400% namelijk. Zodra de nieuwe console games uit komen welke zeer geoptimaliseerde raytracing implementaties hebben is de 20XX serie toekomst bestendiger.
Daar zal ik je geen ongelijk in geven, daarom is onderaan de streep de 2070S ook die 7% sneller.

Ik hecht geen waarde in een techniek wat nog bij deze reeks 20xx RTX kaarten in de kinderschoenen staat.
Slechts een handjevol games ondersteunen raytracing en als het al ondersteund wordt moeten de instellingen zodanig teruggeschroefd worden op 1440p (de resolutie waar ik op speel) dat ik het liever uit laat staan. Desalniettemin kijk ik wel uit naar de optimalisatie van raytracing in de toekomst. Wanneer dat gaat spelen zijn we misschien al wel bij de 40xx RTX serie, ik heb ook geen glazen bol.
Tegen die tijd kijk ik rustig naar zowel Nvidia als AMD, ik heb geen voorkeur, en ga ik uiteindelijk voor de beste prijs/prestaties.
Dat met se settings was bij launch inderdaad het geval maar het is flink geoptimaliseerd. Control kan je met alle raytracing settings in combi met DLSS op 1440P spelen en je haalt dan gewoon netjes over de 60fps en grafisch is het zeer indrukwekkend. Zijn nog een aantal games, DLSS is dan ook erg nice bij bijvoorbeeld Death Stranding dat je zelfs op hoge framerates in 4K kan spelen.

Maar de nieuwe consoles gaan het pas echt pushen om het te implementeren industry wide.
Klopt, Mijn 5700xt heeft mij 379 euro gekost waar mijn collega iets meer als 500 euro aan zijn 2070S heeft gespendeerd... Catch my drift? apart van de uitschieters zijn ze zeer goed vergelijkbaar.
Goedkopere koelers bij low end 5700XT varianten terwijl dit in het algemeen beter was bij de Nvidia kaarten (helaas maar waar), geen solide prosumer fucntionaliteit voor 3d render zaken, geen raytracing. Je krijgt gewoon waar voor je geld. Als je alleen gamed en ongeveer gemiddeld 7 tot 10% minder performance wilt opgeven is het een prima kaart. Maar de kaarten goed vergelijkbaar noemen kan je alleen zeggen als je puur gamed en alles opzij zet.
De wereld van unbiased raytracer renderengines is groter dan OctaneRender alleen... ;)

De concurrentie die AMD levert t.o.v. Nvidia, ongeacht wat je uiteindelijke doel voor een grafische kaart is, is alleen maar goed voor de consument :) .
Ah vray natuurlijk, oh die werkt ook niet geweldig met een amd gpu maar is wel 1 van de belangrijkste op de markt.

Amd moet echt harder aan de bak om hun kaarten ook een goede optie voor de prosumers en professionals te zijn. En ja dit zou ik graag zien.
Alleen heeft de 5700xt geen RT-cores en minder stabiliteit.
ik had nochthans een RX 5700 XT van Gigabyte gekocht voor 399,= en ingeruild (vanwege driver problemen) voor een Gigabyte RTX 2070 voor 405,= dus die vijf euro........
ik heb hier 5500xt en 5700 xt draaien, lange tijd op intel systemen gezeten en nu beide op ryzen, dus ze hebben oude OS en nieuwe OS meegemaakt. nooit problemen gehad met geen enkele driver of upgrade, het enige dat ze wel eens durven verliezen is hun power en OC profiel , maar dat is gewoon even opnieuw inladen....

driver problemen? als ze het niet op iets ander kunnen steken, het typische reddit profiel, 101 plaatsen roepen en herhalen.ook al eens gedacht dat het aan de persoon zelf ligt??

driver problemen? of gewoon onkunde en geen kennis maar wel de tweaker uithangen op een website.

van 5700xt naar vanilla 2070 gegaan? de prijs was hetzelfde dus geen verschil dan heb je duidelijk veel kennis....
driver problemen?
Ja. welke ik ook probeerde, met of zonder radeon software, elke keer weer bsod's, stutters in welke game dan ook, zwarte schermen, etc. etc., gewoon. niet. mee. te. werken.!!!

of gewoon onkunde en geen kennis maar wel de tweaker uithangen op een website.

en laten we nou niet afzinken tot het niveau dat we elkaar gaan afzeiken... pls!!
Dat heeft nvidia met de 3080 ook van AMD afgekeken. Crash naar desktop. ;)
2070 presteert ruim onder de 5700XT. Dus je betaalt een stuk meer voor een stuk minder.
voor een Gigabyte RTX 2070 voor 405,= dus die vijf euro........
Dat is een 2070 NON-super. de 2070 is trager als de 5700XT.

De goedkoopste 2070Super is 450.
de goedkoopste 5700xt is 380.

[Reactie gewijzigd door Countess op 25 juli 2024 02:00]

Raytracing is ook niet een mandatory feature. Ik snap dat niet. Bij RDNA2 heb je wel hardwarematige raytracing, het zit immers ook in de consoles nu. Maar ik zou niet een kaart puur op basis van RT nemen.
Je hebt gelijk. Maar de markt met games met raytracing wordt wel steeds groter zodat een fabrikanten het als een Unique Sales Point (USP) gaan gebruiken. En aangezien NVIDIA het nu qua prijs vrij toegankelijk heeft gemaakt voor de gemiddelde gamers gaat het nu toch wel steeds meer gemeen goed worden
De vorige generatie van Nvidia was ook stukken duurder dan de nieuwe en huidige generatie 8)7
En die verkocht slecht tegen over de generatie daarvoor ook de RTX cores waren nog niet volwassen genoeg om echt profijt van te hebben. Dat en nu met de release van "Big Navi", de PS5 en de XBOX SX is Nvidia lager in de prijs gaan zitten.
Innoverend? Wat heeft dat er mee te maken.
Ze moeten wel iets met de prijs doen. Anders verkopen ze alleen aan AMD fanboys. Maar ik neem aan dat ze breder publiek willen bereiken
Als het ongeveer gelijk presteert als een 3080, waarom zouden ze het voor 35% goedkoper aanbieden? 10% a 15% goedkoper is dan logischer. Zie 3080 in de prijswacht voor 770 euro en dan is 650 a 700 euro een concurrerende prijs.
De advies prijs is natuurlijk 719 euro alleen maken de winkeliers er nu een potje van
Voor de FE, ja... Maar het is al lang bekend dat nVidia voor een veel te hoge prijs naar hun partners geleverd heeft. Die kunnen voor de prijs van een FE bijna geen kaart maken, zelfs al zouden ze hem 'zonder' koeler verkopen :P
En nVidia houdt het aanbod van FE's buitengewoon laag. En dus krijgt niemand een 3080 voor E719 in handen, tenzij diegene een loterij wint.
Je bedoelt dat is een gerucht. Mensen moeten stoppen met geruchten als waarheid neer te zetten. De claim komt voort uit het feit dat de koeler prijzig is om te produceren. Dit was het alleen ook het geval bij de voorgaande FE series. Dit kan nvidia doen door 2 tussen partijen namelijk board partners en leveranciers weg te strepen. Board partners geven een msrp, het is alleen aan de winkel om deze te handhaven en dat doen zij nirt tijdens schaarste.

Ohja ik heb een 3080rtx founder, wist niet dat de loterij winnen zo makkelijk was.
Jij en hoeveel mensen in NL hebben er een?

Je hebt zeer zeker wel de loterij gewonnen. Ik durf te zeggen dat je een grotere kans loopt om dit jaar iets te winnen in de postcode loterij dan dat je een FE weet te bemachtigen. AL mijn orders voor een 3080 zijn gecanceld en de FE is gewoon onmogelijk te verkrijgen. Permanent 0 voorraad in NL.

En dat gerucht, dat er kunstmatig schaarste is van de "goedkope" 3080 begint met de dag geloofwaardiger te worden. Zeker daar vandaag opnieuw de 16 en 20 GB varianten opdoken in allerlei nieuwsstreams.

We worden gewoon genept. Die 719,- is een lokkertje.

Ik vind t tof dat jij er een hebt weten te bemachtigen, maar weet dat er tegenover jouw geluk 1000-en Tweakers staan zonder succes.

Ik, jaloers? Jazeker. Zonder enige twijfel.
Ik heb er meer in omloop gezien uiteraard. De productie schijnt past in augustus begonnen te zijn dus de schaarste begrijp ik dan wel. Helemaal al shet klopt dat de vraag groter is dan verwacht. Dat in combinatie met covid19 uiteraard welke ook nog eens de supply chains belemmerd. Ik veracht wel dat het net zoals bij de 20XX series gewoon na een aantal maanden weer normaler wordt. Hoop uiteraard dat iedereen die er 1 wilt deze ook gewoon snel kan bemachtigen.
kijk eens hier:

https://www.nvidia.com/nl...graphics-cards/30-series/

(edit: klik op shop alles)


wat valt je op?

Juist. het kopje "Founders Edition" is weg onder de 3080. Alsof ze nooit meer komen. (tenminste, dat betekende de afwezigheid van dat kopje in het verleden.)

[Reactie gewijzigd door redniels op 25 juli 2024 02:00]

Ik heb dat bij de 2070 super vaker zien verdwijnen en toen kwamen de kaarten toch weer in stock (zelf toen destijds ook een 2070 Super FE op de Nvidia site gekocht ruim een jaar na launch).

Op deze pagina als er stock is moet de buy knop weer zichtbaar worden als deze op voorraad is https://www.nvidia.com/nl...cards/30-series/rtx-3080/

Het probleem is dat ze niet aankondigen wanneer er voorraad is dus eigenlijk moet je dagelijks kijken. Het digital river shopping platform is ook nog eens sloom dus je ziet pas de vooraad indicatie na wachten verschijnen.
Exact, je moet de website van nVidia gewoon goed in de gaten houden!, ik kan me herinneren dat ik random een dag op mn werk zat te kijken en jawel, de 2070super was ineens weer beschikbaar -> gelijk aangeschaft. Dat zal dit keer met de 3080 ook zo gaan gok ik ;)
https://www.techradar.com...-passes-baton-to-best-buy

Nou, dat was t dan. Geen FE's meer in EU.

Nogmaals: je hebt de loterij gewonnen. En de geruchten... blijken geen geruchten te zijn.

(Nog jaloerser dan eerst hier ;-)
Dat zeggen ze niet denk ik, tenminste in de VS hebben ze het uitbesteed, dus waarom in de EU niet? Even afwachten of er een distributie partner komt in de EU.

[Reactie gewijzigd door Sn0wblind op 25 juli 2024 02:00]

Gefeliciteerd ;) Het is mij nog niet gelukt.
De huidige status bij de officiele verkoopkanalen is als volgt: Alternate heeft hem nog steeds op pre-order staan. Azerty begint er niet eens meer aan; ze hebben de link naar de FE weggehaald. Paradigit heeft een verhaal op hun website staan over hoe ze bijna niet geleverd krijgen en Megekko's website? Tja, die is weer eens niet beschikbaar.
Megekko krijgt gek genoeg lijkt wel het overgrote gedeelte van de voorraad binnen. Zou dat zelf niet verwach thebben, maar op dit moment ben je beter af door bij Megekko een bestelling te plaatsen dan dat je bij alternate sinds dag 1 op de wachtlijst blijft. Ze krijgen gewoon heel weinig kaarten binnen.
Het is nog maar de vraag of ze echt meer kaarten binnenkrijgen. Misschien lijkt dat zo omdat mensen die daar bestellen eerder op Tweakers zitten, terwijl Alternate wellicht een breder publiek trekt.

Uiteraard ben je alleen beter af bij Megekko als je meer geeft om de bezorgdatum dan het prijskaartje.
Megekko was er ook vroeg bij toen de B550-borden uitkwamen, en die kon je daar al snel voor een goede prijs krijgen. Dus wellicht hebben ze het gewoon goed geregeld met hun leveranciers.
Megekko heeft goeie onderhandelingspositie. Ze staat hoog in de ranglijsten en kopen waarschijnlijk ook grotere aantallen in wat weer resulteert in lagere kosten voor ons. Dit soort bedrijven snappen hoe ze moeten handelen. Helaas blijft er dan voor de rest niet zo veel meer over.
Die kunnen voor de prijs van een FE bijna geen kaart maken, zelfs al zouden ze hem 'zonder' koeler verkopen
Dat kunnen ze waarschijnlijk wel, maar dan verdienen ze er niet (genoeg) op. Het is logisch dat een product direct van de fabrikant goedkoper is dan een product waar nog extra marge op gelegd moet worden door een "derde": partij. De boardpartners zullen op een manier iets moeten toevoegen aan de waarde om de meerprijs te verantwoorden. Dat kan beschikbaarheid zijn..
Ik heb mijn Gigabyte 3080 toch wel degelijk 719 betaald bij Megekko. :)
Als hij in ieder geval leverbaar zal zijn, dan is het al een alternatief :P
Denk dat AMD de launch wel gaat uitstellen met een paar maanden, om eerst een enorme batch te genereren zodat er genoeg aanbod is Tegen over de vraag die ervoor zou zijn, als de specs beter zijn dan de RTX 30XX
Zodat Nvidia tijd heeft om hun stock op orde te krijgen en Ti en Super versies uit te brengen?
Die zet zou enorm dom zijn.
Ik denk persoonlijk dat je voor deze kaart zo'n $600-$650 moet verwachten, maar dat is alsnog goedkoper dan de RTX 3080
Er komt ook nog een variant met dezelfde chip maar iets mindere performance, waarschijnlijk voor $500-$550, en met 16GB VRAM, waardoor hij het makkelijk zou moeten winnen van de RTX 3070, voor ongeveer dezelfde prijs
Of wel te koop is ;)
Zelfs als hij €600,- gaat kosten ga ik dan waarschijnlijk voor de Radeon RX 6000, is nog steeds rond de €150,- goedkoper, en als de game benchmarks kloppen is hij maar iets langzamer.
Voor welke versie? Voor de 80CU (RX6800XT) vergeet dat maar neemt maar tegen de 800€
Ik verwacht dat de 80cu de 6900xt gaat worden. En als deze niet de 3080 verslaat gaat ie zéker geen €800 kosten!
Die kaart had HBM geheugen, daarom was die zo duur. De 6000-reeks zal hoogstwaarschijnlijk GDDR geheugen hebben en zal dus op prijs kunnen concurreren met Nvidia.
Juist, kan niet anders dan dat AMD op een lagere prijs en verbruik inzet.
Wat ik hoop, is dat ze hier stiekem niet hun high end kaart hebben gedemonstreerd, maar dat dit cijfers zijn van een 6700 ofzo.
Ze moeten wel hun beste kaart laten zien. Anders schieten ze zichzelf in de voet.
Misschien zeg ik het verkeerd. Ik hoop dat ze nog een "enthusiast" versie hebben om ons mee te verrassen de 28e.
De "AMD TITANRIPPER" :+
de threadripper en de frameripper
Ik denk niet dat ze zich in de voet schieten als ze een 6700 zouden tonen. Nvidia speelt precies hetzelfde spelletje. Die 3080 ti's liggen denk ik wel te wachten bij Nvidia in de keuken om geserveerd te worden en wachten tot de launch van AMD om daarna het laatste woord te hebben. We gaan het zien hoe het spel verder gespeeld wordt, het blijft spannend :).
Ik zou het niet logisch vinden, want de 3080 en 3090 zijn al op de markt (slecht verkrijgbaar ok).
Laat je zo'n slide zien met een mindere kaart dan ga je de doelgroep toch niet overtuigen om langer te wachten / af te zien van de aankoop van een 3080/3090? Ik denk namelijk dat zeker in de eerste maanden veel aankopen worden gedaan. Helemaal als we het hebben over het hogere segment.

Daarnaast moeten we niet vergeten dat de stap voor AMD velen malen groter is. Want indrukwekkend waren de vorige generaties niet. Ik vermoed dus dat NVIDIA gewoon het beste in huis heeft.
Moeten ze helemaal niet. Dit was a preview, niet de announcement, en ik zelf vind het wat apart dat ze juist iets hebben laten zien wat tegen de 3080 aan zit, invidia's "flagship" (wat niet hun flagship is imo maar goed).
Ik hoop dat ze de 28ste meer benchmarks kunnen laten zien die in deze richting zitten. Er vanuit gaande dat ze dezelfde tactiek houden als ze hadden bij "small navi" dan ga je een videokaart krijgen die kan sparren met de (subjectief) meest nuttige kaart van de tegenstander voor een lagere prijs. Daarnaast hoeven ze dan ook niet de R&D (budget) te steken in een nog betere kaart die toch alleen bedoeld is voor een niche markt.
Volgens de geruchten komen er meerdere Big Navi chips, de 21, 22 en 23
De Big Navi 21 is het top model, en daar komen schijnbaar twee varianten van, met verschillende clockspeeds
Dus ik denk wel dat dit hun high-end chip is, maar dan het mindere model
En die mindere Big Navi 21 zou in de RTX 3070 competitor moeten komen, voor zo'n $500-$550, met 16GB VRAM
Dus ik denk dat Nvidia zich toch wel zorgen moet gaan maken
Zeker als de kaarten van AMD snel beschikbaar zijn en ook daadwerkelijk leverbaar zijn
De 21 is de enige "big navi", geschat op 500+ mm. De rest zit wat omvang betreft in de buurt van de navi 10, de een wat groter, de ander wat kleiner.
Niet helemaal hoe het zit:
Je hebt navi 21 xtx, xt en xe.

De xtx is waarschijnlijk 80cu's, xt 72 en xe 60.
Ik denk ook dat ze de xt versie hebben laten zien hier, dus de rx6800xt waarschijnlijk.
AMD vind het net zoals Nvidia leuk om producten aan te kondigen en dan op het eind van de presentatie te komen met "Oja, maar dit is niet alles". Net zoals de ryzen 5950x.
Ehm nee
Het wordt echt gewoon Navi 21, 22 en 23 volgens alle bronnen tot nu toe
Nee, navi 22 en 23 zijn compleet andere chips van andere formaten.
Navi 21 worden 3 grafische kaarten van gemaakt met de code name's navi 21 xtx, navi 21 xt en navi 21 xe.

Dan heb je Navi 22, met verschillende varianten tot maximaal 40cu's
En dan heb je navi 23 met verschillende varianten tot maximaal 30cu's
Volgens de laatste geruchten.
Ah zo, ja dat klopt
Maar volgens mij hebben alle Navi 21 chips wel dezelfde hoeveelheid CU's, alleen andere clocks en memory
Maar eerst was er alleen sprake van 21 A en B met verschillende clocks
Nu is dat dus XT, XL/XE, en XTX
XT zal wel de A chip zijn, en XL/XE de B chip, en dan XTX de A chip met GDDR6X, vandaar de extra X

Maar alles wat ik gevonden krijg over die naamgeving is best wel oud
De laatste geruchten spreken juist voornamelijk over 21 A/B, 22 en 23
AMD gaat geen GDDR6x gebruiken deze generatie en er komt wel degelijk een verschil in cu's, net zoals bij Vega 56 /64 bijvoorbeeld. (64 was volgensmij de xt en 56 xe).

XTX is waarschijnlijk een HBM variant voor Apple ofzo.
dus amd kan weer mee qua prestaties in de high end gpu markt. zoals velen al aangeven is t de prijs die nu bepalend is, maar ook de 16gb tegenover 10gb.

al vragen ze dezelfde prijs als nvidia met vergelijkbare prestaties, zullen velen het model met flink meer geheugen prefereren. de 3070 en 3080 met dubbele hoeveelheid geheugen staan al op de planning voor december, maar zullen uiteraard met een aardige meerprijs komen.

maar goed, de strijd voor de snelste met de tegenwoordig daarbijbehorende belachelijke bedragen en stroomverbruik is maar een kleine markt.

veel interessanter is de markt voor de €250,- tot €400,- varianten(als die hopelijk komen) met een hoop minder stroomverbruik die iedereen in zn systeem kan bouwen zonder 750+watt voedingen en een extra groep in de meterkast te hoeven aanschaffen.
Als Nvidia de Super/Ti varianten met het dubbele geheugen al in december onthuld zullen er enorm veel negatieve reacties komen, aangezien Nvidia zelf heeft aangegeven niet eens alle 3080 bestellingen voor 2021 uit te kunnen leveren
Maar persoonlijk hoop ik eigenlijk wel dat ze het doen, want Nvidia heeft gewoon smerig gespeeld, maar niet goed nagedacht en nu zijn ze de lul
Ze wilden heel graag eerder dan AMD op de markt zijn, maar zijn ondertussen vergeten voorraad aan te leggen (onder het mom van 'we hadden de vraag niet zo hoog verwacht') en hebben de board partners pas veel te laat de specs gegeven, waardoor die kaarten ook amper beschikbaar zijn, en ze niet genoeg getest zijn, waardoor er nu al problemen waren met de power delivery die niet goed genoeg was voor de boost clocks
Niemand had het erg gevonden als de 3000 serie nu pas was aangekondigd en pas op het einde van de maand beschikbaar was geweest, maar door de serie zo vroeg, te vroeg eigenlijk, aan te kondigen en bijna meteen in de verkoop te gooien hebben ze het gewoon vernaaid voor zichzelf
Grappig hoe iedere anti Nvidia reactie standaard +2 krijgt hier op tweakers.

Ik zou zeggen: wacht maar even af of deze AMD launch ook geen paper launch is....
Maar de meeste leveranciers hebben gezegd dat de voorraad hetzelfde of beter was dan de afgelopen lanceringen van producten.

Iedereen zegt wel NVidia had compleet geen voorraad maar de bedrijven die er echt iets van weten zeggen juist het tegenovergestelde. Heb je enige bron van wat je zegt?
Er zijn board partners, zoals ASUS, die hun kaarten niet eens af hadden op launch day omdat Nvidia zo laat met de specs kwam...
En als je met de grootste toename in prestaties ooit komt dan moet je ook wel in kunnen schatten dat de vraag hoger is dan normaal
Iedereen had dat aan kunnen zien komen
Ik zeg niet dat Nvidia onschuldig is noch zeg ik dat ze genoeg voorraad hadden.

Boven mij werd gezegd dat ze 'vergeten voorraad aan te leggen' wat gewoon niet waar is, ze hadden dezelfde hoeveelheid of meer dan normaal. Dat is alles wat ik zeg.
Als je evenveel voorraad aanlegt als normaal terwijl je weet dat de er een veel groter verschil zit in prestaties, waardoor de vraag veel groter wordt, dan vergeet je weldegelijk voorraad aan te leggen.
En als ze vorige launches ook te weinig voorraad hadden, zijn ze bij de vorige launches ook vergeten voorraad aan te leggen. Dat maakt niet in een keer dat ze het nu niet vergeten zijn.
Of ze hebben het bewust gedaan, maar dat zou helemaal dom zijn.
Vergeten of niet genoeg aankunnen maken zijn 2 verschillende dingen. Ze wilde hem op die datum lanceren, hadden net zoveel kaarten als de vorige launch dus dat hebben ze gedaan. Niemand is iets 'vergeten'.

Je kan wel wachten tot je zeker genoeg voorraad hebt of gewoon lanceren met wat je hebt, het tweede heeft Nvidia gedaan.
Maar er was helemaal geen noodzaak om de kaarten nu al te lanceren
En zonder de druk van AMD had Nvidia dat ook echt niet gedaan
Maar toen in één keer alle geruchten over Big Navi kwamen heeft Nvidia alles naar voren gehaald, waardoor ze gewoon geen voorraad hadden
Als dit altijd al hun planning was geweest, dan hadden ze de board partners ook wel op tijd geïnformeerd, in plaats van een paar weken van te voren pas alle details door te geven, waardoor niet eens alle board partners hun designs af hadden of goed hebben kunnen testen
Maar er was helemaal geen noodzaak om de kaarten nu al te lanceren
Kennelijk vindt Nvidia van wel en ik vermoed dat zij iets beter de industrie kennen.
En zonder de druk van AMD had Nvidia dat ook echt niet gedaan
Nvidia heeft ook nog Sony en Microsoft als concurrenten dit jaar.
Maar toen in één keer alle geruchten over Big Navi kwamen heeft Nvidia alles naar voren gehaald, waardoor ze gewoon geen voorraad hadden
Je zet AMD echt op een iets te hoog podium hier, er was 1 statement over big navi en dat is 50% meer perf/watt. Dat was alles. Ook weet NVidia een stuk beter dan de geruchten wat AMD in huis heeft, die 2 hebben meer dan genoeg info over elkaar.
Als dit altijd al hun planning was geweest, dan hadden ze de board partners ook wel op tijd geïnformeerd, in plaats van een paar weken van te voren pas alle details door te geven, waardoor niet eens alle board partners hun designs af hadden of goed hebben kunnen testen
Ik zeg niet dat dit altijd hun planning is geweest of dat ze het niet gehaast hebben gedaan. Ik zeg alleen dat Nvidia niet is vergeten om kaarten te produceren, ze konden er alleen niet genoeg produceren.

Het enige waar ik het over heb ik is; zijn ze het vergeten of niet. Aangezien ze net zoveel voorraad hadden of meer als normaal kan je zeggen dat ze niet vergeten zijn de fabriek op te starten.
Tja, dan hebben ze er misschien wel bewust voor gekozen, wat misschien nog wel dommer is
We zijn het er in ieder geval over eens dat ze te weinig voorraad hadden
En ze hebben gewoon geen rekening gehouden met wat een lage voorraad zou doen met de media (dat had ik beter had kunnen zeggen dan 'vergeten voorraad aan te leggen')
In plaats van alle positieve berichten over de prestaties is bijna alles gegaan over de slechte beschikbaarheid, bots, scalpers en de power delivery
Ik heb compleet geen mening geuit over dat ze te weinig voorraad hadden.

Het enige wat ik heb gezegd is dat ze het niet zijn vergeten volgens betrouwbare bronnen. Dat is alles.

Jij gaat naar AMD, Big Navi, media berichten, board partners. Heb ik het allemaal niet over en is een compleet andere discussie. Ik heb alleen het bericht/statement boven mij ontkracht. Punt.
Het stroom verbruik wordt hierbij interessant. Het zou me niet verbazen als de keuze van Nvidia om 10GB op de kaarten te zetten mede te maken heeft met de hoeveelheid stroom die een extra 10GB nodig zou hebben. De 3080 piekt in specifieke gevallen al op pakweg 350W, 10GB extra GDDR6X geheugen, wat minder efficient is dan GDDR6, zou zomaar 50W extra kunnen betekenen.

Stel 50W is accuraat (en kan best meer zijn) dan kom je op een TDP can 370W. Als AMD daar een kaart tegenover zet die 90% van de prestaties haalt voor 100W (pakweg 25%) minder, dan hebben ze misschien wel de performance kroon, maar wel tegen een hoge prijs.

En ik snap dat mijn stelling hier een aantal aannames heeft die ik verder niet kan staven.
Je vergeet weer handig het stroomverbruik. Ook dat is van belang.
toch nog tweakers hier.. thank god
Ja, maar die van ampere nauwelijks verbeterd. AMD hoeft nog niet de helft van hun 50% betere perf/watt doel te realiseren om daar overheen te gaan.
idd vergeten...erg belangrijk.

hoewel ddr6x iets zuiniger zou zijn op dezelfde clocks, word dat door de hoge clocks juist een stuk minder zuinig. amd's 16gb(8x2gb chips) ddr6 zou ongeveer tzelfde of zelfs minder kunnen verbruiken als de 10gb(10x1gb chips) ddr6x van nvidia.

verwacht dat amd net als nvidia ook de 300watt makkelijk zal halen helaas. slechte trend imho, meer performance door absurd hoge wattages.
Zelf met gelijke (of zelfs iets betere) prestaties moeten ze voor mij goedkoper zijn.

Mijn laatste ervaring is best al lang geleden (6950 in crossfire, kan meespelen), maar de vele driver issues die ik toen had, en de relatief slechte prestaties toen zorgen dat "gelijk of beetje beter" mij toch niet naar amd pushed.

Komt bij dat ik een gsync monitor (pg278q denk ik?) heb, waardoor nvidia al een voorsprong heeft bij mijn keuze.

Dus ik vrees dat directe concurrentie, zeker in de high end markt, niet voldoende is, zowel door ervaring als investering. Ze zullen beter of goedkoper moeten zijn. Zie ryzen, waar het ook 4 generaties (of 3 afhankelijk hoe je het bekijkt) heeft geduurd voor ze dezelfde prijs/performance kunnen vragen.
klopt.

wie zoveel geld in een gsync monitor heeft geinvesteerd zal pas bij een grote voorsprong van amd overstappen. en dat gaat nu gewoon niet gebeuren.

als je monitor geen adaptive sync ondersteunt zou je wellicht beter op de 16/20gb versies van nvidia kunnen wachten.
Hoeft zelfs niet veel geld te zijn. Nvidia set het gsync logo nu ook op goedkope(re) adaptive/freesync schermen. Mensen zien dit logo (is goed zichtbaar omdat het ooit iets betekende), en niet dat het ook werkt op amd kaarten.

(Moet bekennen, ik weet zelfs niet of mijn scherm gsync only is of dat het ook zou werken met and)
Ik vind het knap dat AMD zowel als CPU als op GPU vlak heel veel verbetering heeft kunnen brengen. Intel en NVIDIA krijgen toch steeds meer competitie en dat is een goed teken, daarom zullen zij alleen maar harder terug moeten komen met iets wat nog veel beter is.

Ik ben heel benieuwd naar de komende jaren en wat we nog allemaal te zien gaan krijgen.

:)

Edit: ik zie natuurlijk dat AMD er overduidelijk nog niet 'helemaal' bij is, maar ze maken wel verbeterslagen met hun nieuwere architecturen.

[Reactie gewijzigd door schilperoordbas op 23 juli 2024 14:20]

AMD is Intel eigenlijk al met de huidige generatie Zen processors bij. Hooguit in zeer specifieke single-threaded applicaties weet Intel ze nog enkele minimale procenten voor te blijven, waar dan wel een veel hogere prijs en energieverbruik tegenover staat. Met de nieuwe generatie Zen processors is er (buiten de prijsverhoging...) eigenlijk geen enkele reden meer om voor Intel te kiezen.

Op GPU-vlak hebben ze het al jaren moeilijk. Dat is ook niet zo gek: AMD heeft by far niet de budgetten die Nvidia kent, wat hun in de weg staat voor R&D en marketing. Een vicieuze cirkel die zeer lastig te doorbreken is.
AMD heeft by far niet de budgetten die Nvidia kent, wat hun in de weg staat voor R&D en marketing. Een vicieuze cirkel die zeer lastig te doorbreken is.
Ik denk dat die budgetten nu vast wel vrijkomen, met (hopelijk, want graag!) extra focus op driver-stabiliteit.
Ga eens een kijkje nemen in de jaarverslagen. Het is echt een kwestie van David tegen Goliath (Intel maakt 35x meer winst dan AMD en nVidia ook pakweg 6x meer). Ze hebben zoveel meer geld te besteden dat zelfs on-par performance haast een wonder is. Dat AMD Intel nu duidelijk voorbijstreeft en blijkbaar NV praktisch inhaalt toont vooral hoe slordig de aanpak bij de concurrenten is (en hoe zeer ze zich hebben willen uitrusten op de winsten uit hun quasi-monopolies ten kosten van de consument en de samenleving).

[Reactie gewijzigd door Darkstriker op 25 juli 2024 02:00]

eeeuuh we hebben nog geen enkele concrete informatie ontvangen over wat amd nou precies gaat lanceren en onafhankelijke benchmarks voordat we gaan claimen: "en blijkbaar NV praktisch inhaalt" Want dat blijkt nog nergens uit.
- Geen RTX informatie,
- Geen concrete benchmarks
- Geen concrete amd 'DLSS' verbeterigen.

Daarnaast zijn er een aantal pro amd bronnen die beweren dat nvidia de 3080 softwarematig langzamer heeft gemaakt om te voorkomen dat amd achterkomt wat de werkelijke waarde zijn. Dus het is sowieso een interessante tijd.

Ik hoop dat AMD met iets moois komt want nvidia loopt weer royaal te kloten of de miners zijn weer in full swing aangezien de 3080 en 3090 goed minen en crypto weer in de lift zit.
Neen, zeker weten doen we het niet maar zelfs een benadering van 10% is gewoon een winst in die vergelijking. En als AMD geen bedreiging vormde was de 3070 de 3080 geweest en de 3080 de 3090 (of 3080 Ti), met bijbehorende prijzen. Ook de overhaaste paperlaunch van nV laat zien dat ze daar bezorgd waren over de komende generatie van AMD. En die twee houden elkaar echt wel goed in de gaten. nV weet zeker meer over de komende AMD launch dan wij.
En... hoe slordig de aanpak is geweest bij AMD, laten we eerlijk zijn, Lisa Su heeft behoorlijk het roer omgegooid.
Men reageert soms nogal furieus op de hoge lonen van de CEO's, maar een goeie is meestal echt dat geld wel waard. Een groot bedrijf succesvol runnen is echt geen eenvoudige taak.
Je moet veel zaken, zonder ze echt te kennen, goed inschatten en de juiste beslissingen nemen.
(Ik heb geen idee of Lisa Su een hoog loon heeft of niet.)
In 2019 heeft ze 58.5 miljoen dollar verdiend, voornamelijk in aandelen.
In veel gevallen kijk ik altijd een beetje scheef als CEO's veel geld verdienen maar Lisa Su is op dit moment echt een van de beste CEO's van de wereld. Natuurlijk heeft ze het niet alleen gedaan maar ze heeft AMD wel van de rand van de afgrond gehaald.
Dus een leuk loon mag daarbij passen.
Die outrage is vooral een politieke rookgranaat. De meeste CEOs zijn dat geld voor aandeelhouders echt wel waard (sterker nog, daar is nogal wat wetenschappelijk onderzoek na gedaan) en uiteindelijk zijn de aandeelhouders de werkgever van de CEOs.

In Nederland wil met topinkomens normeren, maar dat is helemaal niet waar het misgaat in onze samenleving. Het gaat mis bij vermogen (en hoe dat verdeelt is). Mensen met veel vermogen worden elk jaar veel rijker terwijl ze praktisch geen bijdrage leveren aan de samenleving (in tegenstelling tot die CEO).
De meeste CEOs zijn dat geld voor aandeelhouders echt wel waard (sterker nog, daar is nogal wat wetenschappelijk onderzoek na gedaan)
Graag bewijzen. Ik heb het tegendeel gelezen in verschillende bronnen o.a. kapitaal in de 21ste eeuw van Thomas Piketty is een aanrader. Hier alvast een online bron:
https://www.epi.org/publication/ceo-compensation-2018/

Why it matters: Exorbitant CEO pay is a major contributor to rising inequality that we could safely do away with. CEOs are getting more because of their power to set pay, not because they are increasing productivity or possess specific, high-demand skills. This escalation of CEO compensation, and of executive compensation more generally, has fueled the growth of top 1.0% and top 0.1% incomes, leaving less of the fruits of economic growth for ordinary workers and widening the gap between very high earners and the bottom 90%. The economy would suffer no harm if CEOs were paid less (or taxed more).
In de praktijk werkt dat niet - in Belgie hebben ze de lonen van CEO's voor overheidsbedrijven geplafoneerd met als gevolg dat de goeie vertrekken.
Is dat zo? Gaat een bedrijf met een CEO die 3x zo duur is, 3x beter is, en dat het bedrijf dus 3x zoveel winst maken (na aftrek van het veel duurdere CEO loon natuurlijk). En omgekeerd gaan de bedrijven in België het plots drie keer zo slecht doen.

Ik heb liever dat mijn belastingsgeld naar het onderwijs gaat, dan naar de luxe jacht van iemand die al meer dan genoeg heeft.
Dat loon van de CEO is een peuleschil tov de winst.
Foute beslissingen kunnen veel duurder uitvallen voor de belastingsbetaler. Zie het grote foutenboek.
Dat stukje tekst dat jij citeert is niet eens in zichzelf coherent. Komt nog bij dat dat hele artikel echt een reportage is, geen wetenschappelijk onderzoek. Piketty is een befaamde econoom, maar hij is in een heel ander gebied gespecialiseert. Dit is een opiniestuk dat vanuit autoriteit in plaats van ratio de politieke mening van Piketty verkondigt (verbloemt met statistieken om het objectief te laten lijken). Hem aanhalen is gewoon een drogredenen.

Als je het echt wilt weten: Google scholar is your friend. Er zijn menige onderzoeken die aantonen dat CEOs met betere betaling ook duidelijk betere resultaten boeken. Hoe groot de gevonden impact is varieert omdat het een erg complexe materie is maar onderzoeken schrijven tot 40% (!) van de ROE stijgingen toe aan hogere executive compensation. En ROE (Return on Equity) is nou eenmal het ene ding wat aandeelhouders belangrijk vinden. Uiteraard zijn er ook studies die geen effect vinden en ook een handje vol die een negatief effect ziet met meer compensatie maar de trend is duidelijk.

https://www.sciencedirect...cle/pii/S0970389616300465
http://essay.utwente.nl/71332/1/Kazan_BA_MB.pdf
https://www.econstor.eu/b...1/1/gbfr2018-23-3-081.pdf
http://eprints.bournemout...t%20tracked%20changes.pdf
https://sites.psu.edu/vil..._Misangyi_et-al.-2004.pdf
Je argumenteert dat ik enkel de onderzoeken eruit pik die mijn mening onderbouwen. Of dat de onderzoeken die ik aanhaal niet objectief zijn. Maar ik kan natuurlijk net hetzelfde zeggen over de artikels die jij aanhaalt. Je beweert ook dat er meer onderzoeken zijn die jou gelijk geven, zonder dit effectief aan te tonen.
Jij hebt helemaal geen onderzoek getoont. Wat jij stuurt is op z'n best een rapport te noemen maar het past beter bij de definitie van een opiniestuk. Dat de auteur (meneer Piketty) een beroemde econoom is doet er helemaal niet toe, want dit is volstrekt buiten zijn specialisatie.

En een van die links van mij is wel degelijk een meta-analyse (dus een analyse van min of meer alle voorgaande onderzoeken) waaruit blijkt dat er verband is.

[Reactie gewijzigd door Darkstriker op 25 juli 2024 02:00]

Dan vind ik het best wel top dat AMD zo mee kan komen al hebben ze veel minder te besteden..
AMD heeft met het eerste ryzen ontwerp, de basis gelegd voor een CPU dat na verschillende generaties alleen maar beter en beter wordt. Daar is grof voor geinvesteerd, Jim Keller en andere silicon guru's maar het mocht zijn dat ze naar iets opzoek waren dat Intel voorbij zou streven.

Je krijgt nu pakweg de helft meer cores dan een paar jaar terug, en de prijzen zijn super competatief voor wat je bij Intel krijgt. Daarbij opgeteld is manueel overklokken iets uit het verleden. Chips zijn intelligent genoeg om zichzelf te boosten en de best mogelijke performance te bieden voor binnen een gesteld power / temperatuur range. Verbeter de koeling? Verbeter je automatisch het boost gedrag. Ik bedoel maar.

Nu met Ryzen 3 voor de deur mag het duidelijk zijn dat ze zich meer op inner latency's en caches hebben gericht, daar waar het voor games juist belangrijk was. Dat is nu in de kop gedrukt, en de ogen zijn als het ware nu voor AMD op de volgende generatie, DDR5 en waarschijnlijk ook AM5 socket. Ik denk dat daar de grootste performance leap moet gaan komen ten opzichte van Gen 3 / 2 / 1. Nu ze ook met RDNA1 succes hebben geboekt, een mid range chip formaat dat concurreert met een high-end / big chip van Nvidia, is het alleen maar positief wat er zometeen aankomt (RDNA2). En ook hier hebben ze een chip basis dat verder ontwikkeld kan worden naar RDNA3 etc.
Bij GPU niet, maar bij gamen zijn ze in praktijk al 1 jaar king (als je 1 programma als firefox in de background draait wint amd, zo niet wint intel).

En nu zijn ze écht king, ook zonder een applicatie in de background
Ook al heeft de nieuwe generatie AMD kaarten wellicht een betere prijs/performance, is het de vraag of dat prijsverschil aantrekkelijker is dan de meerwaarde die Nvidia biedt met RTX en DLSS 2.0.
DLSS werkt niet in alle games, zover ik weet. Dus dan komt het "totale" price/performance plaatje er al snel anders uit te zien, afhankelijk van wat je speelt. Ik ben persoonlijk ook niet zo gecharmeerd van de gok dat een nieuwe kaart alleen acceptabele price/performance heeft als toevallig de games die ik in de toekomst wil spelen het per toeval ondersteunen. Dat is koffiedik kijken. Ik zou DLSS dus maar zeer beperkt meewegen in mijn keuze voor een nieuwe GPU.

Nu eerst wachten op de aankomende RX6000 kaarten, tot die tijd draait mijn GTX970 nog wel even door :+
DXR heeft nog weinig ondersteunde games. Dit zal zeker groeien, maar het is bij lange niet zo dat we al aan 50% gaan zitten van alle games in een jaar tijd. Zou sneller 10-15% zeggen. Als dat toevallig een games is wat jij speelt, dan is het als nog overwegen of RT van belang is voor jou.

DLSS is het zelfde liedje maar nog een slag erger. DLSS moet gemaakt worden per game, waar radeon op dit moment bijv. "Image Sharpening" gebruikt die toegankelijk is voor ALLE games via de driver, ook al is dat niet zo dramatisch als DLSS.

Komt ook bij dat AMD veel andere dingen heeft.
- Het is pas nu dat invidia komt met een antwoord op "Radeon Anti-Lag", wat al over een jaar bestaat bij AMD.
- Er is ook "Radeon-Chill", een frame limiter die je kan instellen voor iedere game zodat er niet meer verbruikt word van de kaart dan dat jezelf nodig hebt (waarom op 240fps zitten op een 144Hz monitor?).
- Auto-Undervolt is ook erg handig. Kaarten zijn vaak verkocht met een hogere voltage dan dat eigenlijk nodig is om stabiliteit in power delivery te garanderen. Hiermee haal je weer wat meer winst mee.
- Eyefinity is nog altijd beter dan invidia's alternatief.
- Vele per game opties in een zeer prettige interface. Heel handig voor oude games. invidia heeft ook iets dergelijks maar niet zo uitgebreid en prettig.

Ik weet niet of er andere functies zijn, tis niet zo dat ik dagen met de drivers aan het spelen ben.
Al zit DLSS wel in bijna alle moderne grote games nu. En volgens mij is het sinds DLSS 2.0 in verhouding een stuk eenvoudiger om het toe te voegen. Meestal levert het betere graphics en betere performance op.
Zoveel meerwaarde heeft dat niet...
AMD rdna2 bied tevens raytracing en een variant op dlss.
Er is al een nieuwere versie van de tabel. GoW5 heeft 81,4 fps & Borderlands 3 60,9fps voor de 3080.
Yeah heb ook al 57 en 59 voorbij zien komen.
Maar goed je kan die beshmarks niet onderling vergelijken. Als ze een ander stuk van het spel getest hebben zegt het niets.

Je kan ook niet de 3080 Borderlands resultaten van site A met die van site B vergelijken. Ze gebruiken andere test systemen, testen een ander stuk van het spel, met andere instellingen. Noem het maar op.
Ook daar kan je makkelijk 20% verschil tussen review A en B zien.

Kortom we kunnen eigenlijk nog niets over de prestaties zeggen.

Maar vind het wel een domme keuze van AMD om dit zo te laten zien. Vraag me echt af wacht de gedachte hier achter was. Ik zou het oprecht niet weten.
De gedachte is o.a. dat je potentiele kopers en twijfelaars een reden geeft om voor AMD te gaan ipv NVIDIA.
Dat doe je niet echt door prestaties te laten zien die onder de 3080 lijken te zitten.
Tenzij je zegt dit is niet het top model maar dat hebben ze niet gedaan
Niet? Ik heb al zo veel mensen gezien die gewoonweg niet geloofde dat AMD verder zou komen als de 3070. Die zijn nu meteen still, want het is duidelijk dat AMD concurrentie heeft voor de 3080.

En lisa zei ook nog dat ze nog aan de prestaties aan het sleutelen waren, dus dat dit nog niet de uiteindelijke prestaties zijn.
Dat is wel waar. Nee klopt er zijn al meer van dat soort dingen gezegd.
Maar goed vond het in ieder geval een erg gewaagde zet.
ik zeg net ook deze:
https://www.pcworld.com/a...mance-tease-rtx-3080.html
Most importantly, Herkelman stressed that AMD didn’t state which Radeon RX 6000 graphics card ran these benchmarks.
Het lijkt me niet dat je zoiets zegt als je goed weet dat het wel je snelste GPU was.
Ja dit was de hele quote:
Scott Herkelman said:
Its very important to understand what AMD didn't reveal today
He stressed that AMD dint state witch RX 6000 graphics card was

We dont know weather these results come from the biggest Navi GPU or the more modest offering
Scott Herkelman also said there is still finetunning left to do before launch
Ligt allemaal aan de prijs. Stel amd kost 600, voor 5% minder performance en is WEL leverbaar dan ga ik lekker voor AMD.
Snap ik maar die hebben ze er niet meteen bij verteld en DAT is het probleem.
Nu heb geen idee je weet alleen dat deze SKU trager is dan een 3080. Is het de snelste? geen idee. Heeft hij meer geheugen? geen idee. Is hij goedkoper? geen idee

Dus vind het marketing technisch een rare actie. Als hij sneller zou zijn dan de 3080 had ik het begrepen maar dit niet.
Volgens mij is die achterliggende gedachte vrij duidelijk, "marketing."

Iedereen die ook maar enigszins twijfelt nog meer laten twijfelen.. want als je nu een 3080 hebt weten te bemachtigen die over een paar maanden achterhaalt is (ongeacht of dat komt door AMD of Nvidia zelf gezien de geruchten) dan voel je je belazerd. Dat is precies het gevoel waar ze op in willen spelen. Inhakend op eerder genoemde geruchten, er wordt dus geroepen dat Nvidia in december een 16gb 3070 en een 20gb 3080 gaat lanceren omdat AMD kaarten heeft met meer VRAM. Als dat waar is dan heeft AMD zelfs Nvidia laten zweten.

Ik vind het ook prachtig om alle Nvidia fanboy reacties te lezen hieronder: "Ja koop maar AMD, meer Nvidia voor mij!" Begrijpt niemand hier dat concurrentie goed is voor de markt? Het houdt de prijzen lager en vraagt meer innovatie van de producenten.. in alle gevallen is het goed ongeacht of je wel of geen fan bent, wees blij dat er een concurrent is anders dan draait je favoriete partij je wel een poot uit wat betreft de vraagprijs. (*kuch* 2080ti *kuch*)

Speculeren over de prestaties is ook iets waar we goed in zijn, echter is het verstandig om de onafhankelijke benchmarks af te wachten. Kijk maar naar Nvidia, die beloofden meer dan dat ze waar konden maken met de 3080. De prestaties zijn als nog indrukwekkend, maar minder dan dat ze beloofd hadden (iets wat mensen nog wel eens willen vergeten).

Time will tell, tot die tijd, niet allemaal op de hype train springen en laten we eerst de reviews afwachten :)
Nu heb geen idee je weet alleen dat deze SKU trager is dan een 3080. Is het de snelste? geen idee. Heeft hij meer geheugen? geen idee. Is hij goedkoper? geen idee

Dus vind het marketing technisch een rare actie. Als hij sneller zou zijn dan de 3080 had ik het begrepen maar dit niet.
Ik snap gewoon niet wat ze hier dan echt aan voordeel uithalen ze hebben het totaal plaatje niet kunnen laten zien waardoor niemand weet of het een goed aanbod is.
Maar er zijn wel genoeg mensen die nu gepikeerd zijn dat hij trager is dan de 3080. Dus dat is dan een beetje negatieve marketing. Terwijl als je een prijs had geweten je misschien wel heel positief was geweest.
Nu heb geen idee je weet alleen dat deze SKU trager is dan een 3080. Is het de snelste? geen idee. Heeft hij meer geheugen? geen idee. Is hij goedkoper? geen idee
Precies, dat weet niemand. Er bestaat echter een kans dat hij sneller is. Maakt niet uit hoe groot die kans is, de kans is er. Dit zal voor een grote groep mensen al voldoende zijn om ze in ieder geval de launch af te laten wachten.

Dus marketingtechnisch is het geen rare actie. Door deze getallen te laten zien wil AMD enkel aangeven dat ze in hun ogen nog altijd meedingen voor de 'beste GPU'. Ikzelf zal bijvoorbeeld pas een partij kiezen nadat ik de benchmarks en reviews van de nieuwe kaarten van AMD gezien heb. Pas op dat moment is alles duidelijk en kan er een weloverwogen keuze gemaakt worden. Tot die tijd blijft het gissen.

edit: "There is no such thing as bad publicity." Positief of negatief maakt niet uit, het gaat om de publiciteit die ze zoeken rondom hun GPU's. De launch duurt nog bijna 3 weken en ze willen zoveel mogelijk mensen in ieder geval laten wachten. Iedereen die nu geen Nvidia koopt is een potentiële klant voor hun.

En stel hij is trager.. je kan de performance van een 3080 kopen met de aanschaf van een 3080.. kost je dan +- 750 euro. Als de kaart van AMD 10% trager is maar wel 30% goedkoper dan heb je als nog genoeg mensen die de aanschaf zullen overwegen :)

[Reactie gewijzigd door Scorpio616 op 25 juli 2024 02:00]

Ja maybe. Misschien focus ik nu te veel op de mensen die RDNA2 nu al afschrijven omdat hij de 3080 niet verslaat.
Ik denk zelf ook dat er nog wel wat meer in zit en dat ze wel degelijk opnemen tegen de 3080.
Maar stel hij is toch trager maar de prijs is ook lager dan is het wat mij betreft ook prima.
Vermoedelijk om mensen een idee te geven wat ze qua prestaties kunnen verwachten. Als je ziet dat ze in de buurt zitten van de RTX 3080 dan kunnen consumenten overwegen om nog even te wachten op de gpu's van AMD in plaats van direct te kiezen voor NVIDIA.
Voor die 2-3% die op 4k draait is DLSS een leuke feature ja, mits ze een van de 15 spellen spelen die het ondersteunt (worden er ≈50). Anders is DLSS (net als RTX imho) niet zo’n impactvolle feature, en zou ik mijn keuze er denk ik niet door laten beïnvloeden.

Prijs/prestatie-verhouding en energieverbruik blijven m.i. de belangrijkste factoren.
Voor 1440p is het ook wel een goede feature. Volgens die charts is de quality DLSS 15% performance winst. En vaak is toch wat meer performance des te beter vooral als je ook nog een 144hz scherm hebt.
Deze cijfers zeggen natuurlijk vrij weinig zonder prijs.
Ze zeggen dat AMD mee doet in het high end segment, and a 4k GPU heeft.

Het zegt nog niet dat het een goede koop gaat zijn, maar wel dat je straks waarschijnlijk wat te kiezen hebt in het high end segment.
Waarom hexus en eurogamer en niet techpowerup of gamersnexus?
ik weet van techpowerup dat ze andere settings gebruikte voor de ene game uit het lijstje van AMD dat ze getest hebben.
Ik zie een hoop negatieve reacties, en inderdaad zonder de juiste gegevens valt er niet alles over te zeggen, maarrrrrr.... eigenlijk ziet er gewoon goed uit toch?! Voor een merk dat doorgaans prima GPUs maakt maar altijd in de middenmoot beland, en nu ineens op gelijke of bijna gelijke voet lijkt te treden met de hoogste tier van Nvidia GPUs zeg ik gewoon: Chapeau! _/-\o_

Ik voorzie zeker nog ruimte met betere drivers, wellicht meer geheugen, GDDR6x, meer infinity cache, etc. En niet te vergeten meer concurrentie, iets waarvan we allemaal profiteren of je nu voor Rood of Groen bent.
Voor het eerst in tijden overweeg ik weer een volledige AMD build. De processoren zien er zo op het eerste oog goed uit, maar laten we eerst de onafhankelijke benchmarks afwachten. Daarin stelde Nvidia ook enigszins teleur (lees: prestaties waren niet wat ze beloofd hadden, echter nog altijd indrukwekkend). Ik hoop zo dat ze Nvidia kunnen evenaren!

De geruchtenmolen draait al op volle toeren, bijvoorbeeld over de mogelijkheid dat Nvidia in december een 16gb 3070 en een 20gb 3080 gaat lanceren omdat ze al 'inside informatie' hebben over de hoeveelheid VRAM op de AMD kaarten. Als dat waar is dan heeft AMD zeker nog wat achter de hand waarmee ze ons de 28e gaan verrassen. Ik hoop echt dat ze de concurrentie weg weten te blazen, of in ieder geval price/performance-wise. De absolute top wat betreft performance zou dan gerust bij Intel/Nvidia kunnen blijven liggen, maar dat is enkel voor de echte 'enthusiasts' weggelegd. Als ze de mid-/highend markt domineren dan kruipen ze gauw uit de rode cijfers :)

[Reactie gewijzigd door Scorpio616 op 25 juli 2024 02:00]

Op dit item kan niet meer gereageerd worden.