Nvidia Quadro RTX-gpu's beschikken over Samsungs 16Gbit-gddr6-geheugen

Samsung heeft bekendgemaakt dat zijn gddr6-geheugen met een capaciteit van 16Gbit onderdeel is van de dinsdag door Nvidia aangekondigde nieuwe, zakelijke Quadro RTX-videokaarten op basis van de Turing-architectuur.

Volgens Samsung wordt met het gddr6-geheugen de capaciteit verdubbeld ten opzichte van de eigen gddr5-geheugenchips met een capaciteit van 8Gbit die op 20nm zijn gebakken. Het gddr6-geheugen haalt een bandbreedte van 14Gbit/s per pin en een doorvoersnelheid van 56GB/s. Volgens Samsung komt dat ten opzichte van de eigen gddr5-chips neer op een verhoging van de bandbreedte van 75 procent. Ook zijn de gddr6-chips 35 procent zuiniger dan de gddr5-chips, aldus Samsung. Dat laatste hangt samen met het feit dat de nieuwe chips op 1,35V werken, in plaats van 1,5V bij de gddr5-chips.

De Zuid-Koreaanse fabrikant startte in januari met de massaproductie van het gddr6-vram. Toen maakte het bedrijf nog melding van een snelheid van 18Gbit/s; Samsung meldt nu dat de chips niet verdergaan dan 14Gbit/s. Op dezelfde manier zit er ook een verschil tussen de maximale doorvoersnelheid. Samsung meldde in januari dat die op 72GB/s uitkwam, terwijl het bedrijf nu 56Gbit/s noemt. Het is onduidelijk hoe dit verschil precies kan worden verklaard; wellicht dat Samsung dit snellere gddr6-geheugen pas op een later tijdstip uitbrengt. In 2016 voorspelde Samsung nog dat gddr6-geheugen in eerste instantie in 2018 een snelheid van 14Gbit/s zou hebben, wat later zou stijgen naar 16Gbit/s. De Jedec-standaard beschrijft gddr6-snelheden van 10 tot en met 16Gbit/s, met capaciteiten tot aan 32Gbit, maar Micron heeft al snelheden tot 20Gbit/s behaald.

Nvidia introduceerde dinsdag onder meer de Quadro RTX 8000, RTX 6000 en RTX 5000. Deze nieuwe gpu's, die vanaf oktober beschikbaar zijn, ondersteunen onder andere ray tracing. Dat is een techniek waarbij lichtstralen vanuit de positie van de camera in verschillende richtingen worden uitgestraald. Hoe deze lichtstralen vervolgens weerkaatsen, wordt door middel van gespecialiseerde RT-cores berekend aan de hand van de kleur en eigenschappen van het materiaal.

Samsung gddr6-chips

Door Joris Jansen

Redacteur

14-08-2018 • 14:27

73

Reacties (73)

73
72
26
2
0
41
Wijzig sortering
Wat is de use case van zo een "zakelijke" videokaart? Foto/video bewerking?
foto/video bewerking, 3D modelling, product design (AutoCAD), renderfarms, data analyse, predictive modelling etc.
Wat doe je in AutoCAD om een videokaart zo hard nodig te hebben?
Er is een verschil tussen Autocad en de andere Autodesk programma's :P
Klopt, maar je moet dingen toch echt eerst ontwerpen voor je ze kan testen. En een complex model vraagt behoorlijk wat van je videokaart. Nee je hebt geen 48GB aan geheugen nodig, maar de GPU zelf heeft wel degelijk invloed.
In autocad (en dan heb ik het gewoon over de kale versie). Is gpu helemaal niet zo belangrijk en blijft het meestal hangen op de cpu die niet snel genoeg is voor berekenen van de benodigde punten. (Ifc modellen van gebouwen rond de 60-70mb)

Oude werkgever had alle gpus geüpgraded want autocad voelde traag aan. Elke pc kreeg een gtx960. De cpu was nog steeds een i5 2500k. En die kon het gewoon niet bijbenen op stock snelheden.

Dr gpus waren geupgrade op aanraden van ICT. Toen ik voorstelde om een reserve pc de CPU koeler te vervangen en flink op zijn staart te trappen werdt er nonchalant over gedaan door de meneer die de pcs in beheer had. "Laatste 5 jaar is er niet veel veranderd dus CPU upgrade is overbodig" toch zover gekregen om over te mogen overclocken als testcase (ze hadden diverse pcs als reserve staan mocht er een uitvallen). En zelfs met een oude gpu was de pc sneller in autocad dan de pcs met nieuwe gpus.

Als ik mag kiezen tussen een pc met een 28 core xeon op 2ghz en een 1080ti of een overclockte dualcore pentium op 5ghz met een 1050 en mijn usecase is puur en alleen tekenen in autocad. Dan doe mij die laatste maar ipv die eerste

Tl;Dr: in mijn ervaring bepaald vooral de CPU de snelheid in autocad niet de gpu

[Reactie gewijzigd door Splitinfinitive op 24 juli 2024 04:42]

Dit klopt, omdat zeer complexe scenes kun je alleen maar raytracen (best een fancy spel tegewoonrdig heeft ca 10 mil tris in beeld, autocad tekeningen half miljard) . Dat 48gb op rtx maakt het wel aantrekkelijk om als nog op gpu te gaan doen en vooral ook omdat het juist ook raytracing native ondersteund. gaat wel even duren voordat echt ondersteuning vanuit autodesk voor komt.

[Reactie gewijzigd door Vlad86 op 24 juli 2024 04:42]

Dat is niet AutoCAD, dat is een ander product van Autodesk.
Niets, voor AutoCAD heb je helemaal niet zo'n zware videokaart nodig. Sterker nog, alle Autodesk programma's (waaronder AutoCAD) werken tegenwoordig met DirectX en hebben eigenlijk totaal geen baat bij AMD FirePro's of Nvidia Quadro's. Een degelijke consumenten videokaart of geïntegreerde videokaart van een recente CPU bieden al voldoende kracht.

Zie hier bijvoorbeeld voor een ietwat gedateerde bron

[Reactie gewijzigd door soulcrusher op 24 juli 2024 04:42]

Volgens mij is nog niet alle software DirectX als ik mij niet vergis inventor bijvoorbeeld gebruikt nog opengl(cl?)

En mocht je bepaalde functies van willen gebruiken zoals 64x antialliasing dan zit je wel vast aan een prosumer kaart. Maar op dat gebied loop ik iets achter qua parate kennis. En de quadros etc kunnen iets beter omgaan met hidden viewports als ik mij niet vergis (revit)
Foto en video niet. Dat kan met een cheape kaart net zo goed. De rest zeker.
Foto misschien niet, video zeker wel. En vaak heb je een dergelijk systeem niet voor maar 1 ding. Video met geavanceerde effecten, colorgrading, 8K etc krijgt iedere workstation aan het zweten. Zeker als je real time wilt previewen.
Maar daar wordt vaak de videokaart maar weinig voor gebruikt. Een 1060 gebruikt vaak niet eens 50% bij gpu versnelde effecten.

Er is niet heel veel dat gpu versnelde word. In première pro sowieso. En het meeste is zelfs single core.
Ik render mn videos anders toch gewoon over de gpu. Resultaat van de gpu renders zijn iets minder van kwaliteit, maar die gpu is er wel vele malen sneller mee klaar. En dan heb ik het over minimaal een factor 20 verschil.
Dan heb je het waarschijnlijk over het exporteren. Dan KAN er inderdaad gebruik gemaakt worden van de GPU. En zelfs dan:

Bij mij (GTX1070) wordt de GPU maar voor ~30% gebruikt bij een export. Tenzij ik een speciale codec gebruik welke daadwerkelijk de GPU echt kan gebruiken. Maar het verschil tussen de H.264/265 render op CPU/GPU met Premiere Pro, en de speciale codec is een factor 2. Indrukwekkend, maar aangezien je de export vaak maar 1x doet, en dat vaak minder haast heeft (het kost immers geen werktijd van een medewerker) is kwaliteit toch belangrijker dan snelheid.

Sowieso wordt de GPU nooit echt volledig belast. Voor video-editing is een low-end kaart al snel genoeg. Zeker bij Adobe, waar GPU-accelaration niet zoveel focus heeft.

After Effects: https://www.pugetsystems....-vs-AMD-Radeon-Vega-1210/
GTX1060 is vrijwel gelijk in performance als een GTX1080ti.

Premiere Pro: https://www.pugetsystems..../Hardware-Recommendations
~15% verschil tussen een GTX1060 en een GTX1080. En dat met een timelime waar heel veel GPU-effects gebruikt worden... iets wat natuurlijk niet heel vaak voorkomt.
Zie ook de video van JayzTwoCents:
https://www.youtube.com/watch?v=_6XYaFqq2mg
Enkel CPU: 326 seconden
GPU (van 1070 tot 1080ti en VEGA64): 133 seconden.

Davinci Resolve: https://www.pugetsystems..../Hardware-Recommendations
Daar heeft de GPU pas effect. En enkel bij gebruik van meerdere OpenFX. En bij 1/2 resolution. Met Full Resolution kan je zelfs beter 1 kaart hebben dan meerdere.

Welke GPU maakt weinig uit. Het belangrijkste is dat je EEN dedicated gpu hebt. Welke dat dan is maakt niet extreem veel uit..... Premiere is sowieso slecht geoptimaliseerd voor GPU. En video rendering is lineair, en dus niet over de honderden/duizenden cores van een GPU goed te verdelen. Itt een 3D render.

Maar als je een voorbeeld hebt van de GPU renderer die je voor video gebruikt, i'm all ears. Factor 20 verschil is enorm namelijk.
Nope, ik gebruik het woord verkeerd. Niet render maar encoderen bedoel ik. Ben momenteel veel data aan het omzetten naar h265. Een aflevering van 45 min wordt in een minuutje of 2 a 3 omgezet naar een x265 variant. Tijden etc verschillen onderling, ligt er net aan hoe hard de HDD etc aan het werk is op dat moment. Maar haal altijd minimaal 200+ fps met omzetten en bij SD materiaal 1000+ fps. Dan is het goed te doen om een collectie om te gooien. Mijn CPU (is geen geweldige CPU, daar niet van) haalt vaak de realtime fps niet eens.

Renderen duurt idd veel langer en wordt meestal over de CPU gedaan.

NVEncC overigens. Command line tooltje.

Documentatie

@Waah edit: linkjes toegevoegd. Succes.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 04:42]

Cool, ga ik eens naar kijken.
Niet met een huis tuin en keuken workflow, maar denk eerder aan Avid Media Composer oid.
Avid Media Composer heeft niet eens in de documentatie waar de GPU wel en niet gebruikt wordt.... Tenminste, dat is wat ik online vooral lees. Premiere Pro en DaVinci Resolve zijn echt geen "huis tuin en keuken" programma's.....

Ik kan ook geen enkele test of benchmark van AVID vinden mbt GPU. Enkel wat screenshots waar, verrassend, de GPU ook maar voor 40% gebruikt wordt.
Als je er geen verstand van hebt en moet googlen om met een tegenargument te komen dan kan je beter ophouden. Avid was een van de eerste programma's die Cuda ondersteunde en zelfs daar voor al GPU acceleratie ingebouwd had. Ze zijn al sinds jaar en dag een Nvidia partner en vergeleken met Avid is premiere echt een huis tuin en keuken programma. En met een huis tuin en keuken workflow heb ik het over hobbyisten zoals 95% van de youtubers waarbij een 1080p video aan elkaar wordt geknipt en zo nu en dan een plaatje of een introtje in wordt geplakt. Vergelijk dat met een film of TV show geschoten op RED cameras op 8K 60fps met een 300MBps bitrate supersampled naar 4K inclusief overgangen, effecten en colorgrading. En dan in real time af kunnen spelen. Dat is waar je een videokaart als dit voor nodig hebt.
Als je zo de discussie wil ingaan ben ik snel klaar. Ik gebruik dagelijks, als professional, gewoon video editing programma's. Vooral Premiere ja. Maar ook FCP X en soms Davinci.

Geen RED footage. Maar echt niet iedereen die RED Footage heeft, gebruikt AVID. AVID is vooral gebruikelijk omdat het de eerste goede video editing suite was voor Hollywood. Tegen de tijd dat NLE's goed en wel op een acceptabel niveau waren, zat Hollywood al volledig in AVID. En AVID is prima software, maar zeer slecht gedocumenteerd en wat exact nu aan GPU versnelling gebruikt wordt is dus ook zeer onduidelijk.

Googlen is prima om bewijs van je claims te vinden. Dat jij niet verder komt dan: "Ja maar Hollywood gebruikt AVID, DUS is een videokaart belangrijk" (sowieso slaat die logica als een tang op een varken).

In Hollywood kijkt men niet naar een paar 10.000 euro voor een workstation meer of minder. Dus dat zijn logischerwijs dikke rigs met alles erop en eraan. Je werknemers kosten namelijk hetzelfde of meer per maand. Dus risicoloos gewoon de dikste PC kopen.

Maar kom maar met bewijs dat RED-footage zoveel baat heeft bij een dikke GPU in een normale workflow. Zo niet ben ik snel uitgediscusseerd met iemand die niet geloofd in harde data en vind dat ik hem op zijn blauwe ogen moet geloven.
Nvidia marketing van een kaart die nog uit moet komen, en een techniek die dus niet te testen is _/-\o_
Nee uiteraard, want als ze een specifieke feature aankondigen voor een zakelijk product dat een probleem oplost waarvan jij claimt dat het niet bestaat omdat je het niet met je eigen ogen hebt gezien dan zal het wel niet werken...... Logic.
De discussie was dat volgens jou een videokaart weinig bijdraagt bij videobewerking, ik zeg dat dit wel het geval is en dit artikel laat zien dat zoals ik al zei het tot nu toe niet mogelijk was om bepaalde dingen vloeiend te kunnen doen en dat deze nieuwe kaart dit probleem oplost.... Als het niet zou werken dan zouden ze het niet aankondigen, zeker niet in samenwerking met RED. Maargoed het is kennelijk erg moeilijk om toe te geven als een ander gelijk blijkt te hebben. Geloof wat je wilt, maar het load percentage van een videokaart zegt heel weinig over hoe veel voordeel het voor je workflow kan hebben en of een bepaald type videokaart sneller is dan een andere in bepaalde omstandigheden.
Ik zit zelf in de 3D wereld. En daar heb je liever "bang for buck" met meerdere 1080ti's dan een enkele kaart van 10.000,-

Wanneer de 2080ti weer lekker omhoog gaat in vram zou dat lekker zijn, maar 4 van dat soort kaarten in 1 machine levert voor de helft van de prijs veel meer snelheid op met gpu renderers.
Ja inderdaad hij is geoptimaliseerd voor autocad en photoshop.
Het is geen kaart voor te gamen, maar dat ddr6 geheugen komt volgens mij ook wel op de gamekaarten omdat het sneller is dan gddr5 en gddr5x.Hoe de verhoudingen liggen ten opzichte van hbm 2 geheugen weet ik niet.Of het moet op een andere website getest worden of er is al een vergelijking geweest op het internet.of het moet nog gepost worden door een benchemark.
Misschien op deze website in de vorm van een vergelijking van games en synthetische benchmark.
Ik wist niet dat het gddr6 geheugen al uit is, bij dit artikel aldus bevestigd.

[Reactie gewijzigd door rjmno1 op 24 juli 2024 04:42]

Tegenwoordig ook veel AI/machine learning toepassingen. Nvidia heeft zelfs een custom docker implementatie/extensie: https://github.com/NVIDIA/nvidia-docker

[Reactie gewijzigd door Apache op 24 juli 2024 04:42]

Die werkt overigens ook prima voor GeForce.
Behalve dat, hebben deze de Quadro's ook functionaliteiten (lees: Nvidia blokeert dit actief op de Geforce GTX kaarten) om doorgegeven te worden aan virtuele machines.
Met een minieme workaround kan je prima GeForces virtualiseren. Of die workaround later nog werkt, is inderdaad laar de vraag. Ik gebruik zelf AMD voor virtualisatie.
Worden meer en meer in klinische Ultrasound systemen gebruikt om van heel veel ultrasound data een beeld te maken.
4D en Blood Speckle Imaging van het hart bijvoorbeeld vergt serieus wat rekenkracht.
Google eens Vivid E95

http://newsroom.gehealthc...-the-depths-of-the-heart/

[Reactie gewijzigd door Bert Gent op 24 juli 2024 04:42]

Enige waar ik benieuwd naar ben is hoeveel de nieuwe gaming kaarten gaan kosten aangezien er in het kamp van AMD helemaal geen nieuws is over eventuele kaarten die moeten gaan concurreren met de nieuwe kaarten van Nvidia. Nvidia kan vragen wat ze willen in principe, want je kunt nergens anders terecht.

Dit is erg jammer en niet goed voor ons consumenten. Beetje te vergelijken met de cpu markt voordat Ryzen uitkwam. Hopelijk komt AMD op de gpu markt met een grote verrassing net zoals ze op de cpu markt hebben gedaan. Threatripper zag NIEMAND aankomen. Als ze dit op de gpu markt ook kunnen word het leuk.....al zie ik dat niet gebeuren........Intel was in slaap gevallen.......Nvidia absoluut niet.
Ik vrees dat we daar nog 2-3 jaar op moeten wachten.
Ik vraag mij af inhoevere Navi echt een nieuwe architectuur is ipv GCN based.

Als het nog steeds GCN is dan verwacht ik een soort van nieuwe Polaris alleen dan met Vega performance voor een leuke prijs. Waar op zich niets mee mis is want AMD had een punt. De meeste mensen shoppen in het 100-250 euro segment. Het 500+ dollar segment is relatief gezien erg klein.

Maar ik hoop wel dat AMD een krachtigere Navi versie in ontwikkeling heeft. En ik ben ook benieuwd wat AMD tegen die raytracing kan doen / hoe en of AMD kaarten het straks ook kunnen. Want nVidia heeft er dedicated hardware voor aanboort. Voorlopig is dat nog geen issue want games ondersteunen het nog niet. Maar met Gameworks kan nVidia daar snel verandering in brengen.

Ik vrees het ergste voor de concurrentie op de GPU markt in de komende jaren. nVidia heeft een te groot marktaandeel en te veel invloed bij game dev's door dingen als TWIMTBP en Gameworks.

[Reactie gewijzigd door Astennu op 24 juli 2024 04:42]

Het high end segment is dan wel klein, maar extreem winstgevend. Bovendien heb je ook het supercar-effect, waarbij mensen meer geneigd te zijn een goedkoper model te kopen van een merk dat ook echte topmodellen maakt.

Veel gamers gaan bijvoorbeeld uit reviews en YouTube video's oppikken dat AMD niet kan concurreren op topniveau, en wanneer ze dan hardware kiezen gaan ze bij het "topmerk Nvidia" de productladder omlaag aflopen tot ze iets vinden dat ze kunnen betalen.
Klopt maar AMD kan gewoon niet meer mee (helaas)
Ze hebben daar het R&D budget niet voor + nVidia probeert ze al jaren extra te dwarsbomen met TWIMTBP, Gameworks Physx CUDA, Gsync noem maar op. Van alles om mensen naar dat merk te krijgen en daar te houden. En recent natuurlijk GPP wat gelukkig mislukt is.
Maar er is al genoeg schade aangericht. Zelfs als AMD een prima of beter alternatief was gingen mensen toch nog voor nVidia door de goede marketing enz.

Komende jaren zullen die mensen zichzelf in de vingens snijden omdat er dan geen concurrentie meer is. En de prijzen gigantisch gaat stijgen + de vooruitgang voor gamers minder snel zal gaan. Dat zie je nu eigenlijk al we hebben 2 jaar lang met Pascal gedaan.
Komende jaren zullen die mensen zichzelf in de vingens snijden omdat er dan geen concurrentie meer is. En de prijzen gigantisch gaat stijgen + de vooruitgang voor gamers minder snel zal gaan. Dat zie je nu eigenlijk al we hebben 2 jaar lang met Pascal gedaan.
Sterker nog, dit is al jaren gaande. De GTX980 gebruikte een mainstream chip die voor high-end prijzen werd verkocht. Wat voorheen high-end was, Titan, wordt voor high-end +++ verkocht.

Toen AMD nog meedeed in de concurrentie met Nvidia kocht je een high-end chip voor zo'n 500 euro. Nu is dat meer dan 1000 euro. En toentertijd kon je met elke nieuwe generatie een (bijna) prestatie verdubbeling verwachten. Nu mogen we blij zijn als er de helft bij komt voor hetzelfde geld.

Voor de geïnteresseerden. The GPU war is over: https://www.youtube.com/watch?v=uN7i1bViOkU
Klopt. Het gaat alleen nog veel erger worden dan het nu al is.
Dat filmpje is al ouder maar ik vind dat hij gelijk heeft. Ik zie AMD niet snel meer terug komen. nVidia gaat volle sterkte door in tegenstelling tot Intel. Ook al zou AMD op een of andere manier (die ik ook niet snel gebeuren) superieure hardware hebben die efficiënter en sneller is dan wat nVidia heeft zullen de meeste toch nVidia kaarten kopen.

Dus ik denk dat we straks een speler hebben. En dat AMD zich richt op consoles soc's en IGPU's en misschien wat low end / midrange GPU's of er misschien helemaal mee stopt en gewoon voor deeplearning / datacenter gaat. (ik hoop niet dat dat gebeurd maar de tijd zal het leren. Ze moeten wel een groot genoeg marktaandeel houden wil het interessant zijn om al die effort in het maken van GPU's drivers en ondersteunen van game dev's te steken.)
ja ik hoop op een knaller van amd anders moeten we maar hopen op de poging van intel met hun gpu :D
Dont count on it. In ieder geval niet in het top segment.
Het kan nog steeds dat Navi het heel erg goed doet qua prijs prestatie per watt maar ik verwacht niet dat die chip de prestatie kroon van nVidia over gaat nemen. Al hoop ik dat ik ongelijk krijg :P

Voor Intel hetzelfde die kans acht ik nog veel kleiner. Die gaan nog een aantal jaar nodig hebben om de boel te polijsten.

[Reactie gewijzigd door Astennu op 24 juli 2024 04:42]

Ja maar wat meer concurrentie op de gpu markt is wel nodig.
Komende jaren zullen die mensen zichzelf in de vingens snijden omdat er dan geen concurrentie meer is. En de prijzen gigantisch gaat stijgen + de vooruitgang voor gamers minder snel zal gaan. Dat zie je nu eigenlijk al we hebben 2 jaar lang met Pascal gedaan.
Te gek voor woorden als wij als consument een product van AMD moeten gaan kopen puur om Radeon op de been te houden. Dat is de omgekeerde wereld.

Het is natuurlijk niet de schuld van de consument dat AMD niet met nvidia kan concurreren. AMD heeft Radeon van ATI gekocht en die moeten er zorg voor dragen dat er voldoende geld voor r&d, marketing en support is. Nog belangrijker ze moeten zorgen gaat er genoeg in de winkel liggen en dat het totale plaatje voor de consument interessant is.

Overigens zijn de advies prijzen in dollars, de msrp, bij Nvidia al jaren stabiel. Die lijken hun eigen ding te doen. Op newegg heb je nu een 1080 met destiny voor 449 terwijl de msrp nog op 499 staat. Als het mee zit staat de x70 weer 379 en de x80 rond de 549. Gaan we zien.

[Reactie gewijzigd door sdk1985 op 24 juli 2024 04:42]

Jij weet ook dat dat natuurlijk niet zo werkt. Maar in het verleden hoorde je de meeste slechte redenen waarom er voor nVidia gekozen werd terwijl de concurrent toen prima kaarten had. En daar zie je nu wel het resultaat van terug.

De consument laat nVidia weg komen met zaken als PhysX, Gameworks en TWIMTBP. GPP gelukkig niet maar dat scheelde ook niet veel. En let maar op ze gaan dit soort dingen vaker proberen.

Ik ben benieuwd hoe de markt er over 10 jaar uit ziet en wat voor een gesprek we dan hebben als nVidia de enige is die nog losse GPU's verkoopt. Hopelijk gaat dat niet gebeuren maar ik vrees er wel voor.
Dat werkt twee kanten op, er zijn er ook die een Radeon kopen omdat het een Radeon is. Daar valt tegenwoordig eigenlijk iedereen met een vega kaart onder. Die zijn er hier genoeg op tweakers.

Het is nog steeds de uitdaging voor AMD om de consument zo ver te krijgen om hun product te kopen. Als de consument een 'perceived value' toekent aan Nvidia en alles wat daarbij hoort dan kan AMD spelen met de prijs of zelf met unieke features komen (doen ze ook denk aan freesync, trueaudio, mantle, enz).

Dus als je je wil kwaad maken over hoe slecht het concurrentievermogen van Radeon is richt dan niet je pijlen op de consument en ook niet op Nvidia. Ga eens klagen bij AMD die sinds de overname 10 jaar lang systematisch hun R&D budget hebben verlaagd en ergens in 2010 de inschatting hebben gemaakt dat pc gaming uberhaupt niet meer belangrijk was. Je mag vinden van Raja Koduri wat je wil, maar hij was wel degene die AMD zo ver kreeg om weer brood in pc gaming te zien. Helaas kun je in een paar jaar niet de gevolgen van de 7 voorgaande jaren oplossen. Zijn idee was heel sterk, met een ongekend betaalbare RX 480 marktaandeel pakken en zo dev support terug winnen. Helaas is het marktaandeel niet van de grond gekomen en het plan dus mislukt. Wat dat betreft is de hele mining hype een gemiste kans voor AMD. Ze hadden of kunnen cashen door de kaarten duurder te maken of productie opschalen en kunnen leveren waar Nvidia dat niet kon om vervolgens alsnog marktaandeel te pakken. Nu zitten ze voor Radeon zonder marktaandeel en zonder winst, terwijl Zen als een trein loopt.

Overigens lijkt het er sterk op dat we tegen die tijd Intel als serieuze speler op de gpu markt hebben. Met een beetje geluk is Radeon over 10 jaar niet meer onderdeel van AMD maar opnieuw zelfstandig of onderdeel van een ander bedrijf (Samsung oid). In dat geval hebben we weer drie serieuze aanbieders. Mocht AMD vasthouden aan Radeon onder het huidige beleid dan vrees ik dat ze niet verder komen dan midrange. Sterker nog het kan zo maar gebeuren dat Radeon in 2019-2020 eigenlijk niet verder komt dan mid-range. Maar goed, aan de andere kant is AMD het R&D budget flink aan het ophogen. Dus wie weet gaat er ook wat geld naar Radeon... De tijd zal het leren.

[Reactie gewijzigd door sdk1985 op 24 juli 2024 04:42]

Nou nou dat vind ik wel erg kort door de bocht :/ Vega 56 presteerd prima en had ook een prima prijs prestatie verhouding. Je moest alleen even goed opletten waar je hem kocht want door mining waren de prijzen erg hoog. Om dan maar te gaan zeggen dat iedereen die een Vega kaart koopt een AMD aanhanger is en eigenlijk logisch gezien een nVidia kaart hadden moeten kopen omdat die beter zijn vind ik nergens op slaan. In het geval van Vega 64 is het wat lastiger die was niet zo goed gepositioneerd maar de 56 was gewoon prima alleen meteen uitverkocht / moeilijk leverbaar.

Ik zeg niet dat AMD geen fouten maakt. Maar nVidia's marketing is gewoon heel erg goed. Je kan het opvatten dat ik nVidia daar op aanval maar dat doe ik niet. Dingen als GPP en Gameworks ben ik wel negatief over. En vele menses met mij. Want dat is gewoon opzettelijk de markt verzieken door anderen buiten te sluiten.

AMD's alternatieven slaan inderdaad minder goed aan doordat ze een kleiner markt aandeel hebben maar wat was er gebeurd als ze die dingen helemaal niet zouden hebben? wellicht was het marktaandeel dan nog kleiner.

nVidia is voor gamers wat samsung en apple hier zijn qua telefoons. Mensen kopen het blind vanwegen het merk kijken vaak genoeg niet meer naar andere merken willen gewoon een samsung of apple punt. En daar na kopen ze ook de tv en was machine van samsung en in het geval van apple de laptop apple tv ect. Veel mensen zijn merk trouw als iets bevalt kijken ze ook niet meer verder ookal heeft de concurrentie wel degelijk mooie producten. Niet iedereen doet dat maar genoeg mensen wel.

nVidia heeft het met reclame in games met start schermen enz gewoon goed gedaan die naam is gevestigd. Hoe ze die macht gebruiken ben ik minder happy mee.
En wat dat mogelijk gaat betekenen voor de toekomst van PC gaming ziet er in mijn ogen alles behalve rooskleurig uit.

AMD heeft zeker steken laten vallen maar die hebben al vele jaren issues met winst en omzet. Ze vochten op twee fronten (tegen Intel en nVidia) en dat is lastig en daar was veel geld voor nodig wat er niet was. nVidia en Intel hebben vele malen meer geld en budget dan AMD dus dat ze producten kunnen maken zoals Ryzen en Vega die enigszins mee kunnen doen is in mijn ogen nog een wonder.

Hopelijk gaat er meer geld naar de ontwikkeling van gpu's maar ik vraag mij af of dat genoeg zal zijn om weer op RTX 2080 Ti level mee te kunnen doen ik denk het voorlopig niet. nVidia heeft gewoon te veel voorsprong en die investeren veel geld in ontwikkeling. Intel is naast CPU's ook nog met veel andere dingen bezig. nVidia vooral met GPU's en die ook voor andere zaken inzetten zoals zelf rijdende auto's.

De tijd zal het inderdaad gaan leren. Maar ik vrees het ergste. Ik ben wel blij dat de CPU markt gezonder is geworden. De vraag is alleen of AMD dit meer dan 5 jaar vol kan houden als Intel's next gen chip's uit komen die niet meer voortborduren op de C2D zoals de huidige CPU's. Als ze dan nog mee kunnen doen is er daar hoop. En dan is er ook hoop op een wat stabieler en groter R&D budget om GPU's te maken.
Het enige grote voordeel wat AMD nu heeft is wat Sony en waarschijnlijk MS voor de next gen consoles wel weer AMD chips gebruiken. Dus daar komt in ieder geval geld binnen voor ontwikkeling. Maar het gaat erg lastig worden op de desktop markt want nVidia komt nu met nieuwe chips en AMD volgend jaar pas. Al denk ik dat ze wel meteen naar 7nm gaan. Echter zal nVidia dan ook vast een 7nm refresh klaar hebben liggen.
Nou nou dat vind ik wel erg kort door de bocht :/ Vega 56 presteerd prima en had ook een prima prijs prestatie verhouding. Je moest alleen even goed opletten waar je hem kocht want door mining waren de prijzen erg hoog. Om dan maar te gaan zeggen dat iedereen die een Vega kaart koopt een AMD aanhanger is en eigenlijk logisch gezien een nVidia kaart hadden moeten kopen omdat die beter zijn vind ik nergens op slaan. In het geval van Vega 64 is het wat lastiger die was niet zo goed gepositioneerd maar de 56 was gewoon prima alleen meteen uitverkocht / moeilijk leverbaar.
Toch is het zo.
Dat noemen we een paper launch. Punt is dat diegene die er wel een Vega 56 hebben bemachtigd dat vooral via buitenlandse import hebben gedaan en dan vaak nog als semi pre order. Dan moet je wel fan zijn. Bovendien kocht je toen voor rond de 450 euro een blower kaart die onder load 45 dB doet. Terwijl je voor dat geld een jaar eerder en 36 dB kaart had kunnen bemachtigen die stock een fractie trager was, de 1070. Dan laat ik de discussie over warmte cq stroomverbruik even achter wegen. Als jij voor hetzelfde geld min of meer dezelfde prestaties krijgt zonder herrie en zonder moeite dan gaat zowel de normale consument als de rationele tweaker echt niet voor die vega56. Een vega56 heb je echt niet zo maar per ongeluk, dat kost moeite en je moet een paar ongemakken op de koop toe nemen. Zelfs nu betaal je nog 550 voor een custom vega56 die bij introductie rond de 650 zaten.

Had amd de vega56 in 2016 met custom koelers voor 450 in de Nederlandse shops gekregen dans had iedereen alsnog nvidia gekocht dan had je een punt gehad. Echter was de vega56 een paper launch met een kleine launch voorraad met dermate slechte voorraad voorspellingen dat vrijwel niemand een custom variant kon/ mocht/ durfde te lanceren.

Dus dan komen we op mijn originele punt, de normale consument in dat segment koopt gewoon een 1070 en dat ligt echt aan AMD en niet aan de consument. Bovendien zijn de dingen nooit goed verkrijgbaar geweest. Nvidia vekocht voor 2 miljard per kwartaal aan GeForce. Dat kon AMD niet leveren. Op alle vlakken is het zinnetje 'Dat mensen zichzelf in de vingers snijden' gewoon onnodig en onzinnig. De 'mensen' valt niks aan te rekenen. Die bewering is waar ik tegen ageer.


Mbt de schuld vraag zelf:
Dat het zo met radeon niet goed gaat is helaaas ondertussen geen onderwerp van discussie meer. Dat dit zou gebeuren was te voorspellen (is ook voorspeld:
Ik zou het heel jammer vinden als de R&D hamer ook echt Radeon binnen komt zetten. Dat je dus een GTX 1080 Ti en een Titan ZX kunt kopen en AMD Radeon dat segment helemaal niets te beiden heeft. De eerste keer volgen ze wellicht 10 maanden later en de volgende generatie laten ze het dan helemaal los.
Eerste deel is uitgekomen, of tweede nu ook gebeurd gaan we volgende jaar zien. Ik hoop er overigens niet op... Nog steeds niet de schuld van 'de mensen' ;)

AMD zegt er zelf ook weleens iets over
We haven’t been focused on discrete graphics over the last several years. We’ve pursued integration and other strategies. But we believe that to get to an instinctive computing world, discrete graphics will be central. It’s a very healthy market, 80 million discrete APUs sold last year. We believe that will grow, not shrink, because of the trends we’ve seen, like VR. We want a focus from business, engineering, architecture, content, all under one division.
Zowel desktop CPU als GPU is jaren lang geen prioriteit geweest. Dat is een keuze van AMD en niet van de consument, Intel, Nvidia, enz.

[Reactie gewijzigd door sdk1985 op 24 juli 2024 04:42]

Ik nederland was het inderdaad niet best. Maar in Engeland en Duitsland kon je ze prima krijgen. Ik heb toen 8 kaarten naar NL gehaald voor mijzelf en tweakers hier. Ik heb ze gewoon voor 430 euro per stuk kunnen krijgen. Vega 56 was wel wat sneller dan een GTX 1070. En zeker met wat tweaks haalt hij 64 performance met een lager verbruik en is hij stiller. Ideaal is het inderdaad niet. Voor de niet tweakers is dat niet echt interessant maar aan de andere kant zouden die de stock kaart ook prima vinden. AMD heeft in het control pannel de optie om makkelijk te kiezen tussen stil normaal en performance mode.

De prijzen op dit moment hebben met vraag en aanbod en tekorten van HBM2 te maken. Nu is een Vega kaart niet interessant. Net als RX480 en RX580 die lange tijd totaal niet interessant waren doordat de prijzen zo erg gestegen waren door de miners.

Het klopt dat dat aan AMD ligt. HBM2.0 viel te duur uit vooral Vega 64 is te duur voor wat hij extra bied aan prestaties. Het is eigenlijk een chip gericht op het datacenter die ook voor gaming ingezet wordt. Daardoor is hij groter en duurder en dus niet zo ideaal voor gaming. nVidia doet dat stuk tegenwoordig veel slimmer door de GP102,104 etc te hebben en losse compute chips te maken zoals de GV100.

Maar mijn klachten gaan ook vooral over de tijd dat het nog wel goed ging met AMD in de tijd van de HD5870, HD7970 waar mensen nog steeds massaal nVidia kochten ondanks het goede aanbod van AMD. En dat moet iedereen natuurlijk zelf kunnen bepalen maar als AMD niet genoeg denkt te kunnen verdienen aan GPU's om het bedrijf in de groene cijfers te krijgen moeten ze het roer om gooien en nu zie je inderdaad dat AMD minder focus heeft op Gaming GPU's en zich vooral richt op Custom SOC's voor Consoles, Desktop en server CPU's met Ryzen en datacenter compute GPU's zoals de Instinct serie.

Dus voorlopig verwacht ik inderdaad van AMD geen chip die kan gaan concurreren met de RTX 2080 Ti of Titan RTX. Hooguit iets wat mee kan met de GTX 2070 of RTX 2080.
Ik kan mij vinden dat het natuurlijk ook veel met AMD's keuzes te maken heeft. Maar wat zou jij als bedrijf leider doen als je ziet dat het marktaandeel toch terug blijft lopen ondanks je inspanningen en dat je wel concurrerende producten hebt. Het bedrijf ten onder laten gaan is ook geen optie. De consument heeft gekozen door de producten niet te kopen. Deels door wat er aangeboden wordt en deels door marketing waar AMD historisch niet zo sterk in is. Dus om te zeggen dat het helemaal niet door de mensen komt is in mijn ogen ook niet waar. Het is een combinatie van keuzes van de consument en van AMD zelf en acties die nVidia uit haalt die gewoon shady zijn: Gameworks om prestaties van concurrenten extra te benadelen en bv GPP.

Dus het is heel jammer voor ons gamers dat de keuze zeker in het high end segment straks beperkt is tot 1 merk. Maar aan de andere kant is het wel live to fight another day.
Als AMD fan moet ik je jammer genoeg gelijk geven. AMD heeft hard ingezet op hun CPU's ten koste van het budget voor GPU ontwikkeling. Hopelijk komt er door stijgende inkomsten van de CPU tak ook weer geld voor GPU ontwikkeling vrij.

Als Linux-gebruiker verkies ik AMD grafische kaarten, omdat die beter integreren in het hele ecosysteem, terwijl Nvidia voor alles een eigen conflicterende API of implementatie heeft, je moet handmatig drivers installeren en je moet je hele sessie herstarten als je van grafische kaart wil switchen (bijvoorbeeld bij een laptop, als je batterij te besparen de Intel graphics wil gebruiken).

AMD komt wel te kort vandaag de dag in ruwe grafische kracht, maar ondersteunt altijd open technologie (OpenCL ipv CUDA, FreeSync ipv GSync, open source drivers ipv externe proprietaire drivers op Linux) ten opzichte van Nvidia die telkens voor single-vendor lock in gaat.
Klopt en met succes. Dus in mijn ogen is dat de goede keuze geweest van in de GPU markt hadden ze hooguit qua prestaties bij kunnen komen. En niet qua verkoop aantallen. En op de CPU markt lijkt dat wel aardig te lukken. Het geld wat daar mee weer in het laatje komt kan zorgen dat ze dit langer vol kunnen houden en misschien ook weer meer kunnen investeren in het ontwikkelen van nieuwe GPU's.

Ze verkopen er opzich nog aardig wat de de deals met Sony en Microsoft. De PS5 krijg waarschijnlijk een APU met Zen2 en Navi.

Ik hoor de laatste tijd vaker dat de AMD drivers op Linux beter zijn. En op Windows doen ze zeker niet onder. Qua features en interface doen ze het daar zelfs heel goed.

Ruwe GPU power ja en nee. Vega is snel zeker qua compute power. Qua gaming ook niet verkeerd 1080 level. En hoeveel mensen hebben het geld over voor een 1080 Ti of Titan XP of zelfs Titan V? niet echt veel.
De open technologie is erg mooi en belangrijk. Echter heeft nVidia zo'n groot marktaandeel dat dat uit maakt en ze gewoon eisen kunnen stellen en dingen kunnen afdwingen. En dat proberen ze ook geregeld met dingen als Gameworks, PhysX, Gsync en GPP. Maar dat ga je helaas niet tegenhouden gezien de grote van het bedrijf en het marktaandeel.
Dat marktaandeel kan wel omkeren. Het vereist alleen dat AMD (of misschien de aankomende Intel dedicated GPUs?) Nvidia eens een generatie flink kunnen overtreffen qua prestaties. Niet makkelijk, maar het is ook zeker niet onmogelijk.

De huidige situatie is erg te betreuren, waar een enkele fabrikant een zeer groot deel van de markt domineert en dus kan sturen naar zijn zin (wat vaak niet overeenkomt met de beste ervaring voor consumenten).
Ookal zou dat zo zijn de marketing in games enz van nVidia is dusdanig dat AMD dan misschien net 50% van de verkopen heeft. Laat staan de huidige situatie. Daarnaast heeft AMD niet het R&D budget wat nVidia heeft. nVidia heeft velen malen meer omzet en winst dan AMD met GPU en CPU enz bij elkaar.

Ik vrees dat nVidia komend jaar 75-80% marktaandeel gaat halen. Volgens mij zitten ze nu al tussen de 70-77%.

[Reactie gewijzigd door Astennu op 24 juli 2024 04:42]

Hoezo ondersteuen games de realtine raytrace niet.

Dit zit nu al bijna een jaar in de unreal engine en kon niet echt gebruikt worden omdat er geen hardware was wat het kan draaien. Kijk maar op you tube unreal plus raytrace. Nieuwste paris demo of starwaafs demo
Met de nieuwe versies van de UE4 engine kan het misschien maar andere game engines ondersteunen het tot nu toe niet. Dan moet je wachten tot de volgende generatie game engines / gameworks games die dat mogelijk gaan gebruiken.

[Reactie gewijzigd door Astennu op 24 juli 2024 04:42]

Het klopt tot op zekere hoogte wat je zegt.

Als nVidia kaarten te duur worden, dan krijg je simpelweg meer mensen die niet upgraden of langer wachten met een upgrade. Want je 1080Ti werkt nu toch ook prima? Wat nu werkt, werkt over 3 jaar ook. En hoe minder mensen top of the line videokaarten hebben, hoe minder gamedevs gemotiveerd zijn om iets met zulke kaarten te doen.

Op consoles heb je dit "probleem" ook, waar gamedevs het met verouderde hardware moeten doen. Op pc's kan dit ook gebeuren als een upgrade te duur wordt.

De échte fanatiekelingen hebben ze in de zak. Die upgraden toch wel. Net als met de échte Apple fanboys, die kopen zonder blikken of blozen een iPhone van €1300, en zo zullen er ook gamers zijn die zonder problemen een 2080Ti van €1500 zullen kopen als nVidia er dat voor zou vragen. Maar games worden meestal gebouwd om te draaien op mainstream game-systemen, niet op top of the line (muv Crysis ;))
Waarom zou een developer niet voor de nieuwste generatie developen?
Het niet doen zorgt voor grote kosten later en kosten van de aanschaf van zo'n kaart voor een developer verwaarloosbaar.
Waarom zou een bedrijf zich dus de extra kosten op de hals halen door er niet voor te developen?
Hoe lager de systeemeisen hoe groter je markt en dus meer verkoop potentie.
Laat daar nou net allerlei grafische instellingen voor zijn uitgevonden...
True, maar niet iedereen kan de minimale instellingen van de nieuwste games draaien. Je hebt maar een beperkt bereik dat je kunt ondersteunen zonder dat de game fundamenteel veranderd. Dit is gewoon een keuze die je maakt als developer en verschilt van game tot game. Voor een simpele card trading game bijvoorbeeld hoef je echt niet t uiterste uit de nieuwste hardware te halen.
Waarom zou een developer niet voor de nieuwste generatie developen?
Om de hypothetische situatie die ik schetste. Nieuwe hardware is zó duur dat zelfs met een monopolie mensen nauwelijks mee upgraden. En dan is het verstandig om je game voor oudere hardware te developen, want dan raak je de meeste gamers.
Dat is het mooie van engines licentie. Als je unresl neem krijg je alle eye candy gratis zoals raytrace. Je games doet het toch wel ongeacht de hardware maar het ziet er bagger slecht uit ivm raytraces aan.
Als AMD net als met ZEN met een nieuwe architectuur komt en die GCN eens een keer laat vallen.
AMD zal logischerwijs modulaire opbouw van Ryzen gebruiken voor grafische IC. Dan is het schaalbaar en is het nieuwe kaart uitbrengen niets meer dan er wat extra die's tegen aan te gooien.
Behalve dan dat GPUs al sinds jaar en dag een dergelijke modulaire opbouw kennen. Grafische taken zijn al heel lang eenvoudig te paralleliseren en daarom dat GPUs ook al duizenden cores hebben tegenwoordig.

AMD heeft goed gebruik gemaakt van de overname van ATi om dit ook naar hun CPUs te brengen. Het is zinloos te proberen dit naar GPUs te brengen.
En toch zijn er wel rumoeren om meerdere grafishe chips "aan elkaar te plakken". Voorbeeld: https://www.google.nl/amp...-gpu-specifications%3famp

Zelfs nVidia lijkt ernaar te kijken: nieuws: Nvidia overweegt multichip-module-ontwerp voor gpu's

Het is alleen nog de vraag of zo'n interconnect echt goed gaat werken als je bijv een niet snel genoege connecyie kan maken tussen de chips (om maar een voorbeeld te geven).
Toch grappig hoe "double data rate" tegenwoordig gewoon slechts 75% is. :+
Geen idee waar je dat vandaan haalt. DDR haalt een Data Rate die het Dubbele van de clock rate is, door zowel een bit te versturen als de clock line van 0 naar 1 gaat als van 1 naar 0. Dat is al jarenlang een 100% boost over SDR, wat dus verklaart waarom je't nauwelijks ziet bij RAM. Flash is vziw nog wel SDR.
ik denk dat jij es moet gaan kijken waar DDR nou op slaat, en waar die 75% over gaat.

die DDR double data rate tov de clock speed, omdat het met beide ticks van 1 clock data stuurt, heen en terug dus.
die 75% gaat over increased bandwidth tov de vorige generatie Eigen chips, behoorlijke increase dus,.
DDR "double data rate" klinkt toch vele sexier dan aDDR "almost double data rate" :+ maar ik snap je punt wel.
Het is gewoon double data rate, het enige wat 75% is, is de snelheidswinst ten opzichte van de oude gddr5. Het blijft gewoon ddr :)
Ik verwacht op het vlak van performance meer van ondersteuning voor explicit multi-gpu zoals in Vulkan en DX12 zit. Daarmee kunnen we eindelijk meerdere GPU's gebruiken zonder crossfire drama's. Naar mijn weten ondersteund tot nu toe alleen Ashes of the Singularity dit.

https://developer.nvidia....pu-programming-directx-12
nieuws: Nvidia hint op naam RTX 2080 voor komende GeForce-kaart ;)

[Reactie gewijzigd door Verwijderd op 24 juli 2024 04:42]

Op dit item kan niet meer gereageerd worden.