Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Nvidia brengt dit jaar geen nieuwe gpu-architectuur uit

Nvidia brengt dit jaar geen nieuwe gpu-architectuur. Dat blijkt uit een roadmap die het bedrijf toonde tijdens GTC. Het bedrijf komt volgend jaar wél met een nieuwe gpu-architectuur, hoewel het nog niet bekend is of er in 2022 ook nieuwe GeForce-gpu's verschijnen.

Nvidia laat tijdens zijn GTC 2021-keynote weten dat zijn datacenter-roadmap nu een 'tweejarig ritme' heeft, verdeeld over drie soorten chips: cpu's, gpu's en dpu's. Het bedrijf wil het ene jaar focussen op x86-platforms, om zich het volgende op Arm te richten, met zo nu en dan een kicker ertussendoor, aldus Nvidia. De chipproducent komt met deze roadmap ieder jaar met minimaal een nieuw product.

Volgend jaar komt Nvidia met een nieuwe gpu-architectuur, die het vooralsnog 'Ampere Next' noemt. Nvidia maakt de daadwerkelijke naam van zijn komende architectuur dan ook nog niet bekend, hoewel deze volgens geruchten Lovelace zal heten. Nvidia brengt zijn nieuwe architecturen doorgaans eerst uit voor datacenters, om ze op een later moment uit te brengen voor consumenten. Het is dan ook nog niet duidelijk of gamers volgend jaar een nieuwe GeForce-videokaart kunnen verwachten.

Verder toont Nvidia zijn cpu-roadmap. Deze begint met zijn Grace-cpu, die het bedrijf eerder vandaag al aankondigde. Het bedrijf voorziet deze processor, die exclusief is bedoeld voor datacenters en high-performance computing, van een volgende generatie Arm Neoverse-cores. De Grace-cpu moet in 2023 beschikbaar komen. In 2025 zou de volgende generatie volgen, die vooralsnog bekendstaat als Grace Next.

Het bedrijf kondigt ook aan dat zijn BlueField-3-data processing unit vanaf 2022 beschikbaar komt. Deze chip is bedoeld voor het versnellen van datacenter-infrastructuur en heeft onder andere een geïntegreerde netwerkinterface die snelheden tot 400Gbit/s ondersteunt. Twee jaar later volgt een opvolger, in de vorm van een BlueField-4-dpu.

Nvidia's roadmap tot 2025. Afbeelding via Nvidia

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Nieuwsposter

12-04-2021 • 21:05

119 Linkedin

Reacties (119)

Wijzig sortering
Nvidia zit al vanaf Maxwell op een tweejarige cyclus; Maxwell (2014) > Pascal (2016) > Turing (2018) > Ampere (2020). Geen verrassing dus.
Ik vind het ook wel vrij overtrokken om van Turing naar Ampere over een nieuwe architectuur te spreken. Uiteindelijk is Ampere gewoon Turing met een paar kleine aanpassingen die op één hand te tellen zijn. Volgens mij was de stap veel groter tussen Pascal en Turing.
Ampere wijkt juist enorm af van Turing en Pascal versus Turing lag dichter bij elkaar.
Is dat zo? Volgens mij is er bij Turing ten opzichte van Ampere een wijziging geweest in dat de één van de drie onderdelen van de cuda cores nu ook FP32 en INT32 uit kan voeren, iets dat AMD al bijna 10 jaar doet, in plaats van alleen één van de twee. Wat op papier alleen in heel uitzonderlijke situaties sneller is als de workload daarbij past. Verder is de clocksnelheid omhoog, maar dat is nou niet echt een wijziging in de architectuur. Ook is de GPU op een kleiner proces gebakken. Ik schaar dat ook niet onder architectuurverandering. Die paar extra RT 'cores'? Tja, dat is een uitbreiding van de architectuur, niet echt een verandering.

Qua architectuur heb ik verder weinig kunnen ontdekken dat verder anders zou moeten zijn. Je ziet het ook in de prestaties in spellen. Als je de hogere clocksnelheid en het hogere energieverbruik weghaalt, heb je eigenlijk geen noemenswaardige prestatieverbetering tussen Turing en Ampere in de meeste situaties. Overige dingen waar Nvidia mee market zijn ook veel software aanpassingen.

Voor mij is Ampere ten opzichte van Turing een heel kleine stap met een paar subtiele wijzigingen om 'm beter allround geschikt te maken. Het verschil tussen Pascal en Turing waren ook niet zo spannend, dat klopt. Maar als je de laatste vier generaties van Nvidia bekijkt dan is het eigenlijk ook geen echte architectuurverandering, maar stapjes vooruit met subtiele verbeteringen en toevoegingen. AMD heeft het roer echt compleet omgegooid met Vega vs RDNA, zo'n grote sprong is wel heel zeldzaam en Nvidia heeft die noodzaak nog niet gehad de laatste paar jaar natuurlijk.

Wat een heel vertekend beeld geeft bij Nvidia is dat wat ooit een GTX2080 was, nu een GTX3070 is. Daardoor lijkt de sprong tussen de GTX2070 en GTX3070 heel groot. Geeft een erg vertekend beeld. Naast dat Nvidia een beetje vals speelt door de cores die FP32 of INT32 doen ook gewoon dubbel te tellen, terwijl dat in de meeste situaties helemaal geen verdubbeling is.
Is dat zo? Volgens mij is er bij Turing ten opzichte van Ampere een wijziging geweest in dat de één van de drie onderdelen van de cuda cores nu ook FP32 en INT32 uit kan voeren, iets dat AMD al bijna 10 jaar doet, in plaats van alleen één van de twee. Wat op papier alleen in heel uitzonderlijke situaties sneller is als de workload daarbij past. Verder is de clocksnelheid omhoog, maar dat is nou niet echt een wijziging in de architectuur. Ook is de GPU op een kleiner proces gebakken. Ik schaar dat ook niet onder architectuurverandering. Die paar extra RT 'cores'? Tja, dat is een uitbreiding van de architectuur, niet echt een verandering.
Van wat ik ervan begrepen heb is de hele pipeline omgegooid en dit is mede de reden warom het een 4K monster is maar relatief minder biedt op lagere resoluties. Het is een compute kaart. Iets wat oude Radeons ook waren inderdaad. Maar Turing was dit totaal niet.
Qua architectuur heb ik verder weinig kunnen ontdekken dat verder anders zou moeten zijn. Je ziet het ook in de prestaties in spellen. Als je de hogere clocksnelheid en het hogere energieverbruik weghaalt, heb je eigenlijk geen noemenswaardige prestatieverbetering tussen Turing en Ampere in de meeste situaties. Overige dingen waar Nvidia mee market zijn ook veel software aanpassingen.
Een undervolt brengt zonder prestatie verlies het verbruik al met 80 tot 100watt terug en lijkt universeel toepasbaar te zijn (zelfs op mijn launch 3080RTX). Dus het is wel degelijke een flinke upgrade. Kloksnelheden zijn in lijn met Turing. Tussen de 1800 en 1900mhz. De voltages staan alleen bij default relatief hoog om de boost zo hoog mogelijk te krijgen. Op papier zeggen ze dat het moet boosten tot 1710mhz op een 3080RTX. Maar out of the box zit het net over de 1900mhz en met een undervolt blijft deze rond dit punt zitten.
Wat een heel vertekend beeld geeft bij Nvidia is dat wat ooit een GTX2080 was, nu een GTX3070 is. Daardoor lijkt de sprong tussen de GTX2070 en GTX3070 heel groot. Geeft een erg vertekend beeld. Naast dat Nvidia een beetje vals speelt door de cores die FP32 of INT32 doen ook gewoon dubbel te tellen, terwijl dat in de meeste situaties helemaal geen verdubbeling is.
Ik hoor hier een "Moore's law is dead" quote tussen neus en lippen door, de prestaties liegen niet.

[Reactie gewijzigd door ZeroNine op 13 april 2021 13:14]

Ik hoor hier een
Moore's law is dead" quote tussen neus en lippen door, de prestaties liegen niet.
De TDP budgetten zijn ook behoorlijk gestegen de afgelopen paar generaties. Dus ja, meer prestaties, maar ook meer power. Dus ook daarin zien we gelijkenissen met andere chip architecturen die al lange tijd worden doorontwikkeld. Het escaleert toch een beetje, en niet de goede kant op.

De sweet spot van de afgelopen tijd was Pascal, qua perf/watt en overall shader perf/watt. Daarna kwam RT en was het hek van de dam. Een groot deel van de 'winst' van Ampere is het slim benutten van technologie maar de rauwe perf/watt is echt niet zo gigantisch gestegen. Dat slim benutten uit zich echter wel in allerlei minieme kwaliteitsverschillen en meer dynamische berekeningen ipv statische. Overal wat kleine beetjes bijschaven en optellen... en netto lijkt het dan verschrikkelijk veel. Maar die vlieger gaat alleen op in de ideale situatie en die wordt door Nvidia exclusief beheerd. Niet wenselijk en zeker geen absolute performance winst te noemen.

[Reactie gewijzigd door Vayra op 13 april 2021 10:48]

Als de chips out of the box wat beter getuned worden in plaats van een zo'n groot mogelijk power budget te geven valt de jump qua TDP enorm mee. 240watt voor dezelfde prestaties als 320watt is uitermate goed te noemen zelfds Alleen is het long term wel een enorme jump als je het vergelijkt met laten we zeggen pre-fermi.

Maar mij ging het vooral om de quote dat de 3070 meer een tegenhanger van de 2080 zou zijn, daar ben ik het niet mee eens gezien alleen al gezien wat het moet kosten zelfs in het huidige beeld qua schaarste. De 2080 was een 750 euro kostende GPU.
Klopt, tegelijkertijd, als de chips getuned zouden worden voor minder, dan moet er ook weer een marge op zitten ivm binning, en is de prestatie netto wat minder, waarmee de kaart weer wat minder goed in de markt kan worden gezet. Dat drukt op de marge in relatie tot de grootte van de die, en goedkoop zijn ze al niet.

[Reactie gewijzigd door Vayra op 14 april 2021 16:25]

Van wat ik ervan begrepen heb is de hele pipeline omgegooid en dit is mede de reden warom het een 4K monster is maar relatief minder biedt op lagere resoluties. Het is een compute kaart. Iets wat oude Radeons ook waren inderdaad. Maar Turing was dit totaal niet.
Dat komt dus omdat de GTX3070 nu veel sneller is op 4k dan de GTX2070, maar dat komt meer omdat de GTX3070 eigenlijk een GTX2080 is. Vergelijk je de GTX2080 met de GTX3070 is het prestatieverschil véél kleiner.
Een undervolt brengt zonder prestatie verlies het verbruik al met 80 tot 100watt terug en lijkt universeel toepasbaar te zijn (zelfs op mijn launch 3080RTX). Dus het is wel degelijke een flinke upgrade. Kloksnelheden zijn in lijn met Turing. Tussen de 1800 en 1900mhz. De voltages staan alleen bij default relatief hoog om de boost zo hoog mogelijk te krijgen. Op papier zeggen ze dat het moet boosten tot 1710mhz op een 3080RTX. Maar out of the box zit het net over de 1900mhz en met een undervolt blijft deze rond dit punt zitten.
Die voordelen bestaan vooral omdat de GPU op een kleiner proces gemaakt wordt, waardoor je iets meer ruimte over hebt op dat vlak.
Ik hoor hier een
Moore's law is dead" quote tussen neus en lippen door, de prestaties liegen niet.
Welke prestaties bekijk je dan?

Pak maar de specs van een RTX2080 en een RTX3070. De 2080 heeft 2944 'cuda cores'. Omdat ze meer kunnen is Nvidia ze bij de 3000 series dubbel gaan tellen. De 3070 heeft er 5888. 2944x2 is... Precies ja. Stroomverbruik van een RTX2080 ligt rond de 250-260W. Bak je die op 8nm, in plaats van 12nm, dan haal je er gerust een 15% vanaf. Kom je rondom het verbruik van de RTX3070 uit (~220W).

De grote sprong in performance is niet omdat de hardware sneller is geworden, maar omdat Nvidia de boel gewoon opgeschoven heeft. Als je benchmarks van een RTX2080 tegenover een RTX3070 zet dan is het verschil in de meeste gevallen maar een paar procent.

[Reactie gewijzigd door fapkonijntje op 13 april 2021 11:03]

Maar de RTX3070 is theoretisch wel gelaunched op een (veel) lager prijspunt dan de RTX2080, dus dan is dit nog steeds een grote stap voorwaarts toch?

De 2000-serie was dan wel weer berucht om de hoge prijzen, dus de 3000-serie is in dat opzicht eigenlijk een soort correctie. Los van de voorraadproblemen en te hoge prijzen dan.

De sprong van Pascal naar Turing was natuurlijk wel zeer groot door de toevoeging van RT- en Tensor-cores. Als je dat als grootste toevoeging ziet, is de sprong naar Ampere inderdaad veel kleiner. Ampere zet wat mij betreft de (iets te vette) puntjes op de i, met meer van alles tegenover Turing voor een (in theorie) betere prijs.
Het ging toch om architectuur? Dat Nvidia minder winst maakt doet er toch niet toe? Ja de prijs is eerlijker geworden, leuke stap van ze. Eindelijk.

RT/Tensor cores zijn gewoon naast het huidige ontwerp geplakt. Of dat indrukwekkend is...
Het feit dat beide nieuwe soorten cores binnen dezelfde die (zelfs letterlijk binnen de cuda-cores zelf) verdeeld zaten, is toch wel een iets grotere klus geweest dan zomaar wat "plakwerk". De hele GPU moest hiervoor geherbalanceerd worden, anders zouden er overal bottlenecks optreden. En dat terwijl de RTX2080 toch best sneller was dan zijn directe voorganger (de GTX1080), vond ik toch best indrukwekkend.

De stap die ze zetten met Turing was op ieder mogelijk vlak een vrij grote als je hun GPU's sinds 2010 bekijkt op puur technisch vlak, alleen was het jammer dat daar direct ook een grote price bump bij kwam. Ampere is dan net weer veel meer een evolutie van Turing, want gewoon langs alle kanten een aanpassing/verbreding van wat er al was.

Maar goed, uiteindelijk blijft dit een discussie over meningen. Naar mijn mening was het toevoegen van RT en Tensor-cores in een GPU een vrij grote architecturale verandering, volgens jouw mening blijkbaar niet. Dan vraag ik me wel luidop af wat ooit nog zal voldoen aan jouw definitie van "nieuwe architectuur". De low-hanging fruit van 20 jaar geleden is al lang geplukt, dus zomaar even verdubbelde performance elk jaar kan je zo goed als zeker vergeten...
Een nieuwe architectuur is VLIW ten opzichte van GCN bij AMD bijvoorbeeld. Of GCN tegenover RDNA. Vega is weer een doorontwikkeling van GCN, dus dat telt weer niet vind ik.

Verschillen daartussen zijn veel groter want de hele chip gaat op de schop. Dat gaat verder dan het erop plakken van een nieuwe feature of een klein stukje nieuwe hardware dat op zichzelf ook weer verdacht veel lijkt op wat er al was.

Nvidia heeft de laatste 10 jaar eigenlijk geen grote architectuurveranderingem doorgevoerd, want dat was niet nodig. Ze hadden een goede basis waar nog veel rek in zat. Nu met de 3000 series begint die rek er wel uit te raken en dat merk je. AMD loopt weer in en de 3000 serie is een bijna rebrand van de 2000 serie, op wat subtiele veranderingen na.

Mogelijk komen er dus heel leuke dingen aan bij Nvidia na de 3000 refresh. Ik kijk er wel naar uit. Nvidia is in staat om goed na te denken over architectuur als het echt moet. Het moet alleen niet zo vaak.
En zo zouden ook Maxwell en Pascal dicht bij elkaar liggen.

Allemaal onzin. Nvidia ontwikkelt CUDA gewoon door en tweakt steeds de zaken die op dat moment de beste performance winsten geven en nieuwe ontwikkelingen de ruimte geven. Tot nu toe was dat steeds een forse aanpassing die de naam van een eigen architectuur(versie) mocht dragen.

Dat Nvidia nu daar vanaf stapt en dat ook ruiterlijk toegeeft zou je mogelijkerwijs kunnen zien als eenzelfde stap als die Intel een tijd geleden maakte. Wat ooit Tick-Tock heette is nu een kerkhof vol met Lakes die allemaal hetzelfde water bevatten.

Dit soort zaken meld je alleen maar als je weet dat er zeker niet méér in zit. Blijven op Ampere? OK. Dan hopen ze dus op betere nodes en kleine tweaks en gezien het debacle dat Samsung 8nm heet zit daar ook zeker nog wel ruimte voor verbetering. Er zitten geen grote wijzigingen in de komende jaren. Het is misschien begrijpelijk, maar tegelijkertijd staat er wel een concurrent naast met een minstens zo efficiente architectuur. Dezelfde concurrent die Intel nu aardig laat zweten.

Bedenk dat ook Nvidia geen eigen fab capaciteit heeft en dus net zo goed is overgeleverd aan de grillen van de markt. Zolang je hoge prijs kan vangen voor je chips werkt dat nog wel. Zodra je niet meer voor aan in de rij staat kan dat opeens heel naar aflopen. Het feit dat Nvidia nu zegt dat er qua architectuur niet zoveel in de tank zit, is best schokkend en zeer zeker een verandering tov de afgelopen tien jaar - steeds was het Nvidia die met dikke features de markt een stap voor was.

Het wordt m.i. vooral interessant wat AMD nu weet te brengen in de komende jaren. Ze hebben al een deel van de winst laten uitbetalen door een betere node en hogere clocks te kunnen pakken, die heeft Nvidia vermoedelijk nog 'over' voor een refresh. Aan de andere kant heeft Nvidia zijn RT performance al redelijk verfijnd waar AMD dan ws weer wat laaghangend fruit over heeft. Sowieso zal de bovenstaande slide niet door Huang zijn opgetekend zonder enige mate van voorkennis over de concurrentie.

Ampere Next Next. Dat zegt zoveel als "We weten het zelf ook nog niet, maar we brengen wel wat uit". Los zand, meer is het niet, maar ze hebben al wel vastgesteld dat het grotendeels is wat we nu hebben.

[Reactie gewijzigd door Vayra op 13 april 2021 10:23]

Dat was met Maxwell vs Pascal eigenlijk ook al zo.
Pascal was Maxwell on steroids.

De verschillen zijn wel vaker kleiner. Zie bv Intel af en toe zat er wat meer winst tussen met bv Haswell en later Skylake. Maar Ivy Bridge en Broadwell waren weer kleinere stappen.

Bij AMD is RDNA2 ook RDNA1 + veel tweaks voor efficiency en dus hogere clocks, Infinity cache en toevoeging van RT accelerators.
Dus wanneer is iets dan een echt nieuwe architectuur? In mijn ogen is Ampere wel een nieuwe architectuur. Ze hebben de SM's aardig onderhanden genomen.Maar natuurlijk borduren ze voort op Turing het is daar een Evolutie van.
Zie bv Intel af en toe zat er wat meer winst tussen met bv Haswell en later Skylake. Maar Ivy Bridge en Broadwell waren weer kleinere stappen.
14nm issues
Hopelijk gaan ze met hun kickers wel procesveranderingen ondersteunen.
Wat me wel opvalt is Ampere Next Next... Tik-tok-tok?
Nvidia doet dus goede zaken door deze schaarste... Hopelijk schroeft AMD de productie lekker op om het gat te vullen met mooie kaarten.
Hoe gaan ze dat doen? AMD gebruikt het merendeel van hun wafers voor consoles en CPUs en ze zijn beperkt door wat TSMC kan aanleveren.
Zou je denken maar niet eens. Het meeste zijn Scalpers cq tussenpersonen. Die lopen binnen...
Webshops die gerust 2x zoveel voor een product vragen lopen meer binnen, maar die worden blijkbaar ontzien ofzo
Het probleem is vooral dat de verkoop nog altijd veel hoger is. Het schijnt zo te zijn dat de productie van AMD kaarten nog altijd hoger ligt dan die van de vorige generatie. Maar iedereen weet hoe goed ze te krijgen zijn.
AMD heeft hetzelfde probleem als Nvidia, ze kunnen de productie niet opschroeven omdat de fabrieken al volledig geboekt zijn. En Nvidia en AMD zien weinig van die hoge straatprijzen hoor, zij verkopen de chips voor de vaste prijzen aan hun leveranciers, het zijn juist de eindverkopers die er het meeste mee verdienen.
Ja, dat zou wat zijn. Als ze dit jaar al een nieuwe architectuur zouden introduceren, terwijl ik ten zeerste betwijfel of alle klanten die op 17 september nog voor 3 uur een kaart hebben besteld, deze dit jaar nog zullen krijgen. Ik heb voor een vriend een maand geleden nog bij Alternate een order geannuleerd. Hij stond op nummer 100 geloof ik. Een paar maanden daarvoor was dat nummer 125. Op releasedag voor 15:00 nota bene besteld.
Ja, en het vieze is ... als je een volledige pc besteld, dan zijn die kaarten dikwijls wel leverbaar (voor hogere prijzen ook uiteraard).

Wij staan ook bij alternate op de lijst voor een 3060 voor nog geen 500 euro. Waarom zouden ze die kaarten aan ons leveren als ze er veel meer voor kunnen krijgen? Ik verwacht dat we onze kaart krijgen als de prijzen voor de 3060’s terug onder de 500 euro liggen ...
Hangt heel erg af van het bedrijf denk ik. Als Nvidia ze wel voor de normale prijs verkoopt waarom niet.

Wil je het zeker weten bestel je er nog een krijg je die eerder dan weet je dat je erg lang kan wachten op de 3060. en terugsturen kan altijd.
Nou je hebt wel gelijk maar dit ligt een tikkeltje anders geloof ik. Ik heb een keer gehoord (geloof bij LTT of J2C) dat er verschillende voorraden zijn voor losse verkoop en pre-builts. Als ze losse kaarten uit de pre-built voorraad verkopen hebben ze ruzie met nvidia/amd. Wij hobbyisten zoeken vaak gelijk naar losse onderdelen om je eigen quality control te onderhouden. Dat houd dus in dat de pre-built markt nog helemaal open ligt (ik heb geen cijfers, baseer dit op de voorraadindicaties op websites)

Ik had (licht OT) een amd 5900x in bestelling staan en zou op dit moment nog meer dan 3 maanden moeten wachten (2 leveringen per week) tot ik achter dat artikel kwam en een pre-built systeem kocht en ik daar dan ook nog eens een 8600xt bij kreeg. Win-win voor mij dus want dat ging gewoon met voor 22:00 besteld, morgen in huis. En dat voor een kleine premium voor het in elkaar zetten van het systeem. Veel beter dan via MP/V&A/eBay op zoek gaan en 3x zo veel betalen.
Lessen geleerd deze crisis.. Bestel niet de meest bekende populaire videokaart-modellen bij de meest bekende grote online retailers als je iets (snel) geleverd wil krijgen..
Asus TUF was 1 van de minste gewilde modellen vorige series omdat hij zo slecht was. Nu is het wat mij betreft de beste kaart van allemaal. Niet helemaal logisch dus. ik heb bewust niet op dag in besteld omdat ik rotte appels er tussenuit wou picken maar helaas resultaat is nog steeds geen kaart.
Bij launch is dat lastig inschatten inderdaad, de Asus TUF kreeg deze keer erg goede reviews dus heb ik ook besteld.. Maar na 1-2 maanden was het wel al redelijk duidelijk, ook door het handig "wachtrij" document in het forum op deze website, die Asus TUF ging niet geleverd worden binnen redelijke termijn via Megekko of Alternate.. Dus in december verder gaan kijken en uitzoeken en uiteindelijk een MSI Ventus besteld bij Azerty en zowaar binnen een maand geleverd gekregen (eind december besteld, half januari geleverd).. Beide Asus TUF bestellingen die toen nog steeds niet opschoten geannuleerd, die had ik waarschijnlijk nu zelfs nog niet gehad (wat jouw reactie ook bevestigd).. Ik had op een gegeven moment dus 3 RTX 3080 bestellingen staan, om mijn kansen te spreiden, maar dat moet je financieel dus wel aankunnen aangezien je vooruit moet betalen in Nederland.. Geld netjes snel teruggestort gekregen van zowel Megekko als Alternate na annulering trouwens (ik vermoed dat die alleen maar blij zijn met annuleringen van vroege bestellingen aangezien ze daar flink verlies op maken met de idioot gestegen (inkoop)prijzen)..

[Reactie gewijzigd door Inflatable op 13 april 2021 02:02]

De kleinere retailers hadden hem alleen niet meteen. Ik kon daar niet voor klaar zitten. Ik was er expres vroeg bij.
Tja waarom zou je als je nog gegarandeerd tot Q2 2022 je backorders aan het wegwerken ben en zon 55% (data uit verschillende polls of mensen al gekocht hadden of niet) van de mensen die een gpu willen nog niet eens een order geplaatst hebben.

Hoop eerlijk gezegd dat amd het wel doet. Maarja ook die hebben nul reden en nog zat weg te werken.
Ben ik de enige die zo moe wordt van al die reacties “ik heb nog een RTX 3080 voor 650 kunnen scoren”. Daar zit toch niemand op te wachten.
Zoveel reacties kunnen dat toch niet zijn?
Dat lijkt me erg sterk, aangezien er geen enkele RTX 3080 ooit te koop is geweest voor minder dan ruim 700 euro..
Ik heb in november de ASUS TUF 3090 voor 1720 euro kunnen kopen, mijn vrienden verklaarde mij zot, nu zijn ze jaloers dat ik ze "zo goedkoop" heb kunnen bemachtigen ;)
Nouja, ik verklaar je nog steeds voor gek, want 1720 voor een freaking videokaart is gewoon achterlijk, hell zelfs 720 voor een videokaart vind ik nog steeds veel te veel. Dus ik zal zeker totaal niet jaloers zijn.
yep, ben zo zot als een achterdeur, en als ik zie dat er nu zijn die ze kopen voor 2500+ weet ik dat er nog veel gekken rondlopen :+ :+ :+
dat heb ik dus met mijn ASUS TUF 3080 OC
ik ken zo éné die in de zuivel werkt en zo ééntje gekocht heeft :9 :+ :9
Idd die van mij was 789 euro via amazon.de
Vooruit, dan zal ik de trend doorbreken. Ik heb nog een 6800 XT voor 650 euro kunnen scoren. :+
Ik had nog een 2070 super voor €550 gekocht xD
Hopelijk kan je een 3080 kopen in 2022 :Y)
Die is nu ook gewoon te krijgen, het ligt eraan hoeveel waarde je hecht aan je nieren.
Wat kost zo'n 3080 tegenwoordig? Is één gezonde nier voldoende?
Je kan sperma doneren. Het AMC vergoed €900 per donatie.
Dus maar 2 donaties en dan kun je er 1 kopen!!
https://www.amc.nl/web/sp...celdonorschap-gezocht.htm

(Ben helaas ouder dan 45 :'( anders had ik het meteen gedaan.)
En die donor-kinderen uit 2021 maar afvragen waarom ze allemaal autistisch zijn ;)
"Voor eiceldonatie is de vergoeding €900 per donatie en voor zaadceldonatie is de vergoeding €50 per donatie"

Was het maar zo'n feest, dan had ik een geldmachine.
Dan was ik nu mijn oude sok met wat anders aan het vullen..
Ik zou toch gaan voor “geldboom” dan.
Lees je eens in wat het inhoudt voor een vrouw om eicellen te doneren. Ietwat moeilijker dan een man en wat spermacellen.
Moet je wel een vrouw zijn, voor sperma moet je wel eventjes doorgaan voor 1800 euro.
Och de gemiddelde tweaker heeft dat toch in een weekje of 2 bij elkaar :+
Weekje of 2?
Give me a day.
Ehh "Hold my beer" !? :+
daar heb je machines voor :P
Totaal off-topic maar:
Voor eiceldonatie is de vergoeding €900 per donatie en voor zaadceldonatie is de vergoeding €50 per donatie.
Helaas even door spuiten sparen.
Hoe vaak per dag mag je doneren? Ik vraag voor een vriend.
€50, voor één zaadcel....?
Nou dan heb ik in een keer een pallet net 3080 kaarten... :+
Eén pallet maar voor 50eu per zaadcel? Dan ben je zeker 120 jaar oud ofzo?
Ik ben gelijk de vloot van de Ever Given en al haar zusterschepen met 3080's rijker in 1 enkele sessie. (En dat is niet eens overdreven als een gemiddelde lozing tussen de 100M en 200M cellen bevat en een 3080 nu geprijst is voor 1800eu)
LOL... 120..nee nog net niet.. Maar, ik wilde niet meteen iedereen voor het hoofd stoten en stelde me wat gereserveerd op... ;)
Haha, was natuurlijk niet verstandig zo'n opmerking te maken zonder een rekensommetje er op los te laten op een site als Tweakers. Maar ik moest lachen 😂
BTC 0,0082
Koopje in 2022. Alles wordt steeds goedkoper 'when you are on the other side'.
Daar had ik mijn 3090 voor 🤣
Ik heb een tijdje terug de 3060Ti besteld voor 575, nu nog maar een paar maanden wachten tot dat ik hem (hopelijkl) heb.
ongeveer 750 euro voor de FE en de merken (Asus, MSI ETC ) zijn rond de 850-900 euro.

Meer dan dat zou ik er niet aan uitgeven.
Dat is wat jij er aan zou uitgeven, niet wat ze kosten :)
Ligt er dan ook aan wat je als "gewoon" beschouwd. xD Eerst baalde ik dat ik vorig jaar een 2080 had gekocht, maar nu ik de huidige chaos zie rondom de gpu's hoor je me niet meer klagen. :p
Idem, heel blij met mijn 2070 Super. :)
Ik heb mijn linker nier al kapot gedronken toen ik mijn verdriet probeerde weg te drinken ;) die rechter kan ik dus echt niet missen. :+

[Reactie gewijzigd door computerjunky op 13 april 2021 00:15]

Zit zo eens te kijken, ik heb 17 sept €789 voor de GIGABYTE RTX 3080 Gaming OC 10G betaalt bij Alternate. Kreeg de kaart 2 oktober binnen. Maar de prijs staat nu op €1719.. Echt gekkigheid..
Valt nog mee. Bij Wish eentje voor €14.552. Er zijn er nog maar 2! :+

Gelukkig hanteert megekko nog normale prijzen met €2149. Dit is gewoon het nieuwe normaal.
Ach een maandje of 2 werken he.
“Normale prijzen” op die kaarten zit een belachelijke winst voor megekko (gerust prijs x2). En dat is natuurlijk prima, een bedrijf mag best winst maken. Maar dan moeten ze niet zo’n belachelijk verhaal ophangen over dat ze maar 200 euro marge hebben. Een 3080 kost nu 1100 inclusief BTW bij de leverancier. Megekko vraagt er 2300 voor....
De AIB hebben de prijzen ook verhoogd. En niet beetje zij zitten ook met kosten.
Foundry verhogen ook de prijzen. TSMC iig wel, samsung ook?
Het is dus niet alleen scalpers die MSRP is gebaseerd op goede tijden.
Nvidia is dan ook snel gestopt met reference design zou kunnen dat doorgaan de marge bij nieuwe productie run verdwenen zou zijn.
Ik hoop ook voor een beetje normale prijs. Ofwel dat de crytohype een beetje minder snoept van de GPU voorraden en de prijzen dus normalizeren.
Een normale prijs is er al jaren niet meer.
Die kwam juist terug met de launch van deze generatie.
Tekorten // scalpers // miners hebben dat om zeep geholpen helaas.
Die prijs was nog veel te hoog hoor. Daar kan nog wel een 300-400 van af en dan verdienen ze er nog dik aan.
Hoe je het ook interpeteert, ~2000,- voor een 3080 op dit moment vind ik wel een beetje vergaan vergeleken met de prijzen van afgelopen december, is meer als een verdubbeling in prijs. Ik was juist een beetje aan het wachten op een iets fatsoenlijkere prijs in december, maar zo te zien ga ik pas op z'n vroegst een nieuwe kaart aanschaffen bij de nieuwe launch in 2022 8)7

[Reactie gewijzigd door Dave M. op 13 april 2021 00:55]

Zolang je in Euro's blijft denken worden: huizen, ziektekosten, studeren en GPU's steeds minder betaalbaar. Je loon stijgt nou eenmaal minder hard dan inflatie. En daar we in de eindfase zit gaat dit steeds heftiger worden.
Wellicht wat meer tijd besteden hoe geld werkt, en wat minder aan gamen.

[Reactie gewijzigd door gepebril op 13 april 2021 12:38]

Je loon stijgt al sinds de jaren 70 amper. Een klein groepje mensen dat vermogen uit vermogen kan halen heeft het goed voor elkaar de rest wordt bedonderd.
Launchprijs voor een 3080 800 euro, normaal gesproken zakt het vanaf launch ook gestaag.
Wat je nu ziet heeft niets met jou verhaal te maken, maar met een oververhitte markt. Net als de huizenbubbel zal ook de GPU bubbel barsten.

Zag je bij de introductie van de 3xxx serie al, een 2e hands 2080Ti voor 565 op de kop getikt. Met verkoop van mijn oude heb ik er 1 voor 365. Moet je voor de gein eens kijken wat er nu word gevraagd voor
2080Ti / 3070 / 3080.

Maar dit zal ook omslaan de andere kant op, op het moment dat crypto weer instort.
De prijs ging voor de RTX 20 high-end ook flink omhoog voor de RTX feature.
De GTX1080 en Ti en dan is RTX3080 ook niet zo goedkoop als de MSRP neemt.
Dat schaarste en scalpers het helemaal extreem maken .
Daarnaast zijn mogelijk de BOM componenten ook lastiger te krijgen. Als chinese leverancier 10% a 30% van passieve componenten niet kan leveren op korte termijn dat er uitgeweken moet worden naar niet chinese zoals Mauser , Digikey , reichtelt. Dat kan nogal aan tikken. Laat staan als dit ook geld voor IC bijvoorbeeld voor VRM driver of de mosfet.

Maar ja 25% of 33% duurder denk niet verdubbeling. Tenzij het wel erg dramatisch is.

Maar ja de SMT van lage volumes en bestukking machines vaker wisselen van componenten ivm lage productie aantallen maakt die stap ook veel duurder.
Zo ook de lagere oplage aan PCB productie.
Dus kan mij wel voorstellen dat in deze tijd wel kosten stuk hoger zijn.
Ik durf mezelf best aan te stippen die het nodige hierover weet, het enige wat ik wil zeggen is dat ik niet rond de 2000 voor een 3080 wil dokken en dat ik liever een (paar) jaar wacht totdat totdat de prijzen weer minstens gehalveerd zijn. Ik heb het gewoon over een simpel feit, waarom dan gelijk "wellicht wat meer tijd besteden hoe geld werkt, en wat minder aan gamen"...
ik heb de mijne asus tuf 3080 voor 1400 van iemand overgenomen. hield gewoon de advertenties bij vraag en aanbod in de gaten
ik herinner mij nog de woorden "meer dan 1000 euro" geef ik er niet voor :*) }> }>
Nvidia introduceert de 3080 in 2022 toch :)
Ik denk dat je al blij mag zijn als je tegen die tijd weer een 2080 kunt kopen, of zelfs een 1080Ti :?
Dat is: tegen een redelijke prijs.

[Reactie gewijzigd door icceni op 12 april 2021 23:09]

Koop een kant en klare desktop of laptop en je hebt de 30xx serie videokaart van NVIDIA nu al.
Koop een kant en klare desktop of laptop en je hebt de 30xx serie videokaart van NVIDIA nu al.
volgens mij zijn desktops met een 3080 ook beroerd verkrijgbaar, hardware is over de hele linie slecht leverbaar
....dat is als een auto kopen omdat je nergens benzine kan tanken.......
Een auto komt zelden met een volle tank
Iedere keer dat ik een auto kocht anders wel... ook 2e hands.
Ik moet de eerste nog tegenkomen die het niet had. Mag ook wel gezien de “rijklaar kosten” die rustig €750-1000 zijn.
Klopt, laatst probeerde een dealer me nog een nieuwe te verkopen met zo weinig benzine dat ik waarschijnlijk niet eens thuis had kunnen komen. Dat was gelukkig met 1 woord opgelost "nee!"
Maar dit zijn algemene taktieken, overal gebruikt om een paar euro marge.
Tja, waarom innoveren als de gek 1000+ euro voor een mid-range kaart betaald?
Omdat Nvidia niets ziet van die 1000+ euro, dat doen de handelaren, Nvidia levert de chip/kaart voor de prijs zoals al lang vast staat aan hun afnemers.
2028 Ampere Next Next Next Next.
Dit zijn roadmaps waar je wat aan hebt :Y)
Nou , maakt niet uit. Nvidia reageerde heel grillig op concurrentie en als CEO zijn dit ook rare tijden.
Zou AMD of iNtel eind dit jaar grote overdondere verrassing komen kan het zijn dat er geschoven wordt met lovelace en hopper en moet nV beslissingen nemen. En beestje naam geven of niet verranderd niks wat er achter gordijn afspeelt.
Huidige serie gebruikt teveel stroom en heeft belachelijk hoge piek momenten die voor veel gebruikers hebben gezorgd dat ze hun voeding moesten upgraden. Ook is daardoor de koeling groter geworden dat zijn punten die ze echt wel mogen aanpakken.

Los van dat, voor het “onethisch minen” zal nu langzamerhand ook in hun richting gekeken worden en mogelijk bij de discussie betrokken worden.

En dan is er nog een pandemie met een crisis, productie en goederen tekorten... daar ga ik even niet op in lijkt mij nu wel genoeg overgeschreven te zijn.

Op dit item kan niet meer gereageerd worden.


Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Microsoft Xbox Series X LG CX Google Pixel 5a 5G Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True