Gerucht: Nvidia brengt RTX 3070 Ti 16GB en RTX 3080 12GB in januari 2022 uit

Nvidia introduceert volgens een gerucht op 17 december een RTX 3070 Ti met 16GB vram en een 12GB-versie van de RTX 3080. Beide videokaarten zouden vanaf 11 januari 2022 verkrijgbaar zijn. Ook wordt de aankondiging van de RTX 2060 12GB verwacht.

Over de komst van een RTX 3070 Ti met 16GB vram gingen vorig jaar al geruchten, maar eind 2020 zou die zijn geschrapt door Nvidia. Volgens Twitter-gebruiker Hongxing2020 komt die variant begin volgend jaar alsnog uit. De persoon heeft volgens VideoCardz eerder betrouwbare informatie gegeven over de komst van RTX 30-gpu's.

Nvidia GeForce RTX 3080 Founders Edition
GeForce RTX 3080 Founders Edition

De RTX 3070 Ti 16GB heeft dubbel zoveel vram als de huidige RTX 3070 Ti. De RTX 3080 12GB heeft 2GB vram extra ten opzichte van de reguliere RTX 3080 en net zoveel geheugen als de RTX 3080 Ti. Mogelijk gaat Nvidia de bestaande versies van de RTX 3080 uitfaseren en vervangen door de variant met meer vram.

Hongxing2020 zegt ook dat de RTX 2060 12GB, waar eerder al geruchten over gingen, vanaf 7 december verkrijgbaar zal zijn. Eerder zeiden anonieme bronnen tegen VideoCardz dat die variant op basis van de oudere Turing-architectuur begin 2022 zou verschijnen. Nvidia zou de RTX 2060 opnieuw willen uitbrengen vanwege de aanhoudende chiptekorten. De Turing-gpu's worden op een ander productieproces gemaakt.

Videokaart Introductiedatum Verschijningsdatum
Nvidia GeForce RTX 3080 12GB 17 december 11 januari 2022
Nvidia GeForce RTX 3070 Ti 16GB 17 december 11 januari 2022
Nvidia GeForce RTX 2060 12GB ? 7 december

Introductie- en verschijningsdata van nieuwe RTX-videokaarten volgens gerucht

Door Julian Huijbregts

Nieuwsredacteur

01-11-2021 • 14:43

67

Reacties (67)

67
67
27
4
0
28
Wijzig sortering
De 16GB RTX3070(Ti) zat al langer in de geruchtenmolen dus begrijpelijk.


Maar een 12GB RTX3080 lijkt mij compleet onlogisch :? ?
De 3080 heeft 10GB doordat een deel van de geheugencontroller is uitgeschakeld en over een 320bit bus beschikt, bij die busbreedte kun je alleen eigenlijk alleen 10 en 20GB toepassen in de praktijk. De 3080Ti en 3090 hebben de volledige geheugencontroller ingeschakeld en werken met 384bit, daardoor is de keuze voor die chips 12 of 24GB.

Wil je een RTX3080 van 12GB voorzien dan moet je dus net als op de hoger geplaatste modellen alle geheugencontrollers inschakelen. Maar het verschil tussen 3080 en 3080Ti is in games al beperkt tot hooguit 5-10%, er is toch helemaal geen marktsegment om daartussenin nog een vernieuwde 3080 uit te brengen met prestaties tussen beide in? Het uitfaseren van de huidige 3080 zou kunnen maar is vanuit Nvidia gezien weer onlogisch, waarom zou je de 3080 nog dichter tegen de 3080Ti aan laten kruipen qua prestaties, dan kannibaliseer je toch de markt voor de 3080Ti weg?
In de huidige markt zal er geen sprake zijn van kannibalisme. Nvidia verkoopt alles wat ze maken, er zal geen 3080 Ti minder verkocht worden omdat de 3080 nu 12gb krijgt. Zie ook het prestatieverschil tussen 3080 TI en 3090, is nihil.

De enige vraag die dan nog overblijft is waarom Nvidia dit doet. Ik vermoed dat dat in de optimalisatie van het productieproces zit. Het is makkelijker en mogelijk goedkoper om alleen 12 en 24gb GA102 kaarten te maken dan 10, 12 en 24gb. Dat de prijs van de 3080 iets hoger wordt maakt ook niet, mensen kopen toch wel.
Er is zeker wel spraken van kannibalisme, er zullen hierdoor minder standaard 3080 te verkrijgen zijn.
Waarom? Omdat alle 3080 (en totaal eigenlijks RTX 30 serie) door 1 bakker gemaakt worden, en de oven al 100% vol is, daar kan niets meer bij, en de bakker heeft ook afspraken met andere klanten die ook veel brood afnemen, dus een percentage verhoging in productie capaciteit is niet mogelijk.

Als Nvidia nu bv. 50% 3080 chips, en 50% 3080 TI laat maken, totaal 100%,
Dan word dat straks bv. 33,3% 3080, 33,3% 3080 TI 12GB, en 33,3% 3080 TI (afrondingsfout ff niet mee nemen) totaal 100%.

Elk model wat erbij komt kannibaliseert de rest van de huidige productie en dus de verschillende type kaarten die te kopen zijn.
En er zal dus van elke type kaart en fabrikant minder kaarten gemaakt worden, en ik verwacht dat dit de prijs ook weer wat zal gaan opdrijven, want, minder aanbod = hogere prijs.

[Reactie gewijzigd door cHoc op 23 juli 2024 06:50]

Zo werkt het niet. Nvidia laat Samsung 100% GA102 chips maken en de defecten op de chip bepalen wat het gaat worden.

Dit zijn de keuzes waarover je die 100% moet verdelen:

A10 PCIe
A10G
A40 PCIe
CMP 90HX
GeForce RTX 3080
GeForce RTX 3080 12 GB
GeForce RTX 3080 Ti
GeForce RTX 3080 Ti 20 GB
GeForce RTX 3090
GeForce RTX 3090
RTX A5000
RTX A6000

Energieverbruik en de maximale snelheid die de chip haalt spelen ook een rol in de verdeling.
Bron

[Reactie gewijzigd door LoadedBaton op 23 juli 2024 06:50]

Mja, zonder deze nieuwe kaarten kom je op onderstaand lijstje uit, en zijn er per kaart type meer voorradig over de wereld.
Wat uiteindelijk beter is voor de algehele voorraad van kaarten per type.

A10 PCIe
A10G
A40 PCIe
CMP 90HX
GeForce RTX 3080
GeForce RTX 3080 Ti
GeForce RTX 3090
GeForce RTX 3090
RTX A5000
RTX A6000

Daarbij gaf ik het als voorbeeld aan.
10GB is voor die kaart ook gewoon te weinig. En zo laat in de generatie met iets meer VRAM aankomen kan die twijfelaars over de streep trekken.

Maar ja, dat is in een normale markt. Kennelijk verwacht Nvidia dus nog wel even Ampere te refreshen en te verkopen met dit soort bewegingen, en wil men het bestaande aanbod iets interessanter maken voor die termijn. De tekorten zouden ook minder moeten worden - iets waar Nvidia natuurlijk scherp op let. Daarom is dit gerucht er ook al langer. De timing maakt uit.

[Reactie gewijzigd door Vayra op 23 juli 2024 06:50]

Het is zoiezo een centenkwestie. De bakker kiest hier een brood wat makkelijk te bakken is en wat hij voor meer kan verkopen. De oven staat toch al 24/7 aan, en dan kun je maar beter makkelijk te maken luxebroodjes er door heen proppen.

Nvidia zal wel een sommetje gemaakt hebben waarbij de 384bits bus goed te maken is t.o.v. de 320bits bus en het productieproces zodanig inrichten dat dit winstgevender is (en dat de kaarten dus voor meer te verkopen zijn). Er zal minder versneden moeten worden en meer van de koek over blijven voor de verkoop op deze manier.

[Reactie gewijzigd door zzzzz op 23 juli 2024 06:50]

Offtopic:

Ik vind dat je dit mooi verteld! _/-\o_
Nieuwe versie nieuwe msrp maar geld richting Nvidia. Dit is zeker niet een nieuw truukje.
Misschien doen ze een 12GB 3080 zodat ze kunnen stoppen met de 10GB 3080. De 12GB variant zetten ze dan op 1000 USD MSRP in plaats van 700 USD.

Ter vergelijking, de 12GB 3080Ti hebben ze op 1200 USD MSRP uitgebracht.
Ja goed punt.. Ik denk het ook, want de 719 euro voor de 3080 is gewoon fantasie en gaat dit voorlopig wel blijven. Dit geeft ze een mooie reden voor een permanent hogere adviesprijs.

Wel balen voor mij want ik heb net 1200 euro uitgegeven voor de Ti versie (Founders Edition) juist vanwege de 12GB en met de bredere geheugenbus gaat het verschil in snelheid echt peanuts worden. Dan is de Ti gewoon totaal niet interessant meer ;)

Maar ach ik heb in elk geval een kaart in deze moeilijke tijd. En ik heb mijn 1080Ti ook goed kunnen verkopen.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 06:50]

Ik vermoed dat er nog een nieuwe 3080 TI gaat komen, maar ook het opschalen van de 3080 is logisch: recent bracht Ubisoft voor Far Cry 6 een texture pack uit die 12 GB VRAM nodig heeft. Dat zal vast niet het laatste spel zijn waar dat voor zal gelden.
Een 3080 met 12GB en 3070Ti met 16BGB, waarom is dat niet andersom?
Omdat je met de breedte van de geheugenbus zit i.c.m. het feit dat geheugenchips alleen gemaakt worden in groottes 2^x.

Een volledig ingeschakelde GA104 (welke de RTX3070(Ti) en RTX3060Ti gebruiken) heeft een 256 bit geheugenbus waardoor je alleen geheugengroottes van 4, 8 of 16GB kunt toepassen.

Een volledig ingeschakelde GA102 (welke de RTX3080(Ti) en RTX3090 gebruiken) heeft een 384bit geheugenbus waarbij alleen de RTX3080 beperkt is op 320bit doordat een deel is uitgeschakeld. Hierdoor kun je bij een volledige chip alleen 6, 12 of 24GB toepassen en bij een 320bit variant 5, 10 of 20GB. Een eventuele 3080GB met 12GB zal dus ook sneller geheugen krijgen en nog dichter tegen de 3080Ti aan kruipen dan de huidige versie doordat de bus verbreed zou moeten worden van 320 naar 384bit.

[Reactie gewijzigd door !mark op 23 juli 2024 06:50]

Verhelderend dank je voor deze uitleg !
Hierdoor kun je bij een volledige chip alleen 6, 12 of 24GB toepassen...
Ik vraag me dan af of 12+6=18 (of 6+6+6) ook niet mogelijk zou zijn?

Het blijft namelijk raar dat een RTX 3070TI 16GB zal hebben en de nieuwe RTX 3080 (en de huidige 3080 TI) maar 12GB. Nvidia maakt het nu dan toch wel echt moeilijk om te kiezen welke GPU je het beste neemt... Dan toch liever de praktijken van AMD waar je 8, 12 en 16 hebt (in die volgorde).
GDDR6x komt in chips van 1GB volgens mij.

Dus afhankelijk van het aantal kanalen kun je elke capaciteit wel maken. In het verleden heeft Nvidia dat ook gedaan met asymmetrische VRAM systemen. Memory controllers werden dan aan meerdere chips gewired of andersom. Het geheugen heeft dan niet voor elk 'deel' gelijke bandbreedte. De GTX 970 is een berucht voorbeeld waarbij de grens van die techniek werd overschreden en ook veroordeeld/geschikt. Maar ook Fermi en Kepler kaarten hebben het, zoals de GTX 660.

Vanaf Pascal en later zien we dat niet meer, gelukkig, want het heeft impact. Maar ook Ampere is eigenlijk weer een rommeltje als je het over VRAM hebt, met initieel te lage capaciteit afgezet tegen de core power van de chips, en daaroverheen refreshes met heel veel VRAM waar je ook weer afvraagt wat het doel ermee is. Het is iig duidelijk dat Nvidia dat offer verkiest momenteel boven een asymmetrische bus. En ik denk dat de switch naar Samsung (waar de geruchten eerder TSMC 7nm waren) daar van grote invloed op is geweest. Ook als je kijkt naar de TDPs e.d. Er moest laat in het proces een aanpassing komen.

[Reactie gewijzigd door Vayra op 23 juli 2024 06:50]

Van de GTX970 wist ik het inderdaad. Die had twee geheugenpartities van 3.5 en 0.5GB waarbij het 0.5GB deel nog geen 20GB/s deed, belabberd voor een kaart in dat segment wat ook meteen te merken was in games zodra meer dan 3.5GB nodig was. Naar die blunder verwacht ik dat Nvidia niet meer terug gaat of duft naar een asymmetrisch constructie. Van de 660 wist ik het niet (ben pas echt begonnen met me te interesseren ervoor sinds de 700 series), dat ga ik als ik zin eens rustig terug lezen hoe dat presteerde :)

Uitgaande van symmetrisch zou je in theorie een GA102 met 256bit geactiveerd van 16GB kunnen voorzien. Maar dan krijg je een kaart welke een snelle core heeft met veel VRam maar veel te weinig bandbreedte heeft om tot zijn recht te komen :P
Tenzij je die >10GB nodig hebt zou een kaart als dat trager zijn dan een gewone 3080, wat ook weer niet uit te leggen is. Of je moet zoals AMD met een infinitycache achtige constructie gaan werken, maar dat is niet iets wat je even toepast bij een refresh als deze, dan moet je hele architectuur op de schop.
Ook als je kijkt naar de TDPs e.d. Er moest laat in het proces een aanpassing komen.
Dat komt ook omdat de klokfrequenties denk ik hoger staan afgesteld dan het punt waarop Ampère het meest efficiënt is, wellicht om een zo'n groot mogelijk gat te slaan met de vorige generatie of om AMD bij te houden/voor te blijven?

In principe undervolt ik al mijn kaarten tot het punt dat ze ongeveer de stockprestaties leveren, ik heb bij de 700 en 1000 series bij lange na niet de winsten kunnen halen als nu met de 3000 serie (3060Ti), puur door het verlagen van de corespanning en het iets laten zakken van de kloksnelheid; maar in de praktijk is het zelfs iets sneller doordat deze lagere kloksnelheid wél vastgehouden waar de maximale snelheid uit de fabriek toch niet vaak gehaald kon worden vanwege de powerrlimit

[Reactie gewijzigd door !mark op 23 juli 2024 06:50]

Een 3080 met 12GB en 3070Ti met 16BGB, waarom is dat niet andersom?
De ene is een Ti versie, de ander een regulier model
Dat lijkt me niet. Bij de 3060 is het andersom. Daar heeft de 3060Ti 8GB en de 3060 12GB.
Iemand enig idee hoe het met de leverbaarheid zal zijn?
Nvidia geeft zelf aan dat de tekorten tot 2023 duren. Ik denk eigenlijk dat zolang cryptomining bestaat Nvidia niet tegen de (bijna oneindige) vraag op zal kunnen.
Nvidia produceert ze niet zelf hé, ze kunnen gewoon niet genoeg productiecapaciteit reserveren bij tsmc samsung. Zo "oneindig" is de vraag trouwens zeker niet, hoogstens 2 tot 3x zo groot dan zou moeten zijn door hun eigen gedrag. Ze hebben jarenlang geweigerd om mining als een volwaardige afzetmarkt te zien en er meer capaciteit voor te vragen, waardoor heel de malaise begonnen is. Nu er écht een capaciteitsprobleem is bij de fabs blijven ze gewoon doorgaan op hetzelfde verhaaltje, met dezelfde doelgroep als slachtoffer.

[Reactie gewijzigd door dasiro op 23 juli 2024 06:50]

Niet TSMC maar Samsung; maar de rest van je verhaal is ok.
Ik heb wel een vermoeden ja.
Mijn planning was om uiteindelijk een RTX 3080 te halen maar met dit gerucht lijkt een RTX 3070 Ti met 16GB ergens wel interessanter. Lijkt me een stuk toekomst bestendiger.

[Reactie gewijzigd door ocwil op 23 juli 2024 06:50]

Klopt, maar kijk je naar de 1440p resolutie, dan is het verschil al minder groot. Dit is de resolutie waar ik recent naar ben geupgrade.
Bedankt voor het meedenken :)
Ben wel benieuwd wat die 16gb voor stroomverbruik en temperatuur gaat doen. Gddr6x op de 3070ti gaf al forse toename in verbruik tov de 3070 met GDDR6.
16GB VRAM is wel prettig voor Fusion effecten in Davinci Resolve. Ben nu bijna blij dat mijn 3080 order gecanceled is door Megekko :*)
Niet alleen daar, ik kreeg met een 3070 TI al een melding in Farcry 6 dat 'VRAM low' was...
Nu is Farcry enorm buggy dus het zal vast aan die kant liggen maar ik zou ook liever wat meer ruimte willen aan de hardware kant. Mijn oude 980 Ti had 6GB en deze nieuwe 3070 Ti slechts 8 GB... Best vreemd...

En dan kijk je naar Apple die 64GB (shared) aan een GPU knoopt... Ik hoop dat we op het x86 platform ook wat meer innovatie gaan zien...
64GB shared is echter niet ideaal aangezien deze gedeeld wordt met het RAM. Apple wil hun mac pro lijn ook vervangen met eigen chips, maar ze zullen het niet goed voor elkaar krijgen. De huidige Mac pro kan tot wel 1,5TB RAM uitgerust worden en dan lijkt 64GB gedeeld wel erg marginaal. Het zal nog even duren.
64GB shared is echter niet ideaal aangezien deze gedeeld wordt met het RAM
Ik neem aan dat je bedoelt dat het gedeeld wordt met de CPU?
Maar dat is juist wel ideaal gezien de grootste bottleneck juist zit tussen CPU en GPU. In een normaal systeem zitten de CPU en de GPU de hele tijd op elkaar te wachten. Vandaar ook technieken zoals Direct Storage waar de GPU direct data kan lezen van een SSD zonder door een CPU te hoeven gaan.
Die 64GB is een geheugenpoel, tussen RAM en GPU. "De M1 Max-soc ondersteunt maximaal 64GB geheugen en ook geheugenbandbreedte wordt opgehoogd tot 400GB/s."
Ja? Dat zeg ik ook?
“M1 also features our unified memory architecture, or UMA. M1 unifies its high‑bandwidth, low‑latency memory into a single pool within a custom package. As a result, all of the technologies in the SoC can access the same data without copying it between multiple pools of memory. This dramatically improves performance and power efficiency. Video apps are snappier. Games are richer and more detailed. Image processing is lightning fast. And your entire system is more responsive.”
Niet alleen daar, ik kreeg met een 3070 TI al een melding in Farcry 6 dat 'VRAM low' was...
Nu is Farcry enorm buggy dus het zal vast aan die kant liggen maar ik zou ook liever wat meer ruimte willen aan de hardware kant. Mijn oude 980 Ti had 6GB en deze nieuwe 3070 Ti slechts 8 GB... Best vreemd...

En dan kijk je naar Apple die 64GB (shared) aan een GPU knoopt... Ik hoop dat we op het x86 platform ook wat meer innovatie gaan zien...
Ook een van de rede dat ik gegaan was voor de AMD Radeon RX 6800, die verleden jaar al uit kwam met 16GB VRAM.

Ja maar die Apple 64GB shared RAM voor de GPU, is ook niet zo bijzonder, aangezien de RAM van een systeem veel langzamer is dan GDDR RAM.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 06:50]

Mwa, de RAM die gekoppeld is, is best snel: 400GB/s memory bandwidth
Dat is vergelijkbaar met GDDR5. Ik ben nog benieuwd wat de schrijf snelheid is, want misschien zit het wel op niveau van GDDR6?
GDDR5 kan met gemak 8 Gbps doen, en GDDR5X kan met gemak 10 Gbps of meer doen, en GDDR6 kan met gemak 12 a 16 Gbps doen, en ja dan stelt die shared RAM nooit wat voor.
We praten over GB/s, toch? Wikipedia geeft deze cijfers weer:
https://en.wikipedia.org/wiki/GDDR_SDRAM
GDDR5 40–64 GB/s
GDDR5X 80–112 GB/s
GDDR6 112–128 GB/s
We praten over GB/s, toch? Wikipedia geeft deze cijfers weer:
https://en.wikipedia.org/wiki/GDDR_SDRAM
GDDR5 40–64 GB/s
GDDR5X 80–112 GB/s
GDDR6 112–128 GB/s
Dit is wat AMD en Nvidia zegt.

https://www.amd.com/en/products/graphics/amd-radeon-rx-6800

GDDR6 zie je ondergaan staan, en er staat echt Memory Speed: 16 Gbps.

https://www.nvidia.com/nl...-cards/gtx-1650/#shop-now

En er staat bij GeForce GTX 1650 toch echt, GDDR5 Geheugensnelheid 8 Gbps

En klopt met je WIKI, waar staat:

64 lanes GDDR3 625 MHz 2.5 GT/s 159 Gbit/s 19.9 GB/s
64 lanes GDDR4 275 MHz 2.2 GT/s 140.8 Gbit/s 17.6 GB/s
64 lanes GDDR5[2] 625–1000 MHz 5–8 GT/s 320–512 Gbit/s 40–64 GB/s
64 lanes GDDR5X[3] 625–875 MHz 10–12 GT/s 640–896 Gbit/s 80–112 GB/s
64 lanes GDDR6 875–1000 MHz 14–16 GT/s[/b] 896–1024 Gbit/s 112–128 GB/s
64 lanes GDDR6X 19-21 GT/s

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 06:50]

"Beide videokaarten zouden vanaf 11 januari 2022 verkrijgbaar zijn"

Ze hebben iig humor bij Nvidia.

[Reactie gewijzigd door NosferatuX op 23 juli 2024 06:50]

""Beide videokaarten zouden vanaf 11 januari 2022 verkrijgbaar zijn"

Jep alle 2 zijn verkrijgbaar. Nu nog 2 jaar wachten op de andere 1 miljoen kaarten
Ze moeten wat om gamers richting cloud gaming platform te pushen waar hun videokaarten voor gebruikt worden…

Als iedereen massaal een eigen recente videokaart in bezit heeft lukt dit natuurlijk niet..
Ze moeten wat om gamers richting cloud gaming platform te pushen waar hun videokaarten voor gebruikt worden…

Als iedereen massaal een eigen recente videokaart in bezit heeft lukt dit natuurlijk niet..
Ik begin daar ook steeds meer aan te denken, dat dit expres is de tekort, en dat ze veel meer verdienen aan cloud gaming platform, want wat ik gezien heb duurt het wel tot en met 2023 dat de tekort aanblijft en de prijzen absurd hoog blijven, als ze ooit nog richting normaal prijzen gaan.
AMD heeft niet zo'n platform, waarom zou die Nvidia helpen?
AMD heeft niet zo'n platform, waarom zou die Nvidia helpen?
Wie zegt dat ze er ook niet mee bezig zijn, wat ik weet heeft AMD ook servers met grafische kaarten er in, en die servers (servers met Grafische kaarten) woorden gebruik door Google en andere voor cloud gaming.

Maar natuurlijk kan ik het fout hebben, ik hoop het ook dat ik het fout heb, en dat de prijzen binnenkort weer normaal zijn.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 06:50]

Wie zegt dat ze er ook niet mee bezig zijn, wat ik weet heeft AMD ook servers met grafische kaarten er in, en die servers (servers met Grafische kaarten) woorden gebruik door Google en andere voor cloud gaming.

Bron:
https://www.amd.com/en/graphics/server-cloud-gaming

#speculatie#
Ik vermoed dat gaming zoals we nu kennen, dus gaming met eigen hardware, meer richting de niche markt gaat (zeker gezien de prijzen ;)) en cloud gaming, mainstream. Althans hier wordt denk ik op gemikt..
Als je zo om je heen kijkt de laatste paar jaar, zoeken steeds meer partijen, en niet alleen de PC industrie naar stady income in de trant van lease, maandelijkse abonnementen etc.. Hier sluit cloud gaming waar je maandelijks voor moet betalen naadloos op aan..

# coronaopertunisme#
Je opmerking betreft "expres" tekorten wegzetten als business strategie (want zo lees ik jouw opmerking) tegen de vraag om zo hun doel te bereiken zou zomaar kunnen, maar dit zal je nooit zwart op wit te horen krijgen, maar dit ligt wel een beetje in de lijn der verwachting.

[Reactie gewijzigd door Audione0 op 23 juli 2024 06:50]

Wie zegt dat ze er ook niet mee bezig zijn, wat ik weet heeft AMD ook servers met grafische kaarten er in, en die servers (servers met Grafische kaarten) woorden gebruik door Google en andere voor cloud gaming.

Bron:
https://www.amd.com/en/graphics/server-cloud-gaming

#speculatie#
Ik vermoed dat gaming zoals we nu kennen, dus gaming met eigen hardware, meer richting de niche markt gaat (zeker gezien de prijzen ;)) en cloud gaming, mainstream. Althans hier wordt denk ik op gemikt..
Als je zo om je heen kijkt de laatste paar jaar, zoeken steeds meer partijen, en niet alleen de PC industrie naar stady income in de trant van lease, maandelijkse abonnementen etc.. Hier sluit cloud gaming waar je maandelijks voor moet betalen naadloos op aan..

# coronaopertunisme#
Je opmerking betreft "expres" tekorten wegzetten als business strategie (want zo lees ik jouw opmerking) tegen de vraag om zo hun doel te bereiken zou zomaar kunnen, maar dit zal je nooit zwart op wit te horen krijgen, maar dit ligt wel een beetje in de lijn der verwachting.
Precies, en ik hou niet van cloud gaming, dat betekent straks net als met films en series waar het heen gaat, dat niks meer van jou is, dat je het niet meer kan kopen los of hoe het gaat via Steam of die andere stores, en dat je een abonnement MOET nemen om nog te gamen, we gaan steeds meer naar een toekomst dat niks meer van jou is, en dat vind ik absoluut geen leuke "vooruitgang", voor mij is het tegenovergestelde van een vooruitgang.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 06:50]

Daarom staat er ook ZOUDEN in plaats van ZIJN. Dan klopt hun persbericht in elk geval. ;)
Kaarten zijn wel okay verkrijgbaar nu, alleen of voor te hoge prijzen of in systemen van system builders.
Hahaha goeie inderdaad!

Net als hun aankondiging van de beschikbaarheid van de Nvidia RTX 3060 kaarten vanaf oktober 2020 vorig jaar voor de retailprijs van 407 euro.
Het zou leuk zijn als we eind 2022 "gewoon" een RTX 3080 (Ti) kunnen kopen voor € 1.200,00 en dat hij dan ook nog eens direct op voorraad is. Maar ik ben er bang voor...
scalpers be like: *yoink*
Ze staan nu voor 1450 op voorraad in pricewatch. Hoewel MaxICT pre-orders voor 1100 aanneemt. Wat trouwens een beetje verdacht is. Misschien gaan ze wel failliet?!
Hoewel MaxICT pre-orders voor 1100 aanneemt. Wat trouwens een beetje verdacht is. Misschien gaan ze wel failliet?!
Dan gaan ze dat al minimaal sinds 2016 getuige dit forumtopic ;)

Suggestie: MaxICT weren van tweakers.net pricewatch
Mag deze ***winkel nou eindelijk eens een keer opdonderen van ons mooie Tweakers.net?
Het enige waar het toe leidt is boze en gefrustreerde tweakers, die hier alleen maar bestellen omdat ze per ongeluk vergeten naar de shopreview te kijken.
Gewoon zou zijn als we een top kaart kunnen kopen voor rond de €800,-. MSRP van bijvoorbeeld de AMD 6800xt is rond de €700,-. Alle prijzen van nu zijn nog steeds enorm opgeblazen. No way dat ik een GPU voor €1200,- ga kopen.
De RTX 3080 met 12GB lijkt mij onlogisch en waarom nog een RTX 2060 GB met 12GB, ook al zijn er chiptekorten, die chips moeten toch ook gemaakt, of is er nog zoveel voorraad?

Als je de laatste benchmarks zo bekijkt van nieuwe games, zullen de games op grafisch hoge kwaliteit voor 4K straks de RTX 3070 en RTX 3080 16 GB worden, voor 1440p de 11/12 GB varianten en voor 1080p lijkt een 3060 met 6 GB of meer prima.

[Reactie gewijzigd door Jumpman op 23 juli 2024 06:50]

Is dit niet gewoon de EVGA praktijk, die Linus gister beschreef in zijn laatste aflevering.

Bepaald product uitbrengen met een bepaalde msrp, in gelimiteerde oplage, om daarna nieuwe producten met een hogere msrp dan het vorige product, en gelijktijdig het goedkopere product stilletjes uitfaseert.

En daarmee constant het aanbod limiteert.
Na een jaar op de wachtlijst , heb ik het opgegeven.
Geen nieuwe RTX GPU meer voor mij en al helemaal niet voor die zotte prijzen.

Op dit item kan niet meer gereageerd worden.