Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Nvidia kondigt GeForce RTX 3080 Ti en RTX 3070 Ti op 31 mei aan

De aankondiging van de komende Nvidia GeForce RTX 3080 Ti en RTX 3070 Ti vindt volgens geruchten op 31 mei plaats. De gpu-maker zou de videokaarten volgens bronnen van VideoCardz in juni uitbrengen.

Bronnen van VideoCardz stellen dat Nvidia eerder van plan was om de RTX 3080 Ti op 18 mei aan te kondigen, maar dat het bedrijf dit met enkele weken heeft uitgesteld. VideoCardz stelt daarnaast dat Nvidia op 31 mei ook een RTX 3070 Ti-videokaart introduceert. De reviewembargo's van beide videokaarten zouden verschillen; de RTX 3080 Ti-reviews zouden op 2 juni gepubliceerd worden en die van de RTX 3070 Ti volgen een week later, meldt VideoCardz. De releasedata van de gpu's zijn nog niet bekend, maar doorgaans vinden dergelijke releases op dezelfde dag van de reviews of een dag later plaats.

De Nvidia GeForce RTX 3080 Ti krijgt volgens geruchten een GA102-225-gpu met 10.240 CUDA-cores en 12GB aan Gddr6x-geheugen. Dat is 2GB meer dan de reguliere RTX 3080. De nieuwe videokaart krijgt echter een 384bit-geheugenbus, waarmee de maximale bandbreedte wordt opgehoogd naar 912GB/s, waar de RTX 3080 een geheugenbandbreedte van maximaal 760GB/s bood.

De GeForce RTX 3070 Ti krijgt volgens VideoCardz een GA104-400-gpu met 6144 CUDA-cores, ten opzichte van een GA104-300-chip met 5888 CUDA-cores in de reguliere RTX 3070. De Ti-variant zou wederom 8GB videogeheugen krijgen, hoewel de gpu ditmaal voorzien zou worden van sneller Gddr6x-geheugen. De videokaart krijgt daarnaast naar verwachting een 256bit-geheugenbus, voor een maximale bandbreedte van 608GB/s.

Nvidia zou verder zijn begonnen met het verschepen van nieuwe Ampere-gpu's met vernieuwde cryptominingbeperkingen. Deze gpu's zouden in de komende weken beschikbaar komen voor consumenten, zo bleek eerder al. Nvidia heeft de komst van vernieuwde RTX 3060-gpu's met nieuwe hashrate limiter vorige week bevestigd in een driver-update.

Nvidia heeft de RTX 3080 Ti en RTX 3070 Ti nog niet officieel aangekondigd, hoewel er al maanden geruchten rondgaan over de twee videokaarten. De gpu's lijken zo goed als klaar te zijn voor release; onlangs dook al een pallet met RTX 3080 Ti-videokaarten van MSI op. Naast VideoCardz melden ook bronnen van Overclocking.com dat Nvidia de twee gpu's in juni uitbrengt. Dit doet vermoeden dat het de definitieve interne planning van Nvidia is, hoewel deze informatie dus nog niet officieel is bevestigd en alsnog onderhevig aan wijzigingen kan zijn.

Nvidia GeForce RTX 30-serie
Model RTX 3090 RTX 3080 Ti* RTX 3080 RTX 3070 Ti* RTX 3070
CUDA-cores 10.496 10.240 8704 6144 5888
Boostsnelheid 1700MHz 1665MHz 1710MHz nnb 1730MHz
Vram 24GB Gddr6x 12GB Gddr6x 10GB Gddr6x 8GB Gddr6x 8GB GDDR6
Geheugensnelheid 19,5GBit/s 19Gbit/s 19Gbit/s 19Gbit/s 14Gbit/s
Geheugenbus 384bit 384bit(?) 320bit 256bit 256bit
Bandbreedte 936GB/s 912GB/s 760GB/s 608GB/s 448GB/s
Tgp 350W 320W(?) 320W nnb 220W
Releasedatum 24 september Juni(?) 17 september Juni(?) 29 oktober
Adviesprijs
(Founders Edition)
1549 euro Nnb 719 euro Nnb 519 euro

* Op basis van onbevestigde geruchten

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Redacteur

03-05-2021 • 20:27

143 Linkedin

Reacties (143)

Wijzig sortering
Jammer dat er geen 16gb geleverd wordt in tegenstelling tot de 6800XT. Had gedacht dat het met de Ti zou komen maar het is toch 12gb.
'Kan niet' met de geheugencontroler configuratie van de Ampere chips:

8GB kaarten: 256-bit = 4 x 2GB (64-bit)
10GB kaarten: 320-bit = 5 x 2GB (64-bit)
12GB kaarten: 384-bit = 6 x 2GB (64-bit)
24GB kaarten: 384-bit = 6 x 4GB (64-bit)

De enige manier waarop ze met deze geheugencontroler 16GB kunnen leveren is 256-bit = 4 x 4GB(64-bit). Dat zal echter langzamer zijn dan een 3080 en is dus geen optie.
Zo diep op de stof ben ik niet ingegaan maar dat klinkt logisch als je dat zo stelt. Nu ben ik benieuwd wat ze doen op VR, het zou dan als nog een contender voor mij zijn.
Er is ook het probleem dat 2GB GDDR6X modules niet bestaan, het geheugen neemt dus veel ruimte in beslag op de PCB. Er kunnen maximaal 12 modules worden geplaatst aan iedere kant van de PCB. Een PCB met geheugen aan beide kanten is moeilijker te fabriceren en veel duurder, dat probleem heeft NVIDIA dus opgelost door maar 12GB te gebruiken (12 geheugen modules rondom de GPU, past net). Voor de professionele kaarten (zoals de RTX A6000) is het oudere GDDR6 geheugen gebruikt zodat de maximale capaciteit verhoogd kon worden naar 48GB (24x2GB), die mensen hebben liever dubbel de geheugen capaciteit dan wat extra bandbreedte.
Wel, ze bestaan waarschijnlijk wel ... maar nog niet in producten.
De AMD kaarten hebben wel normaal GDDR6 VRAM en ook een smallere geheugenbus.
De hoeveelheid zegt dan ook weinig. Die 12GB bij de 3080 Ti is echt wel een mooie kaart.
Wat is een mooie kaart? Alles hang uiteindelijk af van de prijs..

Op dit moment liggen de prijzen nog steeds ver boven het msrp, en hoewel ik verwacht dat de MSRP van de RTX3080Ti op dit moment meer richting de RTX3090 op gaat dan de RTX3080 zijn het alleen de reference kaarten van Nvidia zelf die voor deze prijzen verkocht worden. De andere kaarten zullen allemaal voor veel hogere bedragen over de toonbank gaan.

Het probleem is dat zelfs bij een beter aanbod zullen de prijzen niet meteen dalen. Kijk maar naar de RTX3070, die is in principe gewoon aardig leverbaar. Alleen voor prijzen waarbij niemand ze wil kopen en groot gelijk heeft men. In plaats van de prijzen te verlagen zodat deze ook verkocht worden, blijft men de prijzen gewoon zo hoog houden en liggen deze kaarten op de plank bij webwinkels.
MSRP zou tussen de 3080 en 3090 moeten liggen.
Dit zal dus 900-1000 euro zijn ?

Rekening houden dat niet reference kaarten al +100 a 150 waren boven op msrp bij launch.

Inmiddels koop je een 3080 voor de prijs van een 3090 en een 3090 voor +2000 8)7
Er zijn nog niet eens 3000 series voldoende op de markt laat staan dat de TI versies beschikbaar zullen zijn :+
Adviesprijzen staan hierboven, als die meer naar de rtx3090 nijgt dan zal dit eerder rond de €1200-1300 zijn voor de rtx3080Ti. Dan praat ik enkel en alleen over de Nvidia reference kaarten.

AMD en Nvidia bieden hun kaarten als die beschikbaar zijn gewoon aan voor de prijzen die op hun site vermeld worden. Alleen zijn deze verkocht voordat je het weet.

Kijk hier op Tweakers maar naar de vraag & aanbod pagina, er zijn momenteel al weer de nodige Reference kaarten van Nvidia te koop, gesealed en al. Hoe komen deze mensen daaraan? Die kaarten liggen vast niet al maanden bij hun op de plank. Dit zijn gewoon nieuwe kaarten die men gekocht heeft direct via Nvidia en nu kunnen ze er een leuk zakcentje op verdienen.
Als ze er 16GB op doen daalt de geheugenbandbreedte met ~30%
Zou je dat kunnen uitleggen? als ik de tabel zie ten opzichte van de 3090 met dezelfde bus en vrijwel dezelfde snelheid neemt de totale bandbreedte niet af. Wat mis ik?
Zie de reactie van omega supreme
Ik zie het niet.

3090: 24GB 384bit 19,5Gbit/s = 936GB/s
3080Ti: 12GB 384bit 19Gbit/s = 864GB/s
(384bit * 19Gbit / 8 bits per byte = 912GB/s zoals in de bron aangegeven dus de tabel op tweakers is fout)

Dit scheelt 8%, geen 30? En dit is te verklaren door de iets lagere geheugensnelheid.

[Reactie gewijzigd door Malantur op 3 mei 2021 22:37]

Zowel de 3080ti als 3090 gebruiken 12 chips. Je hebt 32 bits per chip, 32x12 voor een totaal aan 384 bit. Dan doe je 384*19Gbps/8 (8 bits per byte) voor een totaal aan 864GBps op de 3080ti, en 384*19.5/8 voor een totaal van 936GBps op de 3090.

Als ze voor 16GB willen gaan, moeten ze voor 8 chips van 2GB gaan, voor een totaal van 256 bits. 256*19.5/8 is 624GBps.
256bit zijn 8 chips. 8GB ram maak je met 8x1GB. 16GB maak je met 8x2GB.
Bottom line blijft die 256bit bus zijnde 256*19,5/8 (waarbij de 8 er staat om Gbit in GByte om te zetten, dus heeft verder niets te maken met de chips).
Dat is toch wat ik zeg?
Ik zie nu dat de discussie 12 of 16GB was, ik was volledig in de veronderstelling dat de discussie 8 of 16GB was.

Maar op zich heeft Nvidia met de 550 Ti bewezen dat ze even goed geheugenchips kunnen mengen en zo 12GB op een 256bit bus zouden kunnen zetten. Zie: https://www.anandtech.com...-coming-up-short-at-150/2
It’s this technique that NVIDIA has adopted for the GTX 550 Ti. GF116 has 3 64-bit memory controllers, each of which is attached to a pair of GDDR5 chips running in 32bit mode. All told this is a 6 chip configuration, with NVIDIA using 4 1Gb chips and 2 2Gb chips. In the case of our Zotac card – and presumably all GTX 550 Ti cards – the memory is laid out as illustrated above, with the 1Gb devices split among 2 of the memory controllers, while both 2Gb devices are on the 3rd memory controller.

This marks the first time we’ve seen such a memory configuration on a video card, and as such raises a number of questions. Our primary concern at this point in time is performance, as it’s mathematically impossible to organize the memory in such a way that the card always has access to its full theoretical memory bandwidth. The best case scenario is always going to be that the entire 192-bit bus is in use, giving the card 98.5GB/sec of memory bandwidth (192bit * 4104MHz / 8), meanwhile the worst case scenario is that only 1 64-bit memory controller is in use, reducing memory bandwidth to a much more modest 32.8GB/sec.
Niet te vergeten dat ze nadien ook nog een gelijkaardige frats uitgehaald hebben op de GTX 970 met zijn 3,5GB snel geheugen en 0,5GB traag geheugen, dus ik zie dergelijke setups niet zo snel meer verschijnen. Maar het kan dus zeker wel :)
Dit scheelt 8%, geen 30? En dit is te verklaren door de iets lagere geheugensnelheid.
De gpu kan 12 chips tegelijk gebruiken, en heeft dan 12x de bandbreedte van 1 chip. Hij kan niet 16 chips tegelijk gebruiken, dus moet je terug naar 8 chips tegelijk en die dan dubbel uitvoeren of grotere chips gebruiken, maar de bandbreedte blijft op die van 8 chips.

(8-12)/12=-33%
In de design fase van de GA104-400 heb je gelijk. Op die moment kiezen ze voor een 256bit bus (8 of 16GB), 320bit bus (10 of 20GB), 384 bit bus (12 of 24GB) of nog groter. Hoe groter, hoe ingewikkelder en groter de chip dus hoe duurder.

Maar eens dat de GA104-400 chip een 256bit chip is, is er ‘niets’* dat ze tegen houdt om er 8 of 16GB op te solderen.

Zie ook: https://www.notebookcheck...-16-GB-VRAM.516741.0.html

* behalve bijvoorbeeld: prijs, markt segmentering en misschien fysieke ruimte beperkingen zoals hierboven geoppert
Ja, bij de 3070Ti, 3070 en 3060Ti zou je idd prima 16GB modellen kunnen maken. Maar voor de 3080Ti, die de GA102 gebruikt moet je kiezen tussen 12 of 24 als je de volledige bandbreedte wilt benutten. En de 24GB versie is er natuurlijk al.
12GB is meer dan genoeg voor gaming. Het zou alleen maar de prijs opdrijven en het aantal leverbare kaarten naar beneden halen.
het gereserveerde geheugen is iets anders dan het gebruikte geheugen. ;)
Dat is natuurlijk waar. Maar menig simulator games fan zal natuurlijk voldoende geheugen willen hebben. En schermen kunnen toevoegen voor het plezier. Dan is meer dan 12GB wel fijn. Anders krijg je van die vervelende hick ups.
dat veranderd de rekenensom niet. een 8GB GTX1080 van bijna 4 jaar oud inmiddels heeft nog zelfs genoeg om spellen zoals flightsim en 2077 gewoon te draaien op een resolutie die haalbaar/speelbaar is voor die kaart. je gaat niet op 4k draaien met een GTX1080. dus je hebt ook de vram niet nodig voor 4k, immers kan je niet 3 schermen op 4k aansturen op (want nu) een low end kaart is. er is een balans tussen gpu-paardjes, resolutie en vram. en team groen en team rood hebben ECHT wel door wat de goede balans is.
Zie de eerder gedeelde links aub nog even terug.
sorry, maar een "Review" van flightsim op 8k waarbij men niet eens de 10fps grens doorbreekt en dan klaagt over vram limieten kan niemand serieus nemen en laat ook precies zien wat ik bedoel. op het moment dat je door je vram heen gaat is het spel al lang niet meer speelbaar te noemen en ook guru3d negeert dat het gereserveerde geheugen is iets anders dan het gebruikte geheugen.

[Reactie gewijzigd door flippy op 4 mei 2021 00:48]

Nee, 3070 is zeker tekort gedaan door beperkt geheugen. Zommige games zoals Watch DOgs 3 gebruiken meer dan 8gb op ulra textures en valt fps omlaag. 8 Gb was riant in 2016 toen 1080 kwam, maar helaas in een jaar of twee zal de situatie zoals met 770 2Gb zich herhalen.
Die is dan ook slecht geoptimaliseerd.
Dus heb je het niet nodig?
8GB is voor de meeste set aan games met alles op high nog steeds voldoende hoor. Groot verschil tussen allocatie en daadwerkelijk in gebruik. Je stored veel textures op in het geheugen om deze vloeiend te kunnen streamen ipv vanaf disk af te moeten lezen.

Maar het verschil vroeger ook met een 4GB kaart vs een 8GB kaart of terug in de jaren geforce 2 zelfs (32MB vs 64MB) maakt amper 1 FPS uit ofzo.
MSFS2020 net als de meeste flight sims zijn CPU limited. Maakt niet uit als je 12 of 24 GB heb op je GPU. Wat wel veel uitmaakt is als jij je CPU kan overclocken naar de 5Ghz. Intel CPU's zijn vanwege hun single core overclockbaarheid veel beter dan AMD CPU's in Flight Simulators. Ik heb GTX 1080ti , RTX2080ti en nu 6900XT en dat scheelt bar weinig met FPS. Wel als ik mijn CPU ga overclocken. Wordt en keer tijd dat de flight sims multi-core beter gaan ondersteunen.
Voor huidige games. Di kan zeker veranderen in de toekomst.
spellen die zoveel geheugen nodig hebben kan je toch niet draaien op een dan verouderde gpu. dan moet je het meest peppie model van die dag hebben. een 8GB GTX1080 van bijna 4 jaar oud inmiddels heeft nog zelfs genoeg om spellen zoals flightsim en 2077 gewoon te draaien op een resolutie die haalbaar/speelbaar is voor die kaart. je gaat niet op 4k draaien met een GTX1080. dus je hebt ook de vram niet nodig voor 4k.
Denk dat de RTX 3070 en RTX 3080 nog wel eens tegen die limiet gaan aanlopen. Spellen zoals Doom Eternal op 4k vragen veel ram en willen je niet eens laten spelen als je niet het minimale hebt.
Resident Evil 2 Remastered draait op een trage Radeon VII beter dan op een RTX 3070 op 4k.

Het is zonde dat op zo'n dure kaart (nu nog meer) er wordt bespaard op geheugen. De 3080 Ti kaart is dan wel nodig in mijn ogen. Op de RTX 3070 Ti had ik eigenlijk zelfs 16GB verwacht omdat 8GB echt wel te krap wordt voor die kaart.
beide kaarten draaien zonder enig vram probleem op zelfs 8k. en doom is eem amd spel, niet een nvidia spel. amd is beter in vulcan dan nvidia. daar komt het verschil vandaan en heeft geen bal met vram te maken.

[Reactie gewijzigd door flippy op 4 mei 2021 01:15]

Doom Eternal gebruikt meer dan 8GB aan 4k ultra settings. En we spreken niet over allocated, maar effectief in gebruik. En nu spreken we voornamelijk nog rond games gebouwd rond de huidige generatie consoles die 4.5-5GB aan RAM aanbieden. De nieuwe bieden 13-13.5GB.
gpus die doom (of een ander spel) kunnen halen op 4k of meer halen niet speelbare framerates op die resoluties dus het is een non argument. je bent eerder door je gpu vermogen heen dan je vram.

[Reactie gewijzigd door flippy op 4 mei 2021 02:00]

Oh nee hoor, we spraken nog steeds over goede frame rates. IIRC 100 met 10GB, 80 met 8GB.
en dat doet niks af aan het feit dan doom een vulcan spel is en beter draait op amd. de enigste manier om een relevante test te maken is door 1 gpu te pakken met verschillende hoeveelheden ram.

jij kijkt naar de inhoud van de brandstoftank en niet de pk's die uit de motor komt. je moet wel naar de juiste metriek kijken om uberhuapt te weten welk punt de begrenzende factor is. jij bent zo gefocust op het kunnen rijden van 2000km op 1 tank dat je niet eens kijkt of het wel nodig is om zo ver te kunnen rijden....

[Reactie gewijzigd door flippy op 4 mei 2021 02:30]

Nee... Dat heeft er helemaal niets met Vulkan vs DX of AMD vs Nvidia te maken...
Onzin dat het alleen komt omdat Nvidia slechter is dan AMD in Vulkan. Enige punt waar ze wat mislopen is driver overhead doordat Nvidia geen hardware scheduler heeft.
Daarnaast is het niet in elk level te zien maar in de sewer levels heeft die RTX 3070 het wel degelijk moeilijk. Dan heb ik het niet eens over average fps maar juist microstutters.

Maar goed blijf vooral lekker die kaarten kopen.
Nee hoor. Kijk nar Hardware Unboxed tests van 3070. Zelfs op 1440p stottert de kaart in Watch Dogs 3 met ultra textures. Dat zal alleen slechter gaan komend jaar.
Mijn 6800XT loopt toch helemaal vol met Warzone. Moet zelfs de textures iets lager zetten om framedrops te voorkomen.
het gereserveerde geheugen is iets anders dan het gebruikte geheugen.
Niet iedereen koopt een gaming kaart voor gamen alleen. Gaming kaarten met veel geheugen zijn een goed alternatief voor workstation kaarten. En veel programma's halen geen voordeel uit de pro kaarten buiten het enorme geheugen. Voor zulke programma's wil je liever een snellere gaming kaart met veel geheugen die ook nog eens goedkoper is.
als je meer geheugen nodig hebt voor "werk" dan heb je daar andere karten voor.
Welke andere? Een Quadro is zonde van het geld voor veel programma's zoals Blender omdat die programma's geen gebruik maken van double precision en Quadros zijn ook nog eens langzamer dan de Geforce kaarten. De goedkoopste Quadro RTX heeft maar 8gb en die van 16gb is net zo duur als de 3090. Dus kan je net zo goed de 3090 halen maar voor sommige mensen is die gewoon te duur. En AMD is geen alternatief als je CUDA cores nodig hebt. Dus zou een 16gb RTX kaart die lager in prijs is dan de 3090 wel een goede uitkomst zijn
niemnand die je tegenhoud om een titan/xx90 serie te kopen. en als je het bedrijfsmatig nodig hebt zij de kosten niet belangrijk.

[Reactie gewijzigd door flippy op 4 mei 2021 10:54]

Overigen is de 10gb van de 3080ti voor vr wel ontzettend krap. Heb met zowel een 3080 en 3090 getest en je merkt het vooral in de textrues. Voor wireless ps vr met een quest 2 (high res) is een 3080 eigenlijk kwa mem hoeveelheid te krap en ik vrees dat die 2gb extra van de ti dat niet op gaat lossen.
Waar merk je dat aan? ik heb een 3080 en gebruik Quest 2 wireless via VD en of Link Air en kan volgens mij alles echt op major hoge kwaliteit settings draaien.

Zie daar niet echt een 'geheugen issue' maar wie weet spelen we verschillende spellen natuurlijk en mogelijk zijn er instellingen waar ik niet van weet.
Je ziet het bijvoorbeeld in asgarth wrath of fsim. Dat met de 3090 veel meer textures worden ingeladen. Met de 3080 zie je regelmatig ter plekke dat de snel textures ingeladen worden van een object. Met de 3090 heb je dit zo goed als niet.
Hopelijk goed leverbaar, maar ik vrees het ergste.
Hopelijk goed leverbaar, maar ik vrees het ergste.
Ze verwachten dat te kort chips pas in mei 2022 of zelfs 2023 weer in voorraad is, dus reken er maar op dat je nog jaren geen grafische kaarten kan kopen ;(

https://www.bloomberg.com...-shows-no-sign-of-abating
https://www.msn.com/nl-nl...in-2023-duren/ar-BB1fIu7I
https://frontline.digital...-kan-tot-in-2023-duren-2/
https://www.agconnect.nl/...ten-blijven-nog-paar-jaar

Wat zeg ik nou weer fout, ik ben ontopic, ik reageer op wat die persoon zij, wow, wat een NVIDIA fanboys hier zeg.

[Reactie gewijzigd door AmigaWolf op 4 mei 2021 01:06]

Ik denk dat dit heel afhankelijk is van wat de cryptomarkt doet, zolang deze het nog zo goed doet zal er weinig verandering in komen. Maar als we hopelijk eens een grote crash krijgen dan wordt de markt misschien wel weer overspoelt met 2e hands kaarten. De prijzen zullen dan wel moeten dalen.

Daarbij zijn er al de nodige webwinkels die gewoon een RTX3070 in voorraad hebben, ik weet natuurlijk niet hoeveel. Maar zolang de prijzen zo hoog zijn koopt ook niemand ze. Dus laat de webwinkels lekker me de voorraad zitten en als de prijzen omlaag gaan dan gewoon pas weer kopen. Probleem is dat het gewoon een spelletje wordt straks van wie koopt een kaart voor welke prijs. De prijzen zullen niet direct weer naar MSRP gaan.
Maar als we hopelijk eens een grote crash krijgen dan wordt de markt misschien wel weer overspoelt met 2e hands kaarten. De prijzen zullen dan wel moeten dalen.
Yep. Daar wacht ik eigenlijk op. Mijn vorige kaart kwam ook uit een mining setup. Het lijkt nu nog ondenkbaar, maar er komt een moment dat er een overaanbod van 3000-reeks kaarten is op 2dehands websites.
Niks van aan trekken. Dat krijg je als iedereen moderator is. Wordt hier een beetje als Facebook.
Hoe dommer de uitspraak, des te hoger het voetstuk....
Ja je hebt gelijk, ik maak me er ook nu niet druk over, ze doen maar.
Komt vooral omdat het bouwen en opstarten van een fab deze tijd in neemt. En dat is nog behoorlijk snel.
Hopelijk kunnen ze dan ook vlot schakelen van processors naar flash geheugen.
Ja we zullen het allemaal zien.
Ik denk dat dit heel afhankelijk is van wat de cryptomarkt doet, zolang deze het nog zo goed doet zal er weinig verandering in komen. Maar als we hopelijk eens een grote crash krijgen dan wordt de markt misschien wel weer overspoelt met 2e hands kaarten. De prijzen zullen dan wel moeten dalen.

Daarbij zijn er al de nodige webwinkels die gewoon een RTX3070 in voorraad hebben, ik weet natuurlijk niet hoeveel. Maar zolang de prijzen zo hoog zijn koopt ook niemand ze. Dus laat de webwinkels lekker me de voorraad zitten en als de prijzen omlaag gaan dan gewoon pas weer kopen. Probleem is dat het gewoon een spelletje wordt straks van wie koopt een kaart voor welke prijs. De prijzen zullen niet direct weer naar MSRP gaan.
Ja ik hoop ook dat ze en ik het fout heb en dat deze jaar weer alles te koop is en er een overvloed van 2de hands mining kaarten te koop zijn.

[Reactie gewijzigd door AmigaWolf op 4 mei 2021 20:33]

Niks van aan trekken. Dat krijg je als iedereen moderator is. Wordt hier een beetje als Facebook.
Hoe dommer de uitspraak, des te hoger het voetstuk....
Komt vooral omdat het bouwen en opstarten van een fab deze tijd in neemt. En dat is nog behoorlijk snel.
Hopelijk kunnen ze dan ook vlot schakelen van processors naar flash geheugen.
alle 47 exemplaren zijn binnen anderhalve minuut weg. En dat komt omdat de site traag is.
Wat is nog het verschil RTX 3080ti vs RTX 3090?
De prijs en de hoeveelheid geheugen. :P
Beschikbaarheid zal een status quo zijn :)
Ja inderdaad, ik denk dat we ergens in 2023 of 2024 weer normaal voor een videokaart kunnen shoppen... De prijzen zijn al belachelijk tegenwoordig, ruim 2000 euro, dat ga ik er zeker niet voor neerleggen. Kan nog prima een tijd doen met m'n 2070.
Het is onmogelijk te zeggen wat er gebeurt, als er weer een crypto currency omhoog schiet dan hebben gamers het nakijken, of ze moeten gaan concurreren qua kosten met de miners.
Het is zeker koffiedik kijken, mee eens.
Ik denk dat het elkaar in stand houdt zoals nu het geval is. Videokaart schaarste = hogere prijs crypto, en vice versa.
Ik vraag mij af of die cryptobeperking eigenlijk een beperking zijn op compute-berekeningen of is crypto nog een derde/vierde/... mogelijkheid van gpus? Zou dus een gpu schaakengine ook beperkt worden? Of zou ik lc0 hiermee gewoon op full speed kunnen draaien?
Als één van de bekende ethereum mine programma's gedetecteerd wordt gaat de hashrate limiter erop.
Andere crypto munten minen gaat dus wel nog op volle snelheid.
En misschien als je een nieuwe versie van de bekende mine programma's maakt dat het niet gedecteerd wordt?
En laatst was er al een test met één of andere bèta driver en die draaide ethereum minen gewoon op volle snelheid, dus er hoeft alleen maar iemand die beta driver op internet te zetten en iedereen kan vol gas minen
Ze detecteren specifieke delen van het Ethereum algoritme, dus zou verder niet uit mogen maken.
RTX 3060 software drivers are designed to detect specific attributes of the Ethereum cryptocurrency mining algorithm, and limit the hash rate, or cryptocurrency mining efficiency, by around 50 percent.
https://blogs.nvidia.com/blog/2021/02/18/geforce-cmp/
Hopelijk laten de scalpers en miners deze kaarten met rust en kunnen de eerlijke gamers hiervan genieten.
De Nederlandse webshops moet ook even meewerken. Als ik soms zie wat er voor een rtx wordt gevraagd door de webshops (800 voor 3060, 1400 voor 3070, 2000 voor 3080). Ik verwacht niet dat de kaarten voor MRSP weggaan. maar een opslag van 20 a 25% zou ik normaal vinden op AIB custum cards, aangezien de FE versies, tegen heel lage marge worden aangeboden, volgens mij.
In de VS, bij Micro Center, wordt er nu om legitimatie gevraagd bij de aanschaf van een grafische kaart. Je mag maar één kaart per adres per maand aanschaffen. En nog liggen mensen 's nachts in een tent voor de deur te wachten tot ze de volgende dag weer open gaan en mogelijk een kaart beschikbaar hebben.

Ik vind het systeem van bijvoorbeeld EVGA wel mooi. Je staat in de wachtrij, first come first serve, en zodra er een is krijg je acht uur om 'm te kopen voor de MSRP (of iets hoger). Zo krijg je daadwerkelijk kaarten bij mensen. Of er beperkingen zijn op aantallen, etc. weet ik niet.
Hier ook bij LDLC.fr
Kan je bij een systeem als EVGA niet gewoon heel veel email adressen aanmaken en opgeven ?
Ik heb mij trouwens in het begin aangemeld bij EVGA maar sindsdien nog steeds geen antwoord.
Dat kan dacht ik, maar ze zullen ongetwijfeld een check doen wat waar vandaan komt - als is het pas bij de order.

Ik heb na drie maanden ook nog niets gehoord helaas :-(
Ik zou er niet op hopen. Die miners hebben genoeg resources om er voor te zorgen dat die maatregelen kunnen omzeild worden, en die winkels gaan de prijzen niet laten zakken tenzij ze niet anders kunnen. Het einde is nog niet in zicht vrees ik.
Als de Nederlandse webshops hoge prijzen aanhouden, zal het scalpen blijven bestaan. De scalpers kopen de kaarten meestal bij buitenlandse shops en bieden ze het via MP en V&A in Nederland aan, onder de prijzen van NL shops. Wie zijn eigenlijk de scalpers vraag ik mij dan af.
Nvidia baas: hey weet je wat, onze chips kunnen we nu nog duurder verkopen door een Ti variant (van dezelfde die, maar minder gelockt) op de markt te brengen!

Die Ti dingen zijn gewoon wat beter wegens betere productie/binning.

niets nieuws onder de zon. Business as usual. Later komt er mss nog een "Super" variant of zoiets.
Klopt. Maar het is ze moeilijk kwalijk te nemen: alles wat ze momenteel aanbieden wordt gretig gekocht. Als ik nVidia was zou ik nog wat lager in de bin zoeken naar spul dat nog bruikbaar is.
Benieuwd hoe de RTX 3070 Ti zich zal verhouden tegen mijn RTX 3070. :-) Toch geen spectaculair verschil in CUDA-cores, het snellere geheugen zal vooral het verschil maken vermoed ik.
Dus er zijn al geen chips meer en Nvidia maakt nog meer verschillende modellen. Hopelijk kan iedereen een kaart krijgen die ze willen/ nodig hebben.
Volgens mij is dat juist de reden waarom ze meer verschillende modellen maken. Elk model heeft andere chips en als die een andere leverbaarheid hebben, dan kan je het beste met meerdere modellen komen.
De productie capaciteit is er gewoon niet, dus ben wel benieuwd of dit nou iets gaat oplossen.
Dat ligt eraan hoe je het bekijkt, de chips die misschien net niet voldoende zijn voor een RTX3090 kunnen wel gebruikt worden voor de RTX3080Ti. Door voor de 3080Ti een hogere prijs te vragen dan de RTX3080 verdienen ze dus nog steeds goed op die chips.

Hetzelfde geldt voor de RTX3070Ti, al is daar de ruimte voor een hogere prijs niet zo groot gezien de RTX3080 er ook nog is. Bij de afgelopen 2xxx serie werkte men met Super versies in plaats van Ti, deze vervingen de bestaande kaarten voor bijna dezelfde prijs.
Dus, de goedkopere kaarten zijn slecht leverbaar... zou de productie van deze Ti versies dan flink zijn opgeschroefd zodat alleen deze goed verkrijgbaar zijn en ze dus nog meer kunnen cashen?
Ik vindt het allemaal maar raar dat je niks te verkopen hebt maar wel het ene na het andere product op de markt brengt en dus de productie nog meer moet verdelen? :?
Dat is het probleem. Er is zat te verkopen, Nvidia verkoopt waarschijnlijk iedere kaart die ze maken. Daarom kunnen ze nu dure nieuwe versies lanceren een ze lekker duur verkopen.

Als Nvidia echt om gamers zou geven zouden ze een low/mid-end gpu ontwikkelen met een kleine chip en hoge yield zodat ze er veel uit een wafer kunnen halen en er veel kunnen verkopen voor een normale prijs. Maar aangezien daar het geld niet zit zullen ze dat niet doen.
Dat vindt Nvidia misschien wel een goed idee maar de aandeelhouders niet. Daar zit het grootste probleem.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True