Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

ASUS GeForce RTX 3060 TUF Gaming met 12GB gddr6-geheugen verschijnt online

Er is een afbeelding van een ASUS RTX 3060-videokaart met 12GB geheugen gepubliceerd. Er gaan al langer geruchten rond over de komst van een GeForce RTX 3060 12GB-gpu voor desktops, maar er verschenen nog geen afbeeldingen van dergelijke gpu's.

De ASUS GeForce RTX 3060 TUF Gaming is nog niet officieel aangekondigd, maar techwebsite VideoCardz publiceert een afbeelding van de videokaart. De gpu toont grote gelijkenissen met de huidige RTX 3060 Ti TUF Gaming van ASUS; het komende RTX 3060-model lijkt dezelfde koeler en hetzelfde pcb-ontwerp te gebruiken, zo meldt VideoCardz.

Afbeelding via VideoCardz

De techwebsite claimt ook nieuwe informatie over de specificaties van deze gpu te hebben. De RTX 3060 zou over een GA106-300-gpu met 3584 CUDA-cores beschikken. Dat aantal ligt ongeveer 26 procent lager dan de RTX 3060 Ti. Die videokaart werd in december aangekondigd en heeft 4864 CUDA-cores. De komende RTX 3060 zou verder 28 cores voor raytracing en 112 Tensor-kernen hebben.

Nvidia komt naar verwachting aanvankelijk met een 12GB-variant van de RTX 3060. Een 6GB-model zou mogelijk op een later moment uitkomen, hoewel er volgens VideoCardz geruchten rondgaan dat die variant is geschrapt. Hiermee heeft de RTX 3060 meer videogeheugen dan de huidige RTX 3070 en 3080-videokaarten, die respectievelijk over 8GB en 10GB geheugen beschikken. De RTX 3080 maakt wel gebruik van sneller gddr6x-geheugen.

VideoCardz claimt dat Nvidia de RTX 3060 aankondigt tijdens de CES. Het bedrijf houdt op 12 januari een livestream, waar het volgens geruchten ook de eerste GeForce RTX 30-videokaarten voor laptops zal introduceren. De RTX 3060 12GB verschijnt volgens de techwebsite in februari op de markt. Er gaan al langer geruchten rond over de komst van een RTX 3060-videokaart. Zo verschenen er al modelnamen van dergelijke gpu's bij keuringsinstanties.

Nvidia GeForce RTX 3060-line-up
Videokaart RTX 3060 Ti RTX 3060*
Architectuur Nvidia Ampere Nvidia Ampere
Gpu GA104-200 GA106-300
CUDA-cores 4864 3584
RT-cores 38 28
Tensor-cores 152 112
Geheugen 8GB gddr6 12GB gddr6
Geheugensnelheid 14Gbit/s nnb
Geheugenbus 256-bit 192-bit
Releasedatum 2 december 2020 nnb (februari?)

*Op basis van onbevestigde geruchten

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Nieuwsposter

10-01-2021 • 17:21

109 Linkedin

Reacties (109)

Wijzig sortering
Wat heb je nog aan meer RAM op je 3060 tov een 3070/80 met 10 gb? Als je video-productie doet moet je toch sowieso niet willen dat je dat met een 3060 doet ondanks de 2 gig meer geheugen?
Een overkill aan VRAM op een langzamere GPU is vrij nutteloos.. Maar het verkoopt, want ja 12 is hoger dan 8, dus beter toch.. Zie de eindeloze discussies over VRAM als videokaarten ter sprake komen.. En omdat AMD ook 12GB levert straks op de 6700(XT).. Het is allemaal marketing..

Als de prijzen bij elkaar in de buurt zitten ben je beter af met een veel snellere 3060Ti die met 8GB genoeg VRAM heeft in verhouding met de snelheid van de GPU voor de komende jaren.. Er zullen maar weinig mensen zijn die een 3060 kopen om daar mee op 4K resolutie te gaan gamen met Ultra settings, daar is de GPU sowieso te langzaam voor..

[Reactie gewijzigd door Inflatable op 10 januari 2021 17:55]

Er zijn games / applicaties die er behoefte aan hebben. 6GB is daarentegen aan de lage kant. 12GB is dan een stuk prettiger.
Te laag voor wat? Het is geen ram voor je os, waarbij programma steeds meer ram.gebruiken en dit jaar x amount goed is volgend jaar te weinig. Vram is en blijft resolutie afhankelijk dus de vraag is welke resolutie gebruik je een 3060 voor, niet 4k en 1440p is eigenlijk ook te hoog gegrepen maar is te doen, 6gb zou voldoende zijn voor 1440p maar 8 zou beter zijn voor een aantal titels. Voor 1080p is 6GB de max en dus ruim voldoende. Maar als de 12gb versie 50 tot 100€ duurder is zou ik een 3070 halen.
1440p en bepaalde simulators en / of mods. Ik vind niet dat een bepaalde kaart speciaal te hoog of te laag gegrepen is voor een resolutie. Het ligt eraan hoe je de instellingen hebt staan. Je kan gamen met een 1050Ti op 1440p, terwijl deze 4GB heeft. Een 3060 is wat dat betreft een hele snelle kaart.
Ik bedoel te zeggen, dat je best iets kan gebruiken dat meer dan 6GB vraagt, en de 12GB daardoor een betere keuze is. Bijvoorbeeld met rFactor 2.

[Reactie gewijzigd door Luxicon op 10 januari 2021 21:04]

Dit is een kromme redenatie. Om titels met optimale settings te spelen (zoals bedoeld door de makers) is een bepaalde resolutie te hoog gegrepen voor bepaalde kaarten. Natuurlijk kan je de grafische settings omlaag doen, maar dat wil ik niet. Ik doe liever de resolutie omlaag. De 3060.is niet voor 4k, de 3070 ook niet. Ik kan sommige titels ook op 4k spelen met de 970gtx. Maar dan staat alles op low en is de titel uit 2000.
Dat is geen kromme redenatie. 1440p bestaat niet sinds gister, deze exacte kaart wel. Je kunt instellingen lager zetten en / of oudere games spelen. Dan heb je ook uiteraard ook VRAM nodig.
In dit geval is het inderdaad behoorlijk nutteloos. Echter toen nog SLI bestond voor midrange kaarten had ik nog van hoge VRAM geprofiteerd door twee GTX 960's met 4GB GDDR5 te combineren. Ik had daardoor voor relatief weinig geld een krachtige setup met 4GB GDDR5 VRAM.
Maar nu SLI alleen nog mogelijk is op de RTX 3090 is het momenteel over met de pret. Ach, je hebt in ieder geval geen last van microstutters zonder SLI.

[Reactie gewijzigd door Ram-G-maN op 10 januari 2021 18:50]

Ik heb ooit hetzelfde met twee 970's gedaan. Die hadden allebei 4GB. En dat was toen ook al niet erg veel meer. Ik speelde The Witcher 3 op max settings op 1080p en die game pakte toen al bijna of net iets meer dan 4GB.
Niet iedereen heeft inderdaad 4K monitor, maar meer mensen hebben wel VR erbij, welke op 4K kan staan heeft en dat is alsnog zweten voor videokaart, zeker als Quest2 goedkoop is.

Dus het kan nog steeds.
Ligt eraan, voor bijvoorbeeld video encoding en transcoding kan het wel degelijk voordeel bieden.
VRAM behoefte is toch echt aan de stijgende kant. Ik heb een 1070 en zie dat mijn vram gebruik steeds vaker richting de 8GB gaat. 6GB is echt geen uitzondering meer, en ik zie soms zelfs 7gb gebruik. Gezien een 3060 flink krachtiger is dan een 1070 lijkt me meer dan 8gb geen luxe om futureproof te zijn. Niet iedereen koopt elke twee jaar een nieuwe kaart. Als je een jaar of vijf ermee wilt doen, durf ik je te garanderen dat die 8gb in de toekomst héél krap aan wordt.
Nou, nee, eigenlijk zijn de eerste kaarten met relatief te weinig ram uitgeleverd en is het dus zo dat 12GB al meer in de buurt komt. Je koopt deze kaart niet alleen voor nu, maar voor de komende jaren en textures in 4K worden echt insane groot, uiteraard. Ik wacht op de 16+ GB kaarten voor ik wat nieuws koop, maar denk dat voor deze kaart 12GB juist precies genoeg kan zijn.
Uit een uitgebreide test met Adobe Premiere Pro blijkt de RTX 3060 Ti nauwelijks onder te doen voor de RTX 3070 en RTX 3080. Mocht je in Première Pro sneller willen werken en niet geïnteresseerd zijn in andere toepassingen dan videobewerking, dan kun je het geld dat een 3070 of 3080 extra zou kosten ten opzichte van de 3060 Ti beter besteden aan een andere CPU.
Omdat de meeste handelingen bij video-editing niet GPU hardware accellerated zijn is het logischer om eerst te investeren in een snelle CPU.

Ikzelf zit te wachten op een redelijk geprijsde 3060 of 3070 met 12+ GB en 5000+ CUDA Cores ter vervanging van mijn 1080. Ook voor het gamen op 1440p is dit voor mij voldoende tot de volgende generatie kaarten.
De 8GB/10GB geheugen was een veel voorkomende kritiek op Nvidia's kaarten. Veel recensenten haalden aan dat de kaarten hierdoor niet geschikt waren voor huidige toptitels op 4K en al helemaal niet toekomstbestendig zouden zijn, wat je bij kaarten van 500 euro en meer toch mag verwachten.

AMD heeft tevens tot nu toe al hun nieuwe kaarten uitgerust met 16GB geheugen, en ook de komende 6700 varianten zouden 12GB aan boord hebben.

Gezien Nvidia nu lagere modelllen uiterust met 12GB, en ook hun mobiele varianten van de 3070 en 3080 zouden gepaard zijn met 16GB geheugen, lijken ze te bevestigen dat dit een gegronde kritiek is.

Wel balen natuurlijk als je een een 3060Ti of 3070 gekocht hebt. Als je kijkt naar de compromisen die je vandaag moet nemen met een 4GB kaart tov een 6GB of 8GB kaart, zelfs op 1080p, dan kan je je inbeelden dat dezelfde problemen binnen 2-3 jaar ook voor deze kaarten zullen gelden.

En mensen spelen weldegelijk langer dan 2-3 jaar op zo'n kaarten, kijk maar naar hoeveel Pascal kaarten er nu nog in gebruik zijn.
De 8GB/10GB geheugen was een veel voorkomende kritiek op Nvidia's kaarten. Veel recensenten haalden aan dat de kaarten hierdoor niet geschikt waren voor huidige toptitels op 4K en al helemaal niet toekomstbestendig zouden zijn, wat je bij kaarten van 500 euro en meer toch mag verwachten.
dit is is niet wat reviewers hebben gezegd. Vraagtekens bij de 3070 maar niet de 3080. Er is vrijwel geen enkele mainstream titel dat daadwerkelijk 10gb gebruikt op 4K.

Cyberpunk tussen de 6 a 7, RDR2 6.5, warzone 5, ac valhalla 6 etc.
Dat zeg je nu wel stellig maar bijvoorbeeld Hardware Unboxed op YT is van mening dat de 3080 en 3070 binnen twee jaar tegen hun geheugen grenzen aan gaan lopen, zeker wanneer je zonder dlss 4k en/of raytracing wil gebruiken. Daar kan je het wel of niet mee eens zijn maar zo gek is de stelling van sspiff niet. Ik zelf heb een rtx 3080 en schakel als dat nodig is wel naar 1440 of gebruik dlss mocht dat nodig zijn. Games is een leuke bijzaak maar niet de voornaamste reden om een rtx3080 te bezitten.
De huidige wave aan GPU's zijn over 2 a 3 jaar geen 4K monsters meer zoals deze nu zijn, de texture resolutie wordt neit van verwacht grote jumps te maken aangezien de focus meer op belichting zal zijn om de immersie te vergroten. Dat en dan nog de Direct Storage API om direct compressed textures van SSD te streamen omdat de huidige CPU's niet geschikt zijn om eerst textures te decrompressen dus wordt er of minder met compressie gewerkt, of mindere textures in het algemeen en in grote batches ingeladen. Deze verschuiving zal ervoor zorgen waarschijblijk dat vram requirements niet de pan uit gaan reizen.

De 3070 is sowieso geen echte 4K kaart, dus om daar nou veel vram op te knallen. Memory bandwidth is ook een factor en alleen de 3080RTX en 3090RTX hebben een echt brede bus op dit moment. Het cache bij de 6800XT/6900XT is net te weinig op 4K om dan nog voor verschil te zorgen en daardoor kakken de prestatie sop 4K relatief gezien ook wat in versus de 3080RTX, ondanks dat deze 6GB meer heeft dan de 3080RTX.

Hardware Unboxed heeft alleen bij de 3070 kanttekeningen geplaatst maar voor zover ik weet niet direct bij de 3080. Maar vind HU zelf sowieso vaak de plank misslaan. Ze beschouwen 6core CPU's ook als voldoende voor de toekomst terwijl juist de consoles als leidend worden gezien tijdens de gaming development in het algemeen en deze hebben 8 cores en 16 threads.

Time will tell, maar op dit moment heb je zelfs met 8GB genoeg voor 4K in de modernste games, Godfall werd van geclaimed mede door amd dat deze meer dan 12GB nodig had maar dit bleek op 4K maar 6GB te zijn.

Claim: https://videocardz.com/ne...ay%20at%204K%20resolution.

Daadwerkelijk verbruik: https://www.youtube.com/w...daznExCA&feature=youtu.be

Begrijp mij niet verkeerd, 16GB zou nice zijn voor de 3080RTX (al is alleen 20gb mogelijk als upgrade met de huidige geheugen bus), maar dit geheugen dat zij gebruiken is niet het goedkoopste en vereist een flink PCB om de traces te huisvesten wat de bandbreedte kan facilitieren, daarom de ook de 3090 welke veel groter is.

Dit is puur mijn educated guess dat het waarschijnlijk voldoende zal zijn voor de komende 3 jaar, maar time will tell. Maar er zijn meer factoren dan puur Vram heoveelheid, bandbreedte, IO met de GPU zelf etc zijn allen factoren dat mee zullen spelen.
vertel mij eens welke game 8 cores en 16 threads gebruikt op pc ?
Cyberpunk, Horizon Zero Dawn en Watchdogs legion zijn 3 recente titels welke significante snelheids verbeteringen laten zien met 8 logical cores en deze daadwerkelijk gebruiken. Hierbij moet gezegd worden dat AMD Zen 1 en 2 architecturen moeite hebben met SMT functionaliteit goed te benutten in games. AMD zelf heeft developers aangeraden dat wanneer er dan 6 logical cores aanwezig zijn SMT functionaliteit in games uit te schakelen. Dit is nu nog minder een probleem op Intel CPU's. Maar dit zijn dus games welke 20% snelheids verbeteringen laten zien wanneer je bijvoorbeeld een 3600X vergelijkt met een 3700X. Vergelijkbare clockspeeds, maar 2 cores meer voor de 3700X.

In Cyberpunk veroorzaakt het in locaties zaosl Jig Jig Street flinke performance drops zelfs op 4K resolutie waar je zou verwachten dat je GPU de bottleneck zou vormen. Watch Dogs heeft soortgelijke problemen.
"de texture resolutie wordt neit van verwacht grote jumps te maken aangezien de focus meer op belichting zal zijn om de immersie te vergroten"

Je vergeet VR, door de veel grotere interactie met de omgeving waarbij je alles kan manipuleren, vast nemen en met je neus op kan gaan zitten moet je alles hoge textures geven waarbij je ook veel meer diversiteit moet aanbrengen.

In non-vr ga je in een huis niet veel tegenkomen, als er al een tafel staat is het veel. In VR voelt dat leeg aan waarbij je plots heel het interieur moet gaan toevoegen om immersie te bewaren.

Als gevolg daarvan stijgt zowel de vraag naar kwaliteit van textures als de hoeveelheid waardoor het benodigde Vram met gemak kan verdubbelen mocht de ontwikkelaar daar voor kiezen.
VR is er al en met HL Alyx zag ik nog geen jump. Heb geen andere games op stuff als superhot enzo geprobeerd. Heb zelf geen headset, alleen geleens.
Kip en ei verhaal, zolang er niet meer VRAM is bij de gamer gaat men die limieten laag houden.

Maar als je hier kijkt naar het VRAM gebruik van medal of honor above and beyond wat een meer recente VR game is, rekening houdende dat men ook een SSD eist om snel textures te swappen, dan weet je genoeg.

https://www.youtube.com/watch?v=QRHeC2jdcb0
Is dat allocation of verbruik? Is nu zichtbaar in msi afterburner.
De enige titel waarbij ik wel veel meer VRAM gebruik zie is Call of Duty Black Ops Cold War. Nou is het volgens mij niet zo dat de 10GB VRAM tekort schiet. Maar ik game ook op WQHD. Bij 4K zou ik me kunnen voorstellen dat 10GB VRAM toch al iets aan de krappe kant is. En ik hoop dat ik ongelijk heb, want er zit net een RTX3080 in mijn PC, en ik wil hier echt nog wel even mee doen.
Dat is allocatie, de game gooit het gewoon vol zoveel het kan. In werkelijkheid gebruikt het nog geen 6GB.
Veel recensenten haalden aan dat de kaarten hierdoor niet geschikt waren voor huidige toptitels op 4K en al helemaal niet toekomstbestendig zouden zijn, wat je bij kaarten van 500 euro en meer toch mag verwachten.
klinklare onzin, als een recensent dat zegt: zoek een andere site. Een 3060 ti is niet snel genoeg om nieuwe titels in 4k te spelen, 8 of 12gb maakt daar niks voor uit.
Voor veel mensen moet een game niet op de hoogste settings staan, maar willen ze wel op de native resolutie van hun scherm draaien. Dat kan een 3060Ti zeker wel.

Op die hogere resoluties is het dan weer wel belangrijk dat je de beste textures gaat gebruiken, want anders ziet het er echt niet uit. Dat maakt voor veel mensen meer uit dan hoge kwaliteitsreflecties en dergelijke.
Dat maakt voor veel mensen meer uit dan hoge kwaliteitsreflecties en dergelijke? lol haha ik ken heeeeel weinig mensen die dat doen. Die willen max settings draaien

je gaat NIET 1 3060 kaart halen voor 4K gaming { ben je wel heel dom als je dat doet ]

[Reactie gewijzigd door noway op 11 januari 2021 11:40]

3060 kan geen 4k aan, ik denk echt niet dat iemand dom genoeg is om deze te gebruiken op 4k om dan alles op "low" te moeten zetten qua kwaliteit.

Je bent dan veel beter af op 1440p EN je zal nog steeds niet meer dan 8GB gebruiken zelfs in 4k omdat je textures gebruikt die veel kleiner zijn.

Zet je toch alles open op 4k en ga je dus tegen die 8GB limieten aanlopen dan heb je een slideshow. 12gb gaat voor gaming amper tot geen verschil maken.
Het zou kunnen dat Nvidia een 3070 super en 3080 super uitbrengt als refresh (wel heel erg vroeg en een rare actie). Anders heb ik ook geen idee.
Hoezo is het een rare actie? De concurrent brengt kaarten uit met 16GB VRAM en Nvidia blijft hangen op 8 of 10GB. Meer VRAM is wel meer toekomst bestendig. Het zou zonde zijn als je met een dure kaart over 2-3 jaar te weinig VRAM hebt. Als je op 1080p gamet heb je minder te vrezen dan wanneer je op 4k gamet.

Voor een videokaart van 800-1000 euro is 10GB VRAM gewoon karig.
Dan doe je dit toch (eerst) voor je high-end modellen, niet voor je ‘instap’ model.
Misschien is het zo verlopen:
- Nvidia dacht dat AMD Radeon niet competitief was deze generatie.
- Nvidia gaat voor winstmaximalisatie met 10GB en Samsung 8nm in plaats van 20GB en TSMC 7nm.
- AMD brengt de 16GB 6800XT en 6900XT uit.
- Nvidia realiseert zich dat het een inschattingsfout heeft gemaakt en begint aan de 3070/3080 TI/Super versie's te werken met meer geheugen.
- De 3060 word ook aangepast en in 1 keer goed uitgebracht met meer geheugen.
- De 3070/3080 TI/Super wordt uitgebracht met meer geheugen.
Er gebeurt hier niet veel anders dan bij de voorgaande generaties videokaarten.

- Eerst worden er een drietal 'hoofd' modellen uitgebracht
- Daarna wordt de consument overspoeld met allerlei tussenmodelletjes om alle gaten op te vullen
- Omdat Nvidia na verloop van tijd ook weet hoe veel high-end chips er worden afgekeurd kunnen deze in 'lagere' modellen
- Er wordt wat gevarieerd met hoeveelheden geheugen. Want dan is het aanbod er, ongeacht de vraag. En er wordt dan soms ook goedkoper geheugen gebruikt, maar wel een grotere hoeveelheid
- Verwarring zaaien en de consument naar de duurdere (in theorie ook beter verkrijgbare) modellen drijven
- En niet naar de concurrent. Die eigenlijk precies hetzelfde doet
Het probleem hierbij is vermoedelijk het verschil in geheugen. DDR6 versus DDR6X. Dit laatste kampt naar wat online vaak aangehaald wordt met flinke tekorten waardoor reeds nu al niet aan de vraag voldaan kan worden. Laat staan door per kaart hier nog meer van te willen hebben. Het kan dus nog best wel eens duren eer we echt de 3080Ti bijvoorbeeld gaan zien.
Nee, meer vram is niet toekomst bestendig, want vram is afhankelijk van resolutie. Dus als jij in de toekomst meer vram nodig hebt betekent alleen dat je een hogere res gaat draaien, wat onwaarschijnlijk is. De 970gtx draait de games in 2020 en 2020 titels net zo goed op als bij launch alleen wel op 1080p waarvoor hij ontworpen was en waarvoor 4gb voldoende is. Hij zou niet opeens beter presteren met 8gb ram.
we zouden juist minder vram nodig hebben als ze gaan inzetten RTX IO en dergelijke oplossingen
Ik zie (zeker sinds het thuiswerken) dat veel mensen overstappen op een ultrawide. Zo onwaarschijnlijk vind ik het niet imho.
Really...
Je kan ook een 8k monitor aansturen betekent nog niet dat de kaart op die resolutie kan gamen. Want dat kan hij nu en in de toekomst niet. Mijn 2080ti was kapot en mijn 3080 komt pas (na maanden wachten) deze week, maar ik had een kaart voor 4k op het oog die slechts 2gb ram had, prima voor office werk en andere lichte taken op 4k, niet voor gamen.

De 3060 kan op optimale settings niet AAA games aan op 4k, de 3070 een aantal en de 3080 alles. (Op high en fatsoenlijk FPS) dit gaat in de toekomst niet veranderen ook niet als je er een 6k ultrawide op gaat hangen.
Nee, meer vram is niet toekomst bestendig, want vram is afhankelijk van resolutie
Dat is niet het enige waar VRAM afhankelijk van is volgens mij, ook grote texture packs hebben baad bij meer geheugen, en in dat geval kan het dus wel toekomst bestendig zijn, want games kunnen steeds grotere textures gaan gebruiken.

Ook voor Modding dat vaak later opgang komt en vaak veel geheugen nodig heeft kan het toekomst bestendig zijn. denk aan Skyrim en Fallout

En zelf als je later een nieuw beeldscherm aangeschaft met een hogere resolutie.. kan je ook zien als toekomst bestendig

Dus beetje kort door de bocht om meer geheugen niet toekomst bestendig te noemen imo

[Reactie gewijzigd door Sinester op 11 januari 2021 12:26]

Nogmaals, een nieuw beeldscherm met hogere resolutie bekent niet dat de kaart dat aankan....voor sommige modpacks is 24GB ook nog te weinig, waar Skyrim er. Goed voorbeeld van was, er waren modpacks waarbij mijn 2080ti moeite had. Betekent niet dat je vram hier soelaas biedt. Je kan altijd uitzonderingen bedenken waarom meer vram beter is. Maar over het algemeen gebruken de meesten dit niet. De 3060 is uitstekende koop.voor een bepaalde resolutie. Ik koop.geen 3060 omdat ik alles op 4k draai en de 3080 simpelweg een betere ervaring bied en de 3060 gewoon te weinig FPS om high settings. Ja je kan een game op potato mode spelen met een kaart op 4k maar daar was hij niet voor bedoeld. De meeste reviews testen de 3060 en oordelen de kaart ook niet op zijn 4k prestaties want iedereen weet waarvoor die kaart niet is en waar wel voor. Kan je in de toekomst wel een 4k.monitor aan hangen betekent nog niet dat je met meer vram.opeen wel 4k aankan, want hij mist gewoon de GPU kracht. Dit is het laatste wat ik er nog van zeg want de mensen met de ja maar.. willen gewoon geld verbranden aan nutteloze features. Koop lekker een overpriced kaart. Negeer alle fatsoenlijk medie en bronnen die de 12gb versie nutteloos noemen en hou lekker vast aan meer is beter. Want stel.je voor dat je in de toekomst te kort komt en misschien 2% minder presties hebt door een modpack die txtures heeft voor 8k resolutie waarbij jij een 4k monitor aanstuurt met potato setting maar wel 8k txtures want dat Iets er van dichtbij zo mooi uit....
Het enige waar ik tegen in ging is dat je het als een feit neerzet dat meer VRAM niet toekomst bestendig is, en ik zeg dat dit te kort door de bocht is met een aantal voorbeelden..
Echter blijven Nvidia (en andere bronnen) stug volhouden dat je 10 GB voor gaming nooit vol krijgt. Veel tegenstrijdige berichten dus. Ook hoor ik al 3+ jaar dat meer VRAM toekomstbestendig moet zijn terwijl het dus tot nu nooit word gebruikt..
dus jij gaat game met een 3060 op 4k? zou je dat wel willen?

Ze gaan gewoon weer meer soorten op de markt brengen.
Het is een rare actie om een hoeveelheid geheugen te voorzien die nodig is voor grafische settings die sowieso te zwaar blijken voor die GPU.

Concreet: veel geheugen heb je nodig als je een hoge resolutie met veel gedetailleerde textures instelt. Dit zorgt er helaas ook voor dat je framerate zakt. Kaarten onder de 3070 (of zelfs onder de 3080) zijn gewoon niet krachtig genoeg om die configuratie vloeiend te kunnen renderen, waardoor al dat geheugen nutteloos is. Een beetje zoals een spoiler op een Opel Corsa. :+
Een 3080 kan nu games bijna al niet aan op 4k, over 2 of 3 jaar zal je op 1440p zitten op high settings ipv ultra denk ik.
Je kan nu al niet games op ultra spelen met de 3080 op 1440p 60+fps
Hangt van de game af natuurlijk far cry 5 heeft 100fps op 4k ultra.
Metro exodus 4k dlss wat opgeschaalde 1440p is, 60-70 fps op ultra.
Heb zelf pas een 3080 aorus master, maar ben niet zo bang voor een tekort aan geheugen.
Op 1440p heb je al veel minder geheugen nodig, wat je toch moet gaan gebruiken met toekomstige games.
Hangt van de game af natuurlijk far cry 5 heeft 100fps op 4k ultra.
Metro exodus 4k dlss wat opgeschaalde 1440p is, 60-70 fps op ultra.
Heb zelf pas een 3080 aorus master, maar ben niet zo bang voor een tekort aan geheugen.
Op 1440p heb je al veel minder geheugen nodig, wat je toch moet gaan gebruiken met toekomstige games.
Precies, het hangt allemaal af van de spel, iedere spel is anders, en ik zelf wacht nog met een nieuwe grafische kaart kopen, ze zijn veelte duur nou, en zo goed als niet te verkrijgen, en ik zelf wil gaan voor de AMD Radeon RX 6800 XT, maar die zijn nog lang niet te koop en nog steeds ook veelsteeduur, maar ach me GeForce GTX 1080 doet het nog perfect op me 100Hz 3440x1440 5MP monitor, ben nu toch verlopig nog bezig met The Witcher 3 - Wild Hunt - Game of the Year Edition, heb nu al 106 uur er in gegooid, en hij blijft nog steeds goed.
Gaat met Cyberpunk anders prima hoor. (3900XT icm RTX3080). Ik weet niet welke games jij het over hebt?
Lol toevallig wel sinds 2 weken, een gigabyte 3080 aorus master. :)

[Reactie gewijzigd door Goofy1978 op 11 januari 2021 16:53]

Zijn de 3080 en 3070 inmiddels al weer verkrijgbaar? Laat ze eerst maar aande beschikbaarheid van die kaarten werken
Hoezo beschikbaar, ze hebben de pre-orders nog niet eens de deur uit.
3080 niet ik heb eindelijk eentje kunnen bemachtigen, maar de 3070 en 60zijn beter beschikbaar samen met de 3090 maar de markt is kleiner.
Leer mij eens op de juiste plaats zoeken. Een ASUS TUF versie is gewoon nergens verkrijgbaar, ook niet voor 200 euro extra.. Ik heb er 1 in order staan met nog ruim 500 wachtenden voor me.
Asus op de Dual's na is sowieso een drama. Andere merken zie je wel regelmatig voorbij komen Zotac, MSI Suprim en Ventus, Gigabyte Eagle, ect.
Wellicht was 6GB de andere optie? Dat wordt toch een beetje krap voor iets wat qua prestaties richting een 1070 gaat.
Richting een 1070? De 2060 gaat daar al (een beetje) voorbij, en wetende dat de 3060 ti ongeveer net zo snel is als de 2080 Super kan ik wel voorstellen dat de 3060 zo een kaart kan zijn met de snelheid van een 2070 super.
Richting de 2070? Deze kaarten zijn een stuk sneller dan een 1070..
yup ze gebruiken alleen 2x zoveel power :)
In de praktijk zal dit inderdaad niet direct de kaart zijn waar je aan meer geheugen veel zal hebben. Met een 3060 non-Ti zul je niet boven de 1440p gaan waar je een hoger geheugengebruik echt zal merken ivm resolutie en texture resolutie. Bij een 3070Ti of 3080Ti zal de meerwaarde naar de toekomst toe veel groter zijn, zeker met het oog op 4K en raytracing.
Ik geloof dat het te maken had met de kleinere geheugenbus en iets met chip combinaties die een bepaalde totale hoeveelheid maken. Maar inderdaad, een 3060 met 12gb geheugen gaat nergens over. Zal wel leuk zijn voor OEM systemen want de marketing daar draait toch altijd om grotere nummertjes, niet wat er nou werkelijk sneller is.
Bij een programma als Premiere Pro is een GPU van onderschikt belang en is het verschil tussen de prestaties van een 3060 ti/3070/3080 vrij klein in vergelijking met de CPU. Meer VRAM kan er echter wel voor zorgen dat 6k/8k+ timeslines mogelijk worden. Zie: https://www.pugetsystems....dware-Recommendations#GPU

Voor Premiere Pro zou een 3060/12GB misschien wel eens interessanter kunnen zijn dan een 3060ti/8GB wanneer je met 8k+ bestanden werkt. Maar in die klasse ga je waarschijnlijk niet meer aan budget GPU´s doen.
Tegen de tijd dat het nuttig is zal de kaart naar alle waarschijnlijk al dusdanig verouderd zijn idd, dit hebben we vaker gezien.
Voor videoproductie kan het wel degelijk interessant zijn. Veel video-editors zullen voldoende hebben aan een 3060, maar baat hebben bij de hoeveelheid vram.

Uiteraard is voor 3D en VFX een 3060 niet voldoende, en die zullen eerder wachten (zoals ik zelf) op een 3080 met 20gb. Omdat daar de 10gb van de huidige kaarten niet van volstaat. Geometrie wordt in gpu-renderers als Octane of Redshift tenslotte opgeslagen in de vram. Vram is in die zin de limiterende factor voor de complexiteit van 3D scenes.
Misschien een rare vraag, maar waarom is videogeheugen niet net als pc geheugen gewoon bijprikbaar ?
Dan koop je een prima kaart met 8 gb, prima voor je games nu, maar dr komt een nieuwe game uit, die wat zwaarders is, dan prik je dr wat geheugen bij en klaar.

[Reactie gewijzigd door PFY op 10 januari 2021 22:27]

Meer vram verkoopt ook beter, voor de leek die moet kiezen ;)
Als ze eenmaal echt op voorraad zijn tenminste :P
Heel eenvoudig. Met een 192 bits bus heb je realistisch een keuze tussen 6 en 12 GB VRAM. Nu zat 8 GB voor deze generatie al wat aan de onderkant. Ik denk dat Nvidia heeft gedacht dat een 6 GB niet competitief zou zijn en teveel prestaties in zou moeten leveren, en dus heeft gekozen voor de vlucht naar voren.

De échte vraag is waarom de rest van de kaarten - met uitzondering van bizar geprijsde GTX 3090 - maar 8 GB aan boord heeft...
Probeer met 8 gb maar eens 4k/8k te renderen met je videokaart.. ga je met 8gb ook niet echt redden.. Een 3060TI met 12gb ofzo zou prettig zijn.. Maar aangezien het spul toch niet te koop is boeit het me vooralsnog erg weinig. Leuk al die nieuwe versies...
Off-topic / Irrelevant

[Reactie gewijzigd door Edelhart op 11 januari 2021 16:52]

Ze kunnen net zo goed een 3050 quantum met qubits aankondigen voor honderd euro. Die bestaat ook niet....
Indien de begeleidende foto van die Asus kaart correct is kan het verhaal van WCCFTech ook de prullenbak in. Die website kwam namelijk met het nieuws van een gelekte afbeelding van een Asus RTX 3060 Ultra, waarbij Ultra dan een nieuw soort van Nvidia-klassering zou zijn, in lijn met de Super en Ti toevoegingen: https://wccftech.com/nvid...s-tuf-gaming-oc-pictured/
Meer videogeheugen is zeer wenselijk voor het trainen van deep-learning modellen!

Ben vaak uit het geheugen gelopen op een 12GB kaart bij computer vision projecten. Nu brengen ze nieuwe kaarten uit met 10GB. Zo wordt je wel gedwongen te zeer dure Quadro versies te kopen - vrijwel alleen voor het VRAM.

Een goede stap dit, opgejaagd door AMD _/-\o_
Waar staat TUF eigenlijk voor?
Ik zit nog steeds te wachten totdat ze wat Ti's maken, man man wat is er toch aan de hand in de GPU wereld. Allemaal nieuwe tech die niet beschikbaar is 8)7
Zolang gelukzoekers in bitcoin 'investeren' houdt dit nog wel even aan. Met de huidige koers heb je zelfs een 3090 in 10-12 maanden terug verdiend. (bron Nicehash)
Wat een uitvinding niet? Giga veel stroom opslurpen voor een soort anonieme spaarbank die tot nu toe nog maar weinig toegevoegd heeft aan de samenleving. Maar ja je hebt gelijk, weinig aan te doen behalve wachten als gamer.
gelukkig dat 'gewone" banken wel veel toevoegen door speculatie en +10 x zoveel uit te lenen als kapitaal. ≠crash2008
Zijn 3090’s qua rendement niet veel slechter dan ASICs als je oa BTC wil minen? Ik ken zelf ook alleen maar mensen die ASICs gebruiken
Hangt van de ASIC af. Hier kun je het rendement van modellen vergelijken.
Corona er komen telkens meer produkten die slechter leverbaar zijn de laatste tijd is mij opgevallen.
Niet alleen corona, dit is al jaren zo. Bij launch is er bitter weinig beschikbaar. Het afgelopen jaar heeft de supply chain overal problemen gehad. Dat helpt ook niet. Maar bij elke launch moet je tegenwoordig al preorderen als je wat wilt hebben. En dan is er nog het feit dat crypto opbrengt. Die kopen veel kaarten op en dat had je 5-6 jaar geleden een pak minder. Die kaarten draaien ook continue op 100% en zijn sneller aan vervanging toe. Dat helpt uiteraard ook niet voor de normale gamer
Het is niet alleen beschikbaarheid, ook de vraag is enorm. Zelfde gebeurd immers ook bij de next-gen consoles. De hype creëert vraag, het aanbod is laag, dat drikft de prijs flink op en zorgt dat scalping ook interessant is.
Nvidia probeert alle markten te bezetten met producten waarvan merendeel alleen theoretisch beschikbaar is. Daarnaast gaat de nieuwe Crypto boom verder verkoop aan normale consumenten bemoeilijken.

Wou deze zomer upgraden maar ik moet het maar afwachten :z
Leuk en aardig deze aankondiging, maar hoe zit het met de beschikbaarheid en (absurde) de prijs dat waarschijnlijk hoger is dan het advies prijs. Ik ben zeer tevreden met mij MSI Gaming Trio RTX 3070, maar ik wilde graag een RTX 3080 kopen. 1000 euro vond ik te veel.
Kijk nu al weken uit naar een 3070...nergens verkrijgbaar nog..
Tja, waarschijnlijk liggen de prijzen van custom modellen weer boven de msrp van de rtx 3060 ti.....


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True