Afbeeldingen tonen Nvidia GeForce RTX 3060 Ti-videokaarten van Gigabyte

Er zijn renders verschenen van verschillende GeForce RTX 3060 Ti-videokaarten van Gigabyte. Op de verpakking is te zien dat de kaarten 8GB gddr6-geheugen krijgen. Volgens geruchten brengt Nvidia zijn RTX 3060 Ti op 2 december uit.

VideoCardz heeft afbeeldingen gepubliceerd van een Gigabyte RTX 3060 Ti Gaming OC en Eagle OC. Dat zijn videokaarten met respectievelijk drie en twee fans. De Gaming OC heeft daarnaast een 8-pinsaansluiting en een 6-pinsconnector voor stroomvoorziening en een ontwerp dat 2,2 uitbreidingsslots inneemt. Het Eagle OC-model is voorzien van een enkele 8-pinsconnector en heeft een dualslot-ontwerp.

De verpakkingen van beide videokaarten tonen daarnaast aan dat de RTX 3060 Ti beschikt over 8GB aan videogeheugen, net als de RTX 3070. Dat komt overeen met eerdere geruchten. Het zou gddr6-geheugen betreffen, met een snelheid van 14Gbit/s.

Gigabyte RTX 3060 Ti-videokaartenGigabyte RTX 3060 Ti-videokaartenGigabyte RTX 3060 Ti-videokaartenGigabyte RTX 3060 Ti-videokaarten

De Gigabyte RTX 3060 Ti Gaming OC (links) en RTX 3060 Ti Eagle OC. Afbeeldingen via VideoCardz

Verder staan er geen specificaties op de verpakking aangegeven. Zo is het niet duidelijk wat de kloksnelheden van de Gigabyte-modellen bedragen. De RTX 3060 Ti zou naar verluidt beschikken over een teruggeschroefde GA104-200-gpu met 4864 CUDA-cores. De hoger gepositioneerde RTX 3070 heeft een GA104-300-chip met 5888 CUDA-cores.

Volgens geruchten zou Nvidia de RTX 3060 Ti in eerste instantie op 17 november uitbrengen, maar later zou dit uitgesteld zijn tot 2 december. De videokaart krijgt naar verwachting een adviesprijs van rond de 400 dollar. De videokaart zou inmiddels naar retailers zijn verstuurd en binnenkort ook in handen van reviewers komen.

VideoCardz schrijft dat een retailer uit Saudi-Arabië de RTX 3060 Ti al lijkt te verkopen. Die webshop publiceerde onder andere een video van de Gigabyte RTX 3060 Ti-verpakkingen. De retailer in kwestie vraagt omgerekend echter zo'n 830 euro voor de videokaart en gebruikt een verkeerde foto op zijn website. Listings van de RTX 3060 Ti zijn ook bij de EEC-keuringsdienst verschenen.

Vermeende Nvidia RTX 30-line-up
Model RTX 3090 RTX 3080 Ti* RTX 3080 RTX 3070 RTX 3060 Ti*
Gpu (8nm) GA102-300 GA102-250 GA102-200 GA104-300 GA104-200
CUDA-cores 10496 10496 8704 5888 4864
Boostsnelheid 1700MHz Nnb 1710MHz 1730MHz 1665MHz
Vram 24GB GDDR6X 20GB GDDR6X 10GB GDDR6X 8GB GDDR6 8GB GDDR6
Geheugensnelheid 19,5GBit/s 19Gbit/s 19Gbit/s 14Gbit/s 14Gbit/s
Geheugenbus 384bit 320bit(?) 320bit 256bit 256bit
Bandbreedte 936GB/s 760GB/s(?) 760GB/s 448GB/s 448GB/s
Tgp 350W 320W 320W 220W 180∼200W(?)
Releasedatum 24 september Nnb 17 september 29 oktober 2 december
Adviesprijs
(Founder's Edition)
1549 euro Nnb 719 euro 519 euro Nnb

* Op basis van onbevestigde geruchten

Door Daan van Monsjou

Nieuwsredacteur

08-11-2020 • 17:31

123

Lees meer

Reacties (123)

123
118
54
3
0
27
Wijzig sortering
Hmm moet je dit nou als gamer wel willen? Zal qua prestaties rond RTX 2070 niveau zitten als de prestaties van de RTX 3070 als leidraad worden genomen met nagenoeg hetzelfde verbruik en dezelfde vanafprijs (als dat ding rond de 400 euro gaat kosten waar de rtx 2070 kaarten nu ook ongeveer beginnen volgens pricewatch).

Dit zie ik niet echt als vooruitgang: Zelfde prestaties voor dezelfde prijs bij hetzelfde energieverbruik.

Als ik in deze prijsklasse zou shoppen wachtte ik af wat AMD gaat doen of kocht ik een tweedehands RTX 2080.
3070 zit op ongeveer 2080ti niveau. Ik verwacht de 3060ti eerder op 2080S niveau.
Dan zou je dus ook die kaart kunnen kopen, want er wordt nog niet zoveel met rtx gedaan.
Zal vooral aan de prijs liggen, ik heb de prijzen niet gecheckt maar een 2080s zal nu vast nog duurder zijn dan €400.
Zeker... Arme winkeliers... De 2080 Super zit nog steeds op pak em beet €700.
Dat gaat natuurlijk nooit meer lukken, daar gaat heel wat vanaf moeten.

Voor die prijs ga je nooit meer zo'n kaart verkopen, nu al niet met de 3070 op de markt, nahjah, soort van op de markt.
Gelijk heb je. Ik stel alles uit tot volgend jaar en laat me niet (meer) gek maken door de hype.
Ja precies ik zit te twijfelen om dit ook zo te gaan doen. Echter heb ik net een nieuwe monitor gekocht (1440p/144hz/27 inch) en heb nog een trouwe gtx 970. Maar deze sprong in resolutie is toch behoorlijk zwaar voor mijn huidige kaart. Het lukt wel maar zou toch wel wat beters nu willen al helemaal aangezien de 900 serie geen G sync ondersteunt. Ergens wil ik de 2070 super of rx 5700 xt of ik wacht nog even en gebrui mijn 970....dilemma.
Ik heb ook een 970, maar gsync wordt toch gewoon ondersteund op deze kaart? Het enige dat we niet hebben is dat Gsync compatible voor freesync monitoren.

Ik zit lekker op 1440p 144hz op mijn trouwe 970 en overweeg zeker nog niet om te upgraden. Zet voor nu de settings wat lager en upgrade wel als de 3000 serie tweedehands te krijgen is :)
Ja nou ik heb niet super veel verstand van PC's maar wanneer ik dus een hogere serie zoals de 1070 of 2060 aanschaf ik pas gebruik kan maken van freesync en dn nog vloeiender ervaring heb bij gamen. En inderdaad wachten op eenn2e handsje is een slimme zet. Maar als ik bij voorbeeld naar Apex Legends kijk en die helemaal op low zet, zit ik rond de 40 fps en soms lager. En cyberpunk komt er natuurlijk aan. Keuzes! En de 6800 staat natuurlijk om de hoek maar gaat vast duurder worden dan de 3070 ben ik bang.
Het klopt dat je pas bij een hogere generatie toegang hebt tot freesync, maar als je dus nu al een duurdere GSync monitor hebt dan is dat dus niet nodig. Ik zit zelf op een ASUS MG279Q en heb dus alleen Freesync en zit dus ook met smacht te wachten op de nieuwe generatie grafische kaarten, maar ik ga er niet de hoofdprijs voor betalen, ik wacht lekker haha.

Maar sowieso is het eigenlijk slim om een paar maanden te wachten totdat alle kaarten goed op voorraad zijn, alle kaarten ook al een tijdje uit en alle prijzen een beetje 'normaal' zijn geworden. Geheid dat zodra AMD met zijn kaarten komt NVidia ofwel een prijsverlaging gaat doorvoeren of ineens stiekem allemaal super/ti versies gaat uitbrengen. Ik hoop dat als er ineens een 3070ti komt er tweakers zijn die dan hun 3070 gaan doorverkopen, en dan ga ik mijn slag slaan :)
Ik zit in hetzelfde schuitje (zelfde soort monitorspecs en zelfde kaart). Heel veel zaken gaan nog verbazend goed, het is een trouw beestje die 970, maar het wordt wel steeds lastiger en minder vloeiend dan je zou willen. Maar dat wist ik natuurlijk toen ik mijn nieuwe monitor kocht. Ik wilde eerst dit jaar een nieuwe gpu kopen, maar het is nu zo'n tsunami aan kaarten, dat ik eerst eens rustig ga kijken wat er overblijft als het introductiestof is neergedaald.
Jep zeker gelijk in. Ik sta er nog van te kijken hoelang ik deze kaart heb en wat ik allemaal.nog fatsoenlijk heb kunnen spelen. Ik heb de kaart al bijna 6 jaar denk ik nu. Ik ben maar een monitor gaan kopen, niet dat dat makkelijk is maar dan kan ik ook nog beter met documenten slepen in word voor studiegerelateerde opdrachten. Misschien dat als ik een rx5700xt of een 2070 super nog op de kop kan tikken dat ik dat wel doe. Ik heb zelfs naar een 1070ti gekeken voor tijdelijk. Maarja moet ik eerst mijn 970 verkopen en mijn monitor (staat bij mijn advertenties) om het financieel haalbaar te maken voor mij. Maar ja voor 1080p is de 970 nog steeds best prima!
Op Vraag & Aanbod kan je een 2070S voor om en nabij de 400 euro krijgen. Heb ik zelf ook gedaan, want ik wou toch wel graag Ray Tracing graphics. Ik ben zelf geupgrade van een gtx 1070.
Kijk ja klopt ik zie die prijzen ook voorbij komen. Ik zag bij Alternate ook een RX5700XT Gigabyte OC voor 350. Erg interessant maar ja ook met zo'n kaar en dan RDR2 spelen in combinatie met een 1440p scherm op high instellingen zit je net tegen de 60 fps aan. Ik zit nu gewoon te denken om door te sparen en een RX 6800/XT te kopen als het mij lukt. Maarja wel 2x zo duur maar dubbel de VRAM en waarschijnlijk dikke prestaties.
Ik zit op een 760, moet echt upgraden maar ik wacht ff tot de prijzen met black friday misschien gaan klappen..
aangezien de kaarten nu al niet leverbaar zijn vanwege productie en/vraag zal ik geen black friday acties verwachten voor een 3000 serie. 2000 serie zou nog wel kunnen al snappen de fabrikanten en winkeliers natuurlijk ook dat het aanbod 3000 serie kaarten 'zeer beperkt' is.
Ja dat is een goede inderdaad thanks! Stiekem heb je toch wel een erg goede GPU nodig om zo'n 1440p scherm op 144 hz goed tot zijn recht te laten komen. Ach ja 100 fps is al een erg mooi streven denk ik :)
Tja, dit lijkt nu inderdaad de betere tactiek. Ware het niet dat het niet echt gaat, gezien mensen die pre-orders hebben ingediend soms al tot volgend jaar moeten wachten. Ik vermoed dat zeker tot einde van het jaar de nieuwe kaarten wel lastig te verkrijgen zullen zijn. Eigenlijk net als met de 2080 en 2080Ti twee jaar geleden.

Nu moet ik zeggen, als iemand die geluk had met de 2080Ti en er binnen een maand meerdere kon aanschaffen, gevoelsmatig heb je wel vanaf dag 1 de verder goede hardware in handen. Heb er nu toch 2 volle jaren "as good as it gets" performance uit gehaald.
En uiteindelijk heb ik géén super premium opgehoogde prijzen betaald. Want vooral voor de 2080Ti was de prijs ook na 4 maanden nog erg hoog, vooral voor de wenselijke luchtkoelingsmodellen. (Heb een tweetal cheapo referentie modellen uitgerust met waterblok, nog steeds goedkoper dan b.v. de Strixx OC)

Maar zeker als je de extra performance niet nodig hebt a la minute, kan je zeker nog even afwachten. Je ziet hier nu al de reactie van Nvidia op AMD's nog niet publiekelijk gereviewde 6000 series verschijnen. Ik denk dat de prijzen nog wel zullen moeten gaan zakken in Q1 2021.
Aan de andere kant zit iedereen thuis, dus ik verwacht dat er ook wel gewoon meer vraag blijft...
Als ik in deze prijsklasse zou shoppen wachtte ik af wat AMD gaat doen of kocht ik een tweedehands RTX 2080.
Alle 2080 kaarten die op VA worden aangeboden zijn al gereserveerd, prijzen beginnen momenteel bij €459 en gaan snel omhoog. De goedkoopste 3070 die nu leverbaar is kost €679, dat is €160 boven adviesprijs (ruim 30% duurder).

Tenzij hardware nu net stuk is gegaan, zou ik lekker wachten met een nieuwe kaart aanschaffen. Juist doordat de nieuwe kaarten nog niet de markt hebben verzadigd (verre van) blijven ook de prijzen van vorige generatie videokaarten relatief hoog.
Hoe kom je nu bij een 2070? De 2060S, die door de 3060Ti wordt vervangen, is maar 3-4% trager dan een 2070. Je verwacht dus maar een sprong van 5% met de 3060Ti?

Als naar de specs kijkt dan zie je dat de 3060Ti dezelfde bandwidth heeft als de 3070 en maar 17% minder cores heeft. Ik schat dat hij dus hoogstens 15% trager gaat zijn, zal een beetje afhangen van de effectieve clocks, en gaat hij dus rond de 2080S presteren.

[Reactie gewijzigd door napata op 23 juli 2024 05:52]

Ik verwacht dat de 3060Ti rond de 2080S zal hangen, als je ziet dat de 3070 rond de 2080Ti hangt. Simpel sommetje.
Nvidia heeft zoals Intel het moeilijk. Gelukkig als consument kunnen we nu eindelijk een volwaardige concurrent kiezen. Als je tenminste niet veel geld uit wilt geven puur voor naam.

Anders moet je gewoon je Nvidia kaart blijven kopen ondanks dat het duurder is en minder snel presteert dan een AMD voor minder en sneller.
Wel wel wel ...

Niemand heeft al een onafhankelijke review van de nieuwe AMD kaarten gezien en jij weet nu al dat ze beter presteren dan de 3000 reeks? Wat is je bron voor die stelling?

En er wordt nu al gewaarschuwd voor tekorten van de aankomende AMD kaarten. Bij alle eerdere AMD-"wonderkaarten" waren er gigantische wachtrijen zelfs - van maanden (ja, ik was één van die sukkelaars). En wat denk je dat dat met de prijzen gaat doen? De AMDs zullen even goed flink boven de aangeraden prijs worden verkocht, maak je geen illusie.

Dus: in plaats van dat de consument wordt genaaid door één partij, worden we nu genaaid door twee.
Wel wel wel...

De release date van de kaarten is nog niet eens gepasseerd en jij weet nu al dat er een enorme wachtrij en verhoogde verkoopprijs zal komen voor deze 6000 reeks? Wat is je bron voor deze info? ;)

Waar je een ander loopt te verbeteren over aannames doe je in het vervolg van je reactie hetzelfde.
Misschien dat dit een beetje licht brengt in de beschikbaarheid van amd: nieuws: 'ASUS verwacht dat AMD Radeon RX 6800-gpu's bij release snel worden u...
Aangezien er al games verschijnen die 12GB vram gebruiken moet je Nvidia niet meer willen als gamer.

En dat komt van iemand die al sinds de GTX 580 bij Nvidia zit.
Gelukkig zijn de Nvidia kaarten lekker zuinig deze generatie.
3070 (en daaronder vast ook in the end) ja, maar de 3080 en 3090 hun verbruik is ronduit belachelijk.

[Reactie gewijzigd door Mizgala28 op 23 juli 2024 05:52]

Mgoh, zo zuinig vind ik deze dan toch ook weer niet. Pro memorie: de TDP van een 970 was indertijd 145 watt.
De x60 reeks:
960: 120W
1060 / 1160ti: 120W
2060: 160W

Dit dan ineens 180 / 200W? (volgens geruchten). Lijkt me beetje cheaten :)
Zoals het er nu naar uitziet is er een grote kans dat de concurrentie zuiniger is.

We gaan ze op deze manier ook niet met fatsoenlijke performance in laptops zien.

[Reactie gewijzigd door fapkonijntje op 23 juli 2024 05:52]

Welke concurrentie? Amd heeft vooralsnog niks onder de 6800 zitten die al dik over de twee verbruikt.
Als je nvidia tegenhanger van de 6800 vergelijkt in gebruik, is de AMD architectuur gewoon zuiniger.

Meestal schaalt dat vrij goed omlaag
Nvidia zit op 8nm en is echt power hungry. Dus ik twijfel sterk aan de staat van Nvidia op het moment. Het voelt een beetje als Intel's 14nm++++++++++ tijdperk.

Ik draai nu een 5700XT en ben sinds kort veel aan het video bewerken geslagen. En ik merk dat de hardware encoder een beetje zwak is. Dus ik twijfel om over te stappen op een Nvidia kaart... Maar de 30-serie vindt ik het niet echt waard.

Ik ben heel benieuwd hoe AMD 6000-serie dit gaat doen. Maar ik ben er bang voor aangezien ze er letterlijk niets over hebben gezegd.
De "8nm" van samsung is eigenlijk een rebrand van het 12nm proces, dus dat kan wel kloppen
Ik kon me dat niet meer herinneren. Maar de 30-serie van Nvidia is een matige stap t.o.v. 9- naar 10-serie om over de stap naar de 20-serie maar te zwijgen.

Het fanboys gehalte bij Nvidia is er hoog, net als bij Intel een paar jaar geleden. Maar ze doen het echt niet geweldig. Ondanks de grote voorsprong die ze hebben/hadden.
Een matige stap? Een xx70 die net zo goed presteert als het oude xx80Ti model van de vorige generatie, dat lijkt me prima. Dat het qua powerconsumptie allemaal beter kan onderschrijf ik, maar de prestaties zelf zijn een grote sprong voorwaarts.
Of zoals tweakers zelf zegt:
Kijken we naar de prestaties op 4k-resolutie met Ultra-settings, zonder tierlantijnen als RTX en DLSS, dan is de RTX 3080 gemiddeld 25 procent sneller dan de RTX 2080 Ti en zelfs 50 procent sneller dan zijn directe voorloper: de RTX 2080 Super. Ook de RTX 2070 Super wordt met 68 procent winst voorbijgestreefd.
Met RTX en DLSS mag het nog allemaal iets meer zijn.

[Reactie gewijzigd door VictorLoxley op 23 juli 2024 05:52]

Dat is minder indrukwekkend als je bedenkt dat de RTX3070 een RTX2080 was als je naar de hardware kijkt. Dat Nvidia de boel een serie naar beneden heeft geschoven doet lijken alsof de performance véél beter is geworden, maar als je daar doorheen prikt valt het allemaal wel mee.
de fps per euro nemen dan toch simpelweg toe....je krijgt dan toch meer prestaties per euro!?
Dat ontkent toch ook niemand? Wat is dat toch met discussies in reacties waarbij al die randzaken gesleurd worden die niets met de discussie te maken hebben.

Het ging om de prestaties per watt en dat er deze generatie, op de prijs na, niet echt noemenswaardige veranderingen zijn.
De 980ti = ongeveer gelijk aan de 1070. De 20-serie was gewoon erg matig en daarmee is de 30-serie dat ook.

[Reactie gewijzigd door HandheldGaming op 23 juli 2024 05:52]

Tja, fanboy'isme zal altijd bestaan: er zijn AMD fanboys die er niks van snappen, en er zijn ook (Veel) android fanboys die d'r echt helemaal niks van snappen.

Zelfde geld voor intel en nvidia fanboys.

Zelf forceert nvidia mij naar een AMD gpu (geen wayland ondersteuning op nvidia) en AMD heeft mij in staat gesteld te upgraden naar en ryzen 2700x van een a10 9700.

Maar fanboy'isme is voor mij voorbij. Ik koop gewoon het beste voor het geld, en daar blijft het bij. Nu dus Xiaomi mi 9 (custom rom), Linux, AMD gpu/cpu en een apple ipad.
Zelf forceert nvidia mij naar een AMD gpu (geen wayland ondersteuning op nvidia) en AMD heeft mij in staat gesteld te upgraden naar en ryzen 2700x van een a10 9700.
Uh, wat? Ik draai hier op mijn 2080 anders prima met Fedora op Wayland hoor, geen issues...
Ik vermoed dat jij gnome of kde gebruikt, en niet WLR_layer_shell protocol. Ik gebruik self sway. En sway werkt op basis van openGL. Sway zegt zelf heel duidelojk "nvidia is NOT supporter and there are absolutely no efforts to support it due to nvidia's weird implementation
Ik draai GNOME maar ook Sway op die machine. Ook sway draait gewoon zoals het hoort hier
Welke software gebruik je?
Nvidia heeft met zijn CUDA cores namelijk altijd een flinke voorsprong weten te boeken tov Radeon bij gebruik in Adobe software. Davince Resolve draait ook beter op Nvidia dan Radeon.

Ik ben ook erg benieuwd naar de Radeon 6000 series als het gaat om prestaties in video bewerking en rendering. Alle focus ligt momenteel helaas op gaming / FPS (wat ik ook overigens ook kan waarderen op z'n tijd).
Adobe... daarom denk ik ook aan Nvidia. Mja, ik hoop dat AMD het gewoon is vergeten te vermelden ik vind Nvidia heftig overpriced.
Ik doel meer kijkend naar de huidige 30xx generatie.

Natuurlijk waren oudere kaarten stuk zuiniger, ik heb zelf ook destijds een GTX 1060 gekocht juist omdat het zuinig was (tegenwoordig heb ik een andere GPU)
Het is niet belangrijk in combinatie met de performance dat het biedt. AMD heeft een soortgelijke jump en er zit op dit moment niks anders op. Het aantal transistoren is bijna verdubbeld, het verbruik is dat niet. Toch had Nvidia het beter aan kunnen pakken door of te undervolten of de boostclock neit zo enorm te pushen want de bosotclock in de praktijk is zo;n 300mhz en in sommige gevall 400mhz hoger dan er officieel op de spec list staat. Met een undervolt zonder snelheids verlies (dus nogsteeds 1920mhz boost) verbruik ik gemiddeld maar 260watt met de 3080RTX.
Ach, in de winter moet ik toch (electrisch) verwarmen. Dit werkt alleen maar mee.

En het is ook niet zo dat je constant op vol vermogen zit te gamen natuurlijk.
Gelukkig zijn de Nvidia kaarten lekker zuinig deze generatie.
In vergelijk met welke kaart die hetzelfde doet?

Ik snap best dat Nvidia fans dat soort posts plussen maar dat zijn echt mensen die geen cijfers kunnen vergelijken. Je kan over heel veel dingen strijden maar de laaste generatie Nvidia kaarten eten meer stroom per polygon.
€400 voor een mid-range kaart is flink. Paar jaar geleden had je daar nog een high-end kaart voor.

[Reactie gewijzigd door Wolfos op 23 juli 2024 05:52]

Maar de huidige high end kaarten vullen het gat op wat de oude SLI en CrossFire kaarten achter hebben gelaten. Net zoals die dubbele chips op een plank kaarten. Die hadden een navenant verbruik en prijskaartje en de nadelen van de techniek.

Vroeger kon je ook gewoon een rug stukslaan op je GPU configuratie om de hoogste resolutie een flinke framerate te halen. En als je op een normale resolutie (1440p) met 60 fps wilt gamen heb je ook geen 800€ GPU nodig, men wil op het moment ook gewoon álles tegelijk heb ik het idee.

Ps. Mid-end bestaat niet, dat is als tussenwoning op de hoek ;)
En als je op een normale resolutie (1440p) met 60 fps wilt gamen heb je ook geen 800€ GPU nodig
Maar lukt dat 3 jaar later nog of moet je dan iedere generatie je GPU gaan upgraden om die 60FPS te behouden?
Vast wel als je dezelfde kwaliteit van graphics aanhoudt.

Wanneer je alles standaard op standje overkill zet kan het lastig worden. Daar wordt de lat immers steeds hoger gelegd op de PC, in tegenstelling tot op een console waar men méér haalt uit een vaste configuratie.
Voor €450 had je ooit een top (highest end) kaart met dubbele gpu : de ATI HD 3870 X2.
Je kon ook benzine voor 1:03 per liter kopen en brood voor 28 cent. Alles word duurder
Die benzine kan alsnog, of kan ik in Luxemburg ook de GPU zo goedkoop krijgen?

De GPU prijzen zijn overal duur, benzineprijs eigenlijk alleen in NL...

[Reactie gewijzigd door LopendeVogel op 23 juli 2024 05:52]

Ach, een hobby mag wat kosten toch?
Als je in de 30 jaar kijkt wat chips doen van Passief gekoeld en klok schaling beperkt in de begin tijd. En met elke dieshrink werden transistors zuiniger maar de transistor density werd ook groter en de klok limiet werd ook steeds groter en vermogen groeide ook mee. Das actief gekoeld tot zeer zware koelblokken.
We komen op punt dat Chip maker gewoon grens trekt waar ATX standaard niet meer dan 300W en houd dus in dat je ver onder de maximale klok gaat zitten. Diegene de de kroon moet hebben gaat er gewoon giganties overheen totdat zelfs onstabiel wordt. Te agressieve Boostklokken.

Dus ja de komende generaties wordt groter probleem met elke dieshrink gaat de performance omhoog maar je kan dus makkelijker de 500Wat aan tikken als je dan de kroon moet hebben.

Er is nu ook probleem dat met transistor density je nu in desktop CPU heel veel core kwijt kan maar de meeste gebruiker daar niet veel mee kunnen. Er komt een tijd dat 8cores samen met degelijke GPU in een APU past en dat zelfs voor gamen op 1080P op max zat is. Consoles is voorbeeld wat nextgen APU kunnen bieden. Houd in dat moderne desktop gaat krimpen in TDP en markt je krijgt nu meer met minder vermogen. De software pushed de hardware niet meer zo sterk in de desktop.
Cloud server HPC en ultra mobiel zijn de groei markten.

Het gaat er dus nu om wie durft meeste TDP te genereren en is daarbij zuiniger dan de ander.
Gelukkig zijn de Nvidia kaarten lekker zuinig deze generatie.
Vind je? Een 1660Ti verbruikt nog geen 150W. Deze zit daar toch wel wat boven.
Je sarcasmemeter is stuk of ontbreekt geheel! Een veel gehoorde klacht is dat de performance per watt niet optimaal is voor de nieuwe generatie Nvidia video kaarten. En daar zit wel wat in als de kaarten worden gestoken in PCs die 8-16 uur per dag aan staan. Natuurlijk is idle verbruik relatief laag, maar verschillende processen gebruiken toch de GPU acceleratie, waardoor verbruik toch weer omhoog schiet... Als het echter voor een paar uurtje per dag of per week wordt gebruikt voor entertainment wordt de impact al meteen een heel stuk minder...
Wat ik vooral jammer vind is dat Nvidia deze generatie eigenlijk niet veel zinvols heeft opgeleverd. Ja de kaarten zijn betaalbaarder, want een RTX3070 is een RTX2080 enzovoorts, maar we zijn voor laptops, small form factor, etc. geen stap verder gekomen. De 3060 series is sneller geworden maar het verbruik is evenredig gestegen omdat het stiekem een 2070 is. Leuk, maar innovatief is het dus nu totaal niet en dat is wel jammer. Nieuwigheden in de 3000 series zijn dingen die de concurrentie al jaren deed, waarbij je je af kunt vragen waarom Nvidia daar nu pas mee komt.
Het antwoord op dat afvragen is simpel, het was niet nodig omdat de 'concurrentie' ze niet kon bijbenen, een beetje hetzelfde als bij Intel vs. AMD.

Daarnaast heb je natuurlijk nog het hele gehannes wat we zond de GTX10xx hebben gehad met cryptomining en dat zowel AMD als Nvidia niet de markt wilden bedelven met bergen product omdat ze doorhadden dat dit lange termijn negatieve gevolgen zou hebben. Ik vraag me af of de RTX20xx serie daar niet eigenlijk het antwoordt op was: veel duurder en eigenlijk niet zo heel spannend. Nu zit de cryptomining markt op FPGAs en is GPU mining niet zo heel erg interessant meer, wellicht weer het moment om wat tegen een 'normale' prijs neer te zetten?
Excuus. Bij geschreven tekst ontbreekt vaak een stukje intonatie. Daarnaast: er zijn genoeg fanboys waarvoor dit geen sarcasme zou zijn, maar simpelweg alternative facts.
Een sarcasmedetector? Wauw dat is eindelijk een écht nuttige uitvinding!
op 5nm zou dat wel het geval zijn
Tja, de EU gloeilampen afschaffen, en via de achterdeur worden deze dingen naar binnen gereden. Lekker handig weer.
Hopelijk dat ze hier wat meer voorraad van hebben (vrees van niet). Deze kaart zou nog wel eens de nieuwe mainstream GPU onder 1080p/1440p gamers kunnen worden, als de prijs het toelaat.
Deze kaart zou nog wel eens de nieuwe mainstream GPU onder 1080p/1440p gamers kunnen worden, als de prijs het toelaat.
zelfs als ze €400 zou kosten, dan nog is dit wéér een serieus hogere introductieprijs dan de vorige generaties:
GTX 1060: €250
RTX 2060: €350

ok de GTX 1660 zat er nog tussen met een prijs van €220, maar dat was maar een zoethoudertje en geen échte nieuwe generatie.
[...]
ok de GTX 1660 zat er nog tussen met een prijs van €220, maar dat was maar een zoethoudertje en geen échte nieuwe generatie.
Net als de RTX 2060 was de 1660 was een 12nm turning. De 1060 was een 16nm pascal ontwerp.

De laatste keer dat we een 6x Ti hadden was zo ver ik mij herinner een 660 Ti. Die was destijds 295 euro ($299 MSRP). De 1660 Ti zat op $280 dollar.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 05:52]

Turing als in Alan Turing ;) daarom dat ik hem apart vermeld, want de 16x0 kaarten zijn nà de 20x0 kaarten uitgebracht om het gapende prijssegment te vullen dat ze artificieel hebben gecreëerd door hun RTX-kaarten de markt uit te prijzen voor mainstream
De introductie prijs is leuk maar door de miners waren de kaarten ten tijden van de 1000 serie vele malen hoger.
Deze kaart vervangt de 2060S, die een prijs van €400 heeft. De 3060 zal goedkoper zijn.
Nou, die prijzen voor de 1060 heb ik echt werkelijk nog nooit gezien, want toen ik op zoek was waren ze allemaal 300+, uiteindelijk nog een RTX2060Super in de aanbieding gekocht voor 369 (vorig jaar november), en dat was dan zelfs een merk waar ik nog nooit van gehoord had en echt een barebones versie.
launch MSRP in $, 1 op 1 in € omgezet, da's zowat het enige wat objectief terug te vinden is. Wat winkels ervan maken is elk voor zich
https://en.wikipedia.org/wiki/GeForce_10_series
Ook de inflatie over die jaren meenemen, dat is het verschil al weer een stukje kleiner.
geen idee in welk land je woont, maar bij ons in België is de inflatie op 4 jaar tijd geen 60% 8)7
De kunstmatige schaarste tactiek moet je meteen afstraffen door gewoon niks te kopen.
Koop gewoon een nextgen console + Gamepass, probleem opgelost.

Tegen de tijd dat ze weer normaal kunnen doen, koop je weer een nieuwe PC.
De kunstmatige schaarste tactiek
Welke kunstmatige schaarste tactiek? De capaciteiten bij de fabrieken zijn gewoon niet toereikend, wat ook voor een deel komt door het hele corona-debakel waardoor een hoop geplande capaciteit verloren is gegaan het afgelopen half jaar. En de prijzen die winkeliers vragen, daar kan Nvidia in principe niets aan doen.
Een comparison met de rtx 2060 zou ook fijn geweest zijn
Je kunt er van uit gaan, dat de RTX3060Ti, E100,- goedkoper zal zijn dan de RTX3070. Nu alleen nog afwachten tot ze daadwerkelijk te verkrijgen zijn
Mei 2021 naar verwachting ;)
Mei 2021 naar verwachting ;)
Saudi Arabië had al een kaart online staan, maar inmiddels verwijdert.
SAR: 3699 - E 829,-
Ja... joh... maar waarom zouden ze beginnen met een 3060ti. Ik verwacht dat er eerst een 3060 komt. Denk dat die leak, lek is.
Ik wacht nog even de reviews af van de nieuwe AMD kaarten maar sowieso is de kans groot dat ik eerst een kaart van Team RED in huis haal. De manier van handelen van nVidia begint me persoonlijk nogal tegen de borst te stoten.
Wat bedoel je met 'manier van handelen'? want al die geruchten daar heeft nvidia zelf niets mee te maken, die hebben deze kaart nog steeds niet officieel aangekondigd.
Semi paper launches, custom card builders te weinig tijd geven met issues tot gevolg, model diarree van k zal je gaan hebben. Volgend jaar van 8nm naar 7. Met dan waarschijnlijk de supers en 3080TI die daaruit zullen afgeleid worden en ga zo maar even verder. Het geeft weinig vertrouwen.
Met games om de hoek die 12GB VRam gaan gebruiken neem ik liever een 6800 met 16GB.
Als deze uitkomt met een prijs van 400 of minder dan wordt het wel een mooi kaartje om met zijn 4864 cuda cores op kleine schaal neurale netwerkjes te trainen.
Nog een pauperlaunch? In december bestellen en in Maart miss ontvangen..
Bedoel je een paperlaunch?
Ik kan een beetje tegen flamen, maar spel het dan wat correct.
Het is wel een hele goedkope launchtechniek van Nvidia.
Je Kan een beetje tegen flamen? Dus een paperlaunch & een pauperlaunch, there you go.

Op dit item kan niet meer gereageerd worden.