Registratie toont komst Gigabyte GeForce RTX 3070 Ti met 16GB geheugen - update

Gigabyte heeft een registratie voor een GeForce RTX 3070 Ti-videokaart met 16GB geheugen ingediend. Dat deed het bedrijf bij de Eurasian Economic Commission. Het is niet bekend of en wanneer de videokaart wordt aangekondigd.

De registraties van Gigabyte tonen in totaal vijf verschillende videokaarten, waaronder de nog niet officieel aangekondigde RTX 3070 Ti met 16GB geheugen, merkten Twitter-gebruiker harukaze5719 en Tom's Hardware op. De huidige RTX 3070 Ti beschikt over 8GB GDDR6X-geheugen. Verdere specificaties van de mogelijke 16GB-variant zijn niet bekend.

Twitter-gebruiker Megasizegpu stelde onlangs dat de RTX 3070 Ti een GA102-gpu krijgt. De huidige RTX 3070 Ti heeft een lager gepositioneerde GA104-gpu met 6144 CUDA-cores. Er gingen vorig jaar ook al geruchten rond over een RTX 3070 Ti met 16GB geheugen, die stelden dat de videokaart in januari uit zou komen. Igor's Lab stelde later dat deze videokaart was uitgesteld naar 'later in 2022'.

Berichten over deze RTX 3070 Ti verschijnen vlak voor de komende GeForce RTX 40-serie, waarvan de eerste videokaarten op dinsdag worden gepresenteerd. Nvidia-ceo Jensen Huang stelde eerder al dat de RTX 30-serie beschikbaar blijft naast de volgende generatie, omdat er RTX 30-overschotten zijn. Gelet op deze registratie, lijkt het erop dat Nvidia en boardpartners proberen RTX 30-gpu's te verkopen door deze met meer geheugenconfiguraties aan te bieden. Eerder stelde het doorgaans goed ingelichte VideoCardz al dat Nvidia werkt aan een 8GB-versie van de RTX 3060 en een RTX 3060 Ti-variant met GDDR6X-geheugen. Die videokaarten zouden eind oktober verschijnen.

Een registratie bij de EEC garandeert niet dat het product daadwerkelijk uitkomt. Hoewel EEC-registraties in het verleden een betrouwbare bron van informatie zijn gebleken, zijn er voorheen ook gpu's geregistreerd die niet zijn uitgebracht. Vorig jaar verscheen bijvoorbeeld vroegtijdig de ASUS GeForce RTX 3070 Noctua Edition bij de EEC, die een paar maanden later officieel werd aangekondigd. Eind 2020 verschenen een GeForce RTX 3060 12GB en een RTX 3080 Ti 20GB van Nvidia bij de EEC. Die eerste werd later daadwerkelijk uitgebracht, maar de RTX 3080 Ti kwam uiteindelijk met 12GB geheugen op de markt.

Update, 9.20u: Er gingen eerder al geruchten rond over een RTX 3070 Ti met 16GB geheugen; dit is toegevoegd aan het artikel. Met dank aan HugoBoss1985.

Door Daan van Monsjou

Nieuwsredacteur

19-09-2022 • 08:28

71

Reacties (71)

Sorteer op:

Weergave:

In januari 2022 zijn er al 3070ti 16gb (GA104) eec registraties gespot.
En in 2021 kwamen er berichten/geruchten naar buiten dat de 3070ti 16gb uitgesteld werd.
De kaart is toen, volgens mij, ergens in maart 2022 "de prullenbak in gegaan".

Edit: dank @AverageNL voor het toevoegen van bovenstaande info.

nieuws: Gerucht: Nvidia stelt GeForce RTX 3070Ti 16GB en GeForce RTX 3080 12G...

Waarschijnlijk wordt het een GA102 gpu, dat staat ook in het gelinkte videocardz.com artikel.
Op deze manier kan Nvidia meer van die gpu's kwijt.
Lijkt me toch wel een interessant kaartje, als de prijs ook goed is... de rtx 3070ti is op dit moment gewoon (in verhouding) te duur.
Qua vram hoeveelheid kan Nvidia met 16gb dan concurreren met de huidige gen van AMD.
Er is weinig toekomst bestendig aan 8gb vram.

Ik ben wel benieuwd of het GDDR6 of wederom GDDR6X gaat worden.

[Reactie gewijzigd door HugoBoss1985 op 23 juli 2024 07:13]

Waarschijnlijk wordt het een GA102 gpu, dat staat ook in het gelinkte videocardz.com artikel.
Inderdaad! Ik zal dat stuk aanpassen, thanks :)
Goh. Waar zouden die overschotten toch vandaan komen?!?! Je moet er geen extra geheugen op prikken de prijs moet gewoon drastisch omlaag.

Ik ben al heel lang aan het kijken naar een 30x0 kaart maar met deze prijzen, zit het me wel gebakken.
Eens. Nu dat mining op GPU power "bijna" volledig verleden tijd is (tenminste, als je de peanuts van enkele altcoins niet mee telt), mogen de prijzen drastisch naar omlaag.

RTX3070/4070 - 399-449 euro
RTX4080 - 499-549 euro

Dit zouden de nieuwprijzen, wat mij betreft, moeten zijn voor een goede bang for buck aankoop. Helaas een utopie, vrees ik.
Desalniettemin, Nvidia zal het wel goed voelen, daar de gemiddelde gamer echt geen 600+ euro gaat betalen voor een bijna verleden generatie RTX3070. Ik stel voor dat we met zijn allen zo weinig mogelijk (dure) kaarten kopen. De prijs zal hopelijk nog wat meer zakken op termijn. Het blijft een spel van vraag en aanbod.
Denk dat je er wel minstens €100 bij op kan tellen. Gok zelf dat de RTX 4080 een MSRP van €800+ gaat krijgen.
Voor 800 euro koop ik hem meteen. hij wordt veel sneller dan de 3090ti. Met dlss gaat ie makkelijk 5 jaar mee.

Maar ik reken op 1000 euro. En 1200 voor de 16gig versie 👎
De 3080 is op dit moment 850-900 euro in de pricewatch.Die prijs wordt daar zo gehouden door NVidia door de aanvoer van die kaarten te beperken met als doel om de prijs van de 40x0 serie logisch te laten lijken. Met andere woorden, die worden denk ik flink duurder dan 1000 euro, 1400-1500 zou mij niet verrassen.
Ze doen maar. Maar dan koop ik liever een ps5.
Met de huidige crypto crash en het einde van mining. Gaan er duizenden videokaarten bijkomen op de tweedehandse markt.
Dus ik wil wel even zien of Nvidia echt zo dom is om die kaarten zo hoog in de markt te zetten.

Misschien is de nieuwe Navi kaart ook een optie voor mij.
Top performance kaarten zullen niet door mining worden weggevaagd want niks is zo snel, vandaar dat ze waarschijnlijk met de 4090 beginnen.
En dat is nog los van de economische malaise/demand destruction die op ons af komt, waarbij een nieuwe videokaart vast niet de prioriteit krijgt in het huishoudboekje.
sta jij wel stil bij de power consumptie van deze kaarten?
bij mij is het al....komt ie boven de 200 w hoef ik um niet eens.
Ik snap je noway, we moeten even door de zure appel bijten, met de huidige energie crisis. Maar ik verwacht dat dit binnen 2-3 jaar weer redelijk is.

Elk land loopt nu in paniek gas te kopen wat de prijs omhoog brengt. Ook dit zal automatisch gecorrigeerd worden als dat stopt.

Als ik Nederland was zal ik Groningen open gooien. Want dit is momenteel een noodgeval. Bedrijven lopen momenteel gevaar denk aan bakkers productie bedrijven echt nergens voor nodig.
Dat we een probleem hebben staat vast.
Maar met de huidige tech....wordt het kleiner en meer power? zie dat liever anders kleiner en beter met minder stroom verbruik.
Kijk zelf draai ik met de 1070ti op 1080 prima gamen daar mee.

Zoals ik zeg.....De vid kaarten worden stroomvreters

[Reactie gewijzigd door noway op 23 juli 2024 07:13]

Oh zo. 🤷 maar dan koop je tog gewoon een 4060 ofzo ? Want dan heb je ongelooflijk veel power met redelijke stroomverbruik in vergelijken met vorige generatie.

Je kan hem altijd nog undervolten om jouw persoonlijke sweetspot te vinden. 👍
Dan ga je ervan uit dat de kaart dat continu verbruikt maar dat is niet zo. Idle zal zo'n kaart rond de 15 a 20 watt zitten en alleen als je gamed zal de kaart meer gebruiken. Ik heb zelf een 6900XT maar die komt niet boven de 250 watt uit tijdens het gamen op 4k @ 120 hz. Met een kleine undervolt en het beperken van de max fps daalt het verbruik enorm zonder dat je dit echt terug ziet in games.
Zo'n 3070 komt niet eens in de buurt qua performance van een 6900XT dus die krijg je waarschijnlijk dik onder de 200 watt met een klein beetje tweaken.
Heb je jouw 6900XT ook een undervolt gegeven dan?
Mijn 6900XT Red Devil gebruikt met gamen op 4k wel snel 300-400 watt, is niet niks.
Dat heb ik al als een kaart boven de 100 watt komt, sterker nog pas overgegaan op een ryzen apu zonder dedicated gpu, beetje undervolted, 20 watt piek belasting voor de cpu en gpu, speel toch enkel grafisch simpele spelletjes.
RTX4080 - 499-549 euro

Ja, als er geen inflatie, duurdere onderdelen, energie crisis en zwakkere euro was...misschien
Zelfs de 980 was al boven de 500 euro. Het is een utopie te verwachten dat een XX80 serie kaart nog ooit onder of op de 500 euro uit komt.

Op zich zit Nvidia wel in een lastig parket. Er zijn veel argumenten te bedenken voor een lagere MSRP. Economische crisis, mining zit in een enorme dip, ze hebben flink wat wafers ingekocht en er zijn veel tweedehands kaarten in omloop die de vraag naar nieuwe kaarten drukken. Aan de andere kant heeft Nvidia zelf ook nog veel "oude" kaarten waarmee ze niet willen concurreren dus kunnen ze de nieuwe kaarten niet op eenzelfde prijzen zetten als de oude. De N5 wafers zijn veel duurder en zowat alle materialen en componenten van GPU's zijn duurder geworden wat er voor zorgt dat als ze hoge marges willen behouden de prijzen ook omhoog moeten.
Aandelen zijn in een jaar tijd gekelderd van 330 USD naar 130USD.
Nuff said...

Jensen doet er nu alles aan om shareholder value omhoog te trekken, dus de 30 serie zo duur mogelijk te verkopen en de 40 serie er als "premium" tussen te zetten. Dat is niet perse gunstig voor de gemiddelde gamer of prijs van de kaarten.
N4 bedoel je, nog duurder. :*)

Maar gelukkig voor ons heeft Nvidia een mega order lopen bij TSMC. Want ze dachten waarschijnlijk dat de mining markt wel even doorging .
Ze mogen van mij hoog inzetten met hun nieuwe 4000 serie. Maar ik wacht wel even tot ze het licht gaan zien. En ze erachter komen dat 1500 euro geen normaal bedrag is voor een videokaart.
1080 : 750
2080 : 950
3080 : 850
4080 : 550

Rarara wat klopt hier niet?
Zelfs zonder alles wat je opsomt was 550 nooit mogelijk geweest .
En dan hebben we het nog niet gehad dat AIB partners nu al klagen over de prijzen van de Founder's Edition-kaarten. Die zijn volgens hen VEEL te goedkoop. Dat voorspelt in mijn ogen niet veel goeds voor de prijsontwikkeling van deze producten.
Probleem is dat de onderdelen van de videokaart duurder worden. Stroomverbruik gaat omhoog waardoor er ook betere componenten op gemonteerd moeten worden. Er is veel vraag naar productie dus de fabrieken gaan ook hun prijzen omhoog gooien, zo blijft de prijs stijgen. Uiteraard zijn er nog andere dingen die bijdragen aan de prijzen en ook worden sommige onderdelen goedkoper. Zo lang er vraag (en geld) blijft naar die high end kaarten (winkels verkochten effectief 3080's aan 1500+) gaan de prijzen niet snel dalen.
Er is veel vraag naar productie dus de fabrieken gaan ook hun prijzen omhoog gooien, zo blijft de prijs stijgen.
De vraag naar productie is juist heel erg ingezakt. Nvidia heeft echter een heel duur en groot productiecontract afgesloten met TSMC, waardoor ze straks een probleem hebben.
De halffabrikaten die videokaart fabrikanten gebruiken mogen dan wel duurder zijn geworden (en andere supply-chain onderdelen), de prijs was al eerder heel hoog puur door marktwerking (schaarste dus). Maar als men nog steeds de prijs-filosofie hanteert "wat de gek ervoor wil geven" dan blijven de prijzen helaas nog steeds hoog... totdat de vraag echt inzakt.
Klopt, en ben dan ook blij dat de vraag eindelijk inzakt en prijzen richting of zelfs onder MSRP duiken. Waar ik met mijn bericht eerder op doel is de kostprijs van de totale chain die omhoog gaat (inflatie) waardoor ook het uiteindelijke product duurder zal worden. Lonen gaan omhoog, brandstoffen voor transport omhoog, grondstoffen worden duurder,... De uiteindelijke prijs van het product zal daar ook bij volgen. Ik denk dus niet dat de komende 4080 ver onder de 1000 euro MSRP gaat komen.
Hoewel ik die prijs ook verwacht (maar eerder door de zwakke euro) moet je je toch wel realiseren dat een 3080 voor enorm veel marge wordt verkocht dus afhankelijk van vraag/aanbod kan Nvidia echt wel de prijzen laten zakken om zo meer kaarten te verkopen.

Je kan wel 1000€ vragen voor een 4080 maar als je er zo niet genoeg van verkoopt dan zit je wel met een probleem.
500 voor een 4080...

Met de huidige inflatie hebben we mazzel dat de msrp weer 'maar' 700 lijkt te worden zoals de 2080 en 3080 ook waren.
Stemmen met je portemonnee is het enige wat werkt. Ik koop al een jaar of 10 enkel nog tweedehands videokaarten van enkele jaren oud (maar speel ook op 1080p60, dus dan heb je al snel genoeg power).
Men denkt dat de prijzen van GPU's altijd zo hoog waren vanwege mining, maar dat is echt niet waar. De kosten om zo'n kaart te maken zijn ook in de loop van de tijd behoorlijk gestegen, steeds maar kleiner en meer transistoren maakt het er echt niet goedkoper op, ja over 2 generaties is de technologie van de huidige generatie wel een stuk goedkoper, maar nieuwe technologie kost gewoon steeds meer om te produceren. Naast natuurlijk de hoge inflatie van de afgelopen jaren.
Dit is dromen, gpu's worden al jaren duurder en de markt verbreed.

Op 1080p gamen kan tegenwoordig prima met een 3060.
Ik game zelf al jaren op 1440p en de gtx1080 koste mij ook 600 euro en dit was voor de hele mining craze.
Daarnaast zijn gpu's multipurpose geworden met rtx en cuda etc de core is 2,5 keer zo groot geworden.

Nee hoor de aankomende generatie gaat gewoon duurder worden, wat ik me wel afvraag is of we niet een serie ernaast gaan krijgen zonder rtx en cuda etc.

Net zoals de 1660 naast de 20X0 serie kwam.
Op marktplaats heb je soms geluk dat je een 3070 voor <400 kunt ophalen. 2 maandjes geleden dat geluk gehad, GPU werkt prima!
Ik zie de nieuwprijzen op marktplaats voor de 3060's al onder de tweedehands prijs schieten.
Mensen zijn gek...
Soms zit er een realistische verkoper tussen, maar moet je wel net geluk hebben zoals ik al zei.
Nog eventjes geduld hebben. Ethereum kan niet meer gemined worden. De markt wordt binnenkort overspoeld met 2e hands kaarten voor een leuke prijs.

Kort daarna verwacht ik dat de nieuw prijs van de 3x kaarten ook zullen dalen.
Nog eventjes geduld hebben. Ethereum kan niet meer gemined worden. De markt wordt binnenkort overspoeld met 2e hands kaarten voor een leuke prijs.
Afgezien van het feit dat Ethereum niet de enige PoW coin was, vraag ik me af of je zulke kaarten moet willen kopen.

Ervaren miners zullen 'm underclocken voor efficiëntie om de stroomrekening te drukken, dus je moet 'm sowieso flashen om 'm weer normaal te krijgen. Ook kan je er vanuit gaan dat je de thermal paste moet vervangen.

De échte problemen beginnen pas als je een kaart van een onervaren miner koopt, die zal de kaart continu op z'n thermische limiet laten lopen met als gevolg dat de VRAM beschadigd en voor artifacts gaat zorgen.

Succes om uit te vogelen hoe de miner met de kaart is omgesprongen. Dat lukt je niet.

(bron)
Meeste hardware vinden het juist fijn om op 1 temp te blijven.
Het is het koud worden en dan weer heet worden dat schadelijk is, en dat is bij mining juist niet het geval.

Ik denk om deze reden dat het wel meevalt.
Ik denk dat een overgeklokte gamer GPU dat met met een verhoogde voltage heeft gedraaid een gevaarlijkere koop is.

[Reactie gewijzigd door whiner op 23 juli 2024 07:13]

Meeste hardware vinden het juist fijn om op 1 temp te blijven.
Het is het koud worden en dan weer heet wordt dat schadelijk is, en dat is bij mining juist niet het geval.

Ik denk om deze reden dat het wel meevalt.
Ik denk dat een overgeklokte gamer GPU dat met met een verhoogde voltage heeft gedraaid een gevaarlijkere koop is.
Dat is letterlijk wat er in het artikel staat wat ik aanhaal, en dan nu het punt wat ik daadwerkelijk maak:
De échte problemen beginnen pas als je een kaart van een onervaren miner koopt, die zal de kaart continu op z'n thermische limiet laten lopen met als gevolg dat de VRAM beschadigd en voor artifacts gaat zorgen.

Succes om uit te vogelen hoe de miner met de kaart is omgesprongen. Dat lukt je niet.

[Reactie gewijzigd door nst6ldr op 23 juli 2024 07:13]

Mee eens dat navragen niet voldoende zekerheid biedt. Maar feitelijk is dit probleem aanwezig bij alle 2e hands produkten (=geen garantie en mogelijk opgebruikt / slecht behandeld). Als de prijs navenant laag genoeg is, dan is het toch wel te doen?
Ze gaan gewoon andere dingen minen ligt echt niet alleen aan ethereum hoor :p
Met huidige stroom prijzen in de wereld is geen een coin winstgevend. Kijkje op eBay en je ziet duizenden 30 serie kaarten te koop. De prijzen gaan nu echt hard naar beneden.
@Silence

Ze zijn inderdaad andere coins gaan minen, maar de moeilijkheidsgraad past zich automatisch aan het aantal miners aan. Het gevolg is dat geen enkele munt die met een GPU gemined kan worden nog winstgevend is.

Alleen Ethereum had voldoende marktwaarde om een gigantische hoeveelheid rekenkracht rendabel te kunnen laten minen.
Zelfde met velen hier op tweakers. En dan vooral van handelaren.
Hier precies hetzelfde, gigabyte 3070 oc op de kop getikt voor 400 euro, ik gok erop dat de nieuwe series vele malen duurder worden en meer stroom gaan gebruiken.

En aangezien ik voor een xx70 serie niet meer dan 450 euro wil betalen gaat de 40 serie het niet worden.

Heb de bon erbij met nog 2 jaar garantie dus ik vind het wel mooi.
extra geheugen is anders wel welkom, een 3070ti met 16gb is mooi voor AI / ML werk.
Hier hetzelfde, ik wacht wel tot de RTX 4070, de 3070Ti is echt te duur en voor de twee jaar oude 3080 willen fabrikanten nog steeds meer dan 800 euro hebben, terwijl de 4080 praktisch voor de deur staat. Nou maar hopen dat de ouwe trouwe 1070 het nog een half jaartje volhoudt.
Maakt meer geheugen op een slomere chip nu zoveel FPS uit? Misschien op 4 of 8k maar daar is deze core toch te sloom voor?!
Je zou met de originele 3070ti prima Doom Eternal op 4k met alles maximaal kunnen spelen... maar de hoeveelheid vram is niet toereikend.
Ik dacht zelfs dat een 3060 12gb het in dat geval beter doet en ik ben even de bewuste video aan het opzoeken ;)

Edit: het ging om de 3070 (non-ti) maar kijk hier even naar: https://www.youtube.com/watch?v=igPvgb-uGyo
Kijk op 4:45 ;)
En het is qua FPS dus ook meer dan prima speelbaar op 4k met deze settings, op een 3060 :P

Er is voor beide kaarten wel DLSS gebruikt.

[Reactie gewijzigd door HugoBoss1985 op 23 juli 2024 07:13]

Nee, TOTDAT je geheugen te kort komt. Dan word het ineens een stotterfestijn.
Dat had ik met een AMD Fury X. 4GB geheugen. Op zich prima kaart, totdat je geheugengrootte een bottleneck word. En nu met een 5120*1440 monitor is 4GB gewoon te weinig. 8GB regelmatig ook. 12GB zit je meestal wel goed, maar zit nu een 6800XT met 16GB in. Geeft gewoon lucht genoeg op dit ogenblik.

Verwacht daar ook niet zoveel verandering zolang er geen nieuwe generatie consoles komt. En dat duurt nog wel een paar jaar.
Op 4k kom je met een 3070 bijv. niet verder dan high qua textures, zonder over je vram te gaan.
Terwijl je hem op high gewoon 60+ fps draait.
is helemaal spel afhankelijk...

wat ik speel met een GTX1080 op 4k resolutie gaat er door op 60Hz.
Je hebt gelijk, ik zie ook nu pas dat ik er vergeten ben Forza Horizon bij te zetten. Daarin loop ik nu tegen dat probleem aan als ik de texturen hoger dan High wil zetten.
GA102 met 16GB? Die hadden ze ook kunnen marketen als een 3080. Ik denk dat de keuze voor de 3070 naam opzettelijk is, om een lagere prijs te kunnen vragen.

Waarom zou NVIdia dat willen? Simpel: omdat de prijs van deze nieuwe 3070 vergeleken gaat worden met de toekomstige 4070. Hadden ze'm nu 3080 genoemd, dan was de prijs vergeleken met de nieuwe 4080. NVidia wil goede prijzen voor de 40x0 serie, en tegelijkertijd van de GA102's af, dus dan is zo'n tactische rename een redelijke optie.

Het zou ook best kunnen dat ze'm officieel een wat lagere clock geven, alweer om dezelfde reden (rechtvaardigen van een dump-prijs). Dat zou dus ook gepaard kunnen gaan met een lager verbruik, afgedwongen door een enkele 8 pins connector (max 225W)
Dat ligt aan het aantal shaders, de 3060 GA104 heeft 58% van het max aantal shaders op de chip, voor de GA102 zou dit neer komen op 0.58*10752=6272 ie vergelijkbaar met 3070TI en duidelijk onder 3080.
Waarom zou je maar 58% van de shaders gebruiken? Inmiddels is het proces volwassen en zullen de yields hoger liggen. Er zal niet veel in de 50-60% yield-bin belanden.
Beetje mosterd na de maaltijd deze kaart. De 2070super werd sneller geïntroduceerd binnen die generatie. De 4000 serie zit er begin volgend jaar ook al aan te komen.
Klopt, maar ik denk dat het komt omdat de 3070 ti gewoon veel overschot is en ze steeds met een update van een kaart toch even net wat meer verkopen ^^
Waar... maar voordat de 4070 in de winkels ligt is het waarschijnlijk weer zomer. En zo veel werk is het nu ook weer niet een bestaande chip te handicappen op het gewenste aantal cores voor dat prijspunt. Aan de standard praktijk van een aantal cores uitschakelen kun je ook zien hoeveel rek er eigenlijk zit in de videochipprijzen. In het begin zijn de yields nog te laag, erna worden gewoon zoveel cores uitgeschakeld dat de klanten maximaal uitgemlken kunnen worden.
Extra geheugen toevoegen aan de GPU is onderhevig aan de wet van de afnemende meeropbrengst. Vanaf een bepaald niveau zwakt de curve enorm af, wat je terugvindt in de praktijktesten. De beperking zit in de bandbreedte van de databus.
Nu de geheugenprijzen opnieuw gezakt zijn hebben de marketingafdelingen een manier gevonden om van hun 3070-voorraden af te geraken en die ook nog eens als een nieuw product voor te stellen door uit te pakken met 16 GB.
Ik betwijfel heel sterk of er interesse zal bestaan voor die kaarten, en of deze in een praktijktest een noemenswaardige vooruitgang betekenen t.o.v. de 8 GB-modellen, tenzij ze uitsluitend bedoeld zijn voor bitcoin-mining.
Toch mooi om te zien dat Nvidia zich in allerlei bochten wringt om maar die 3000 serie weg te werken, hopelijk trappen er niet teveel mensen in en worden ze vanzelf genoodzaakt de prijs drastisch te verlagen..... zodat wij dan een leuk 3000 kaartje kunnen scoren voor een echt goede prijs :)
Mooi op tijd voor GTA VI :+
Die komt pas op zijn vroegst over 2 jaar, dus tegen die tijd is de 50xx lijn wel uit. maargoed, over 2 jaar komt pas de console versie uit, en dan mag je waarschijnlijk nog een jaartje wachten voor de PC versie uit komt.
Ik twijfel nu om een Nvidia of Amd kaart te halen..

6800xt is aardig gezakt in de prijslijst. Maar heeft AMD nog stabiliteitsproblemen? Driver issues?
Maar heeft AMD nog stabiliteitsproblemen? Driver issues?
Nee?
Mijn 6900XT is stabieler dan de twee 3070's die ik heb gehad.
Mag ik weten om welke het gaat? Red devil? sapphire?
De Reference kaart direct van AMD
Een 8GB videokaart aan 6/700 euro is een slechte koop. Helaas heb ik dit zelf te laat ingezien. Nadat ik onlangs een 3070 aanschafte met 8GB VRAM liep ik al heel snel tegen limitaties aan. Bijvoorbeeld bij Forza Horizon 5 kan ik de details niet maximaal zetten omdat ik anders waarschuwing krijg ivm het VRAM dat vol loopt en uiteindelijk treden er dan render artifacts op. Een twee voorbeeld is Stable Diffusion: dit kreeg ik niet aan de praat met standaard instellingen omdat VRAM vol zat...

Achteraf bekeken had ik toch voor 12/16GB moeten gaan maarja :-)
Een jaar geleden verklaarde men hier me nog voor gek dat ik mensen aanraadde om minimaal voor 8GB aan VRAM te gaan, want "geen spel zou dat nodig hebben". Nog geen jaar later is het een minimum vereiste aan het worden.

Op dit item kan niet meer gereageerd worden.