Gerucht: 12GB-variant RTX 3060 blijft bestaan, Nvidia wil prijs laten zakken

De productie van de Nvidia GeForce RTX 3060 met 12GB geheugen zal aanhouden tot en met het eerste kwartaal van 2024. Dat wordt gesuggereerd op de website Chinese Board Channels. Volgens leden van het forum wil Nvidia de prijs van deze videokaart ook laten zakken.

Het is volgens de forumleden van Board Channels nog niet zeker dat de videokaart ook tijdens het tweede kwartaal van 2024 geproduceerd zal worden. Dat hangt naar verluidt af van de populariteit van de videokaart bij de klanten. Nvidia zou ook plannen hebben om de adviesprijs van de RTX 3060 te laten zakken, zodat de gpu voor minder dan 282 dollar over de toonbank kan gaan.

Het is niet duidelijk of de productie van de RTX 3060 Ti met 8GB geheugen blijft doorgaan. Eerder dit jaar verschenen er immers geruchten dat de productie van deze kaart tot een einde zou komen. Nvidia heeft nog niet officieel gereageerd op de geruchten. De RTX 3060 is in januari 2021 aangekondigd en kreeg bij de introductie een adviesprijs van 329 dollar.

Lenovo NVIDIA GeForce RTX 3060

Door Jay Stout

Redacteur

02-12-2023 • 12:59

71

Reacties (71)

71
70
35
0
0
24
Wijzig sortering
Blijft een interessante kaart tot de 50 series uit is denk ik zo. Behalve frame gen heb je alle nieuwste features eigenlijk, en 12GB geheugen maakt 'm voor professioneel gebruik geschikter dan de meeste alternatieven.

[Reactie gewijzigd door Wolfos op 22 juli 2024 19:00]

Ik dacht dat frame generation en de nieuwste DLSS versie alleen voor de 4000 serie beschikbaar was?
Dlss 3.5 bedoel je? Dat is ray reconstruction, en dat werkt ook op de 3000 serie videokaarten.

Bronnetje, onder in het artikel:
https://www.nvidia.com/en...s-3-5-ray-reconstruction/

Frame gen werkt helaas wel alleen maar op de 4000 serie.
Frame gen heeft mijn heeft mijn 3060RTX 12GB iig niet.
Even verduidelijkt.
Dus alles behalve framegen heeft ie :).

Dlss 2 / 3.0 / 3.5 is verwarrend.
Maar het bestaat uit upscaling , framegen en ray reconstruction . Alleen framegen is 4000 only , de rest is 2000+
Nou toch ook weer niet. Het is jammer dat er weinig concurrentie is. Maar een 30 serie kaart met 96GB ram zou echt super nuttig zijn. Het hoeft niet eens state of the art geheugen te zijn. Als het maar minimaal 96 is.
Hopelijk komt er wat meer concurrentie.
Waarvoor heb je 96GB nodig???
Grote AI modellen op draaien en 3D rendering. Dat zijn de dingen die even snel in mij opkomen. AI modellen moet je in principe altijd volledig in VRAM laden wil je ook maar uberhaupt een beetje bruikbare responstijd hebben. Voor 3D rendering "accelerate" (daar zijn dan eigenlijk accelerator en workkaarten voor uitgevonden, maar die zijn vreseljik duur) het best de tijd dat het duurt om iets te renderen.

Op zich zou consumentenkaarten met 96GB voor een lagere prijs niet zo gek zijn. Het zou wel gek zijn voor Nvidia om dit te doen, want dan zullen bedrijven deze verkiezen boven hun accelerator/workstationkaarten met extra support. Want als de prijs al snel 50% lager is dan zullen ze liever die consumentenkaarten nemen zonder support, en dan verliest Nvidia veel inkomsten uit workstation marges.

[Reactie gewijzigd door MrFax op 22 juli 2024 19:00]

Op zich zou consumentenkaarten met 96GB voor een lagere prijs niet zo gek zijn.
Kaarten zoals de H100 gebruiken andere ram chips dan consumentenkaarten.
Dat soort chips drijft de prijs flink op naast de enorme chipgrootte van de GPU zelf.
Een kaart van $30,000 zal heus geen $200 kosten om in elkaar te zetten.
Nee, ik gok eerder eer eurootje (dollartje?) of twee duizend, al gaat er ook een bedrag van ~$3320 rond.
dus nog steeds bijna 1000% marge :)
Mwah. BOM is natuurlijk niet het gehele plaatje. R&D, software, support en logistics komen ook nog om de hoek kijken.

Maar dikke marge zal het zeker zijn.
Waarom huur je dan geen ruimte in bijvoorbeeld azure?

Dat is vaak een stuk goedkoper als je het niet constand nodig hebt.

En alsnje het wel constand nodig hebt is de uitgave ook goed gezien je dus een bedrijf bent met een product.
Woflos had het over professioneel gebruik en de kaart die Guru Evi daarvoor quote is exact daarvoor bedoeld, alleen wil hij ze waarschijnlijk on the cheap en niet de prijs van professionele hardware betalen.
Hangt ook af van je professionele gebruik natuurlijk. ML modellen vreten geheugen, maar voor 3D rendering, video editing, game development, etc kan je met 12GB al heel veel.

Quadro kaarten zijn bedoelt voor professioneel gebruik maar voor de meeste toepassingen is Geforce minstens net zo goed.
12GB is ook wel fijn voor het lokaal kunnen genereren van (ai modellen) text2img, img2img en img2video zoals Stable Diffusion XL en Turbo. Deze zijn gratis lokaal te draaien voor eigen gebruik, ook icm upscaling technieken. Met 12 heb je meer mogelijkheden en gaat dit alles een stuk vlotter dan met 8 of 6 Gb.

Met ComfyUI is het redelijk eenvoudig te installeren en in te stellen:
https://github.com/comfyanonymous/ComfyUI
Volgens mij zouden mensen graag een GPU kopen met veel VRAM. Voor AI modellen zou je bijvoorbeeld twee RTX A6000 (48GB, ~€5000 per stuk) met nvlink kunnen koppelen, dan heb je hopelijk samen 96GB VRAM. Duur maar veel goedkoper dan de H100 SXM5 (het 80GB model was al €35.000). Maar gok dat veel mensen liever een enkele goedkopere consumenten kaart met 96GB VRAM kopen.
En nutteloos voor 3D rendering gezien men daar geen memory kan stacken met aparte scene data. Elke GPU heeft de volledige scenedata nodig om accuraat het licht te kunnen berekenen per pixel.
Maar kun je daar dan niet odd/even rendering doen met twee kaarten?

Daarmee deel je dan effectief je rendertijd door de helft. Deden ze vroeger ook met crossfire.
Wat @keejoz zegt, is dat beide kaarten het volledige model in geheugen moeten hebben zitten in dat geval. Om een oneven pixel te berekenen heb je alle scene data nodig, en om een even pixel te berekenen ook. Je spreidt wel de load van het berekenen, maar niet het geheugen, dat moet je twee keer opslaan.
Ooh tuurlijk. Op die manier “Scene data”.
Zoals de H100 SXM5 96 GB?
Waarom 96. Is 94 net te weinig?
Vanwege adressering werken we bij geheugens nog steeds met twee-machten. 64 + 32 = 96. En ik vermoed dat GiB bedoelt wordt in plaats van GB.

Helaas gebruiken we voor geheugen nog steeds base-1024, wat een probleem wordt als je het over data structuren in geheugen gaat hebben - want dan moet je je gaan afvragen welk geheugen.
(V)RAM chips komen nog steeds in machten van 2 omwille van adressering. 96 is dan wel geen macht van 2, maar het zijn bijvoorbeeld wel 6 chips van 16GB.

Een reden waarom we dat niet zullen zien op een 3000 of 4000 series kaarten is simpelweg omdat GDDR6X niet in die sizes bestaat (2GB max?) en de gpu niet zoveel (48?) chips kan aansturen. (noch los van het feit dat een PCB met 48 geheugen chips met dergelijke snelheden euh... een hele uitdaging wordt) .

H100 ed ondersteunen (het veel duurdere) HBM3, dat wél in bijv 16GB chips bestaat. Daar betaal je dan ook ruim voor.

Disclaimer: ik heb me vast ergens vergist in maximale capaciteiten ofzo :P

[Reactie gewijzigd door the_stickie op 22 juli 2024 19:00]

Als ik kijk naar pakweg de 4090, dan zou je HEEL misschien 16 chips er rond kunnen plaatsen zonder dat je performance verliest. Dus als je er 48 rond wilt plaatsen moet je twee lagen diep gaan en ook de hoeken opvullen. Probleem is dat die buitenste chips een pak trager zullen zijn door de grotere afstand naar de chip. Dus dan zit je in feite met 3 niveaus van latency: de 20 vlak naast de chip, de 24 die vlak daarachter zitten en de 4 chips in de hoeken. Ik weet niet of een GPU daarmee overweg kan.
Ja of het geheel dusdanig maken dat de binnenste chips langere paden hebben zodat het dezelfde latency krijgt als de buitenste ring.

Dus iets hogere latency tov tiering.
Zelf als de toegenomen latency niet echt een probleem zou zijn (wat het waarschijnlijk wel is) en de gpu het zou ondersteunen, zit je wellicht nog met pcb's met teveel lagen omwille van routing, teveel via's waar de gpu zelf zit en bovenal dikke problemen om 'signal integrity' te waarborgen.

Als het doenbaar en betaalbaar zou zijn, zouden we imo al lang 4000 series hebben met veel meer geheugen. De fabrikant die het klaarspeelt zou de hele AI kaart markt overrompelen!
Nee absoluut, maar als we dan ergens een concessie zouden moeten doen is dat het ws. Want met drie verschillende latency tiers gaan werken is ook vragen om extra complexiteit.
Voor de Ampere (30xx) serie hebben ze daarvoor natuurlijk de A100 kaarten met 80GB RAM. Die datacentrum modellen verkopen ze tegen spectaculaire marges en ik verwacht niet dat ze heel veel zin gaan hebben om dat te gaan canibaliseren. Misschien dat AMD of Intel nog een keer zin heeft om daar een consumentenmodel tegenover te gaan zetten voor de AI fanaten.
Het verbruik ligt wel aanzienlijk hoger tegenover de Lovelace kaarten. Zo verbruikt de 3060 gemiddeld zo'n 185W tijdens gamen, de 4060 zit rond de 125W. Deze kaart presteert tevens zo'n ~18% beter dan de 3060.
Daarom moet de prijs ook omlaag, want die schelen maar een paar tientjes.
verbruik hangt 100% af van je systeem configuratie en settings. Dat gemiddelde kan je dus maar beter met een korrel zout nemen. Wel zal het zo zijn dat de 4060 in eenzelfde test bench gemiddeld minder zal verbruiken ;)

als voorbeeld mijn beide 6800XT komen amper over de 200W gemiddeld en die staan op een 1440p setup met hoog-ultra settings. En die kaarten draaien rondjes kwa performance tov een 3060.
Frame gen valt tegen gezien het input lag toevoegt(frame time) welke zeer goed merkbaar is, DLSS is dan wel weer nice, frame time is er een onderdeel van maar deze kan je uitzetten.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 19:00]

Plus dat de rtx4060 nauwlijks sneller is voor meer geld.
Veel zuiniger, dat is voor mij belangrijk. Snap niet dat mensen alleen naar prestaties kijken.
By comparing its benchmark score to its power consumption, we get an efficiency score of 92.4. RTX 3060's efficiency score is 51.4, 79.8% lower, making RTX 4060 the smarter choice in terms of power consumption. When considering value for money, RTX 4060 offers a better deal than, GeForce RTX 3060 by 23.3%.
Snap niet dat mensen nog steeds zeuren over zuinigheid wanneer de de nieuwste kaarten telkens zuiniger dan ooit zijn.
Mensen kijken daar ook naar, enkel in dit geval had ik het over de performance.

Veel zuiniger valt ook reuze mee, het scheelt 50 watt.
(...) Veel zuiniger valt ook reuze mee, het scheelt 50 watt.
De 4060 levert 18% betere prestaties en is 33% zuiniger, aldus @MadDogMcCree. Dat is een behoorlijke hap minder stroomverbruik en dat merk je onderaan de streep echt wel in je portemonnee.
Ik game 1-2 uur per dag, dus dat zou 5-10 euro per jaar schelen. Niet echt een behoorlijke hap dus.
Die 'behoorlijke hap minder' ging om het stroomverbruik. En als je in jouw geval daarmee 5 tot 10 euro bespaart, is mijn stelling dat je dat in je portemonnee merkt dus waar.

Voor mensen die meer gamen dan jij, is de besparing groter. Dat scheelt op jaarbasis grof gezegd de prijs van een premium gametitel - en misschien wel meerdere als ze tijdens een sale gekocht worden.
Lijkt me nogal logisch dat het voor mensen die meer dan mij gamen de besparing groter wordt, en voor mensen die minder als mij gamen is de besparing kleiner, wat een observatie zeg.
Nu weet ik niet of 5-10 Euro per jaar een bedrag is dat je écht merkt, maar elke Euro is er wel een, ja. Mensen die méér gamen hebben vast ook geen xx60 (Ti) in de pc zitten...

[Reactie gewijzigd door CH4OS op 22 juli 2024 19:00]

Bij een apparaat wat ik gebruik voor gamen waar ik energie slurp ga ik niet kijken naar het wattage.

Mijn hele setup draai ik op een oled + 6 hue sync lampen, sync box. Rgb keyboard en muis.

Vind ikzelf nogal hypocriet als ik dan op mijn vid kaart ga kijken naar het wattage.
Ik kijk persoonlijk zeker wel naar het verbruik. Bij mij draait er niks zonder expliciet doel.
Maar je moet anderzijds toch echt wel serieus uren boeken om een verschil van pak hem beet 50 watt per speeluur terug te zien in je energienota.
Dus als je een goede deal krijgt op een 30 serie zou ik me zeker niet zomaar laten tegenhouden door het hogere verbruik. Zeker niet in de lagere kaartsegmenten. Want die hogere prijs compenseer je echt niet zomaar 1,2,3 even met je verminderde energieverbuik.

[Reactie gewijzigd door Polderviking op 22 juli 2024 19:00]

Als je eigen AI model wilt draaien die wat groter zijn, is een 12 gb kaart zeker fijn. Volgens mij is zo'n 3060 daarvoor prima geschikt als instap voor CUDA. Hopelijk houden ze deze nog even aan.

[Reactie gewijzigd door Theswitch op 22 juli 2024 19:00]

Je kunt tegenwoordig al goedkopere Quadro van die generatie op de kop tikken met lager verbruik, meer geheugen en meer AI cores.

Professioneel gaat iedereen naar de Lovelace architectuur die sneller is voor zulke taken en de eerste computers met de RTX8000 zijn oud genoeg om al in de recyclage terecht te komen.
Bedoel je de Quattro K1? Die komt toch uit 2014?
De RTX4000-8000 of een A40/A100, die zijn al een paar jaar beschikbaar, ook gebaseerd op dezelfde chip dan de RTX30 gaming kasten en bedrijven die machines elke 3-5 jaar vervangen of andere systemen die deels stuk zijn komen nu langzaam aan in het tweedehandscircuit via recyleerders.

Als je met AI wilt spelen, kun je een RTX4000 al voor 3-400 euro of een RTX8000 heeft 48G en gaat rond de 2500 euro op eBay, minder verbruik en meer geheugen dan hun gaming tegenhangers en kost ook geen 10-25k (Lovelace).

[Reactie gewijzigd door Guru Evi op 22 juli 2024 19:00]

Een RTX 4000 heeft slechts 8GB geheugen, en een RTX 8000 kost een grootorde meer. Ik snap je advies niet goed.

Als instapkaart gaan de meeste mensen geen 2500 euro gebruikte kaart zonder garantie vergelijken met een ~300 euro nieuwe kaart.
Inderdaad ook mijn usecase. Soms wat spelen met SD, en met LLM's , af en toe een spelletje. Ideale kaart.
Ik had toen het uitkwam 480 euro voor betaald. Ik heb hier 2 jaar plezier mee gehad. Draaide de meeste games met Medium-High settings. En die 12GB VRAM was ook mooi meegenomen. Kon je lekker de textures op Ultra gooien.

Maar dit jaar een 4070 kunnen scoren voor 580 euro. Of deze lang meegaat. Geen idee. Want ik hoor verhalen dat 12GB ook tegenwoordig erg crap word voor de aankomende games. En Ik heb sinds 2 maanden terug een 4K monitor gehaald. Mijn 1080p scherm hield ermee op naar 9 jaar in gebruik.
dat 12GB ook tegenwoordig erg crap word voor de aankomende games.
Sorry maar het grootse deel daarvan is onzin, meeste games draaien prima op 8gb zelfs op 4k, een 4060 met 16gb is overkill en zal je amper/niet merken in games.
Daar ben ik het niet mee eens. Ik zie al een hoop games tegen de 12GB aanzitten. En op YouTube zie ik video's waarbij de game gewoon 14GB gebruikt op een 4090.

Resident Evil 4 Remake kan je de Textures echt niet op Max gooien want dan crashed de game hard.
Ik moet het verlagen naar 4GB, als ik het in combinatie met RT wil draaien.

Ja 8GB is genoeg als je lagere Textures gebruikt. Maar op 4K met Ultra Textures kan je het mooi vergeten. Dan gaat het gelijk over naar Systeem RAM, waarmee je constant gestotter krijg in games.

8GB was genoeg tot het Jaar 2021, daarna begonnen de games meer een meer te verbruiken.
Kom mede dankzij de Series X en PS5 die 16GB hebben.
Twee dingen:

1. Persoonlijk zou ik nu echt niet overwegen een 8 of 12 GB gpu te kopen: dat zijn hoeveelheid en die je in de gtx 10 serie al kon krijgen! Het is absurd, zeker met de huidige idioot lage prijzen van geheugen, dat nvidia nog een 4070 met amper 12GB durft uit te brengen, zeker aan die prijs, en al helemaal gezien ze het eerst als een 4080 wilden verkopen.
2. Echter: jouw observaties zijn niet zo veelzeggend als je denkt: die 14 GB 'gebruik' die je op YouTube bij een 4090 ziet is absoluut niet wat effectief gebruikt wordt aan geheugen: de game krijgt het gewoon toegewezen voor potentieel gebruik. Met dezelfde settings had die game wss prima ook met 12 GB uit de voeten gekund.
Sommige games merk ik dat wel. Dan zit het constant tegen de 12GB aan, en heb ik veel last van gestotter in games. Maar nadat ik de Textures omlaag gooi Naar high, is dat probleem weg, en dan meld MSI Afterburner aan dat ik 11GB verbruikt.

Dus er zijn zat games wat meer gebruikt dan 12GB, vooral op 4K. Natuurlijk op 1440p of 1080p dan is 12GB ruim voldoende.

Er zijn natuurlijk games die alle Video geheugen gebruikt. Maar zolang de game soepel blijft draaien is dat geen probleem.

Als Nvidia nou eens een mid-range GPU uitbrengt met 16GB of meer, dan gaat mijn huidige 4070 gelijk op Marktplaats.
Daarom eens kijken wat die 4070 ti super zal kunnen in Januari en als deze 16gb ram krijgt. En niet te vergeten de prijs ook, zal wel 1000 euro zijn, maar zolang het er niet is is het kijken. En anders koop ik wel gewoon een 4070. Ik speel op 4k, maar Wow en Diablo en soms eens COD. Maar hoeft zeker niet op de max staan, en nee ik moet geen AMD hebben, dual monitor gebruik is veel te hoog (momenteel) en ook gewoon het idle verbruik. En aangezien mijn pc gebruikt word voor 94% dual monitor en werk en met gemak 10-12u per dag hoeft het ook geen energievreter te zijn, anders had ik al lang een amd kaart genomen.
Dit hangt zwaar af van de resolutie, in 1080p is 8gb in zowat alle games meer dan genoeg.
1440p hetzelfde 4k hangt meer af van games maar 12gb zou zowat altijd moeten voldoen.

https://www.reddit.com/r/..._allocated_vram_usage_vs/
So I went to test it with my 4090, and at 4k Native With Maxed out every single setting (including the 8gb high Texture setting) and raytracing to see how much VRAM the game actually uses, and it started at 8gb actual usage creeping up to 10-11GB at these settings. But the game allocates an enormous amount of memory, between 5-8gb more than it actually uses. you can measure it using one of the later MSI afterburner betas, it does per process VRAM monitoring for dedicated usage
12gb is genoeg dus.
Kom mede dankzij de Series X en PS5 die 16GB hebben.
In totaal dus ram en vram dus in de praktijk een pak minder dan 16gb
xbox S is nog minder: 8 + 2 gb van snel/traag. Weeral gedeelde ram/vram.

Xbox x 13.5gb ram+vram & 2.5gb gereserveerd voor systeem geheugen in ook een 10+6 snel/trage configuratie.

Dus in beide gevallen kom je langs geen kanten aan 16gb vram .

[Reactie gewijzigd door k995 op 22 juli 2024 19:00]

12GB op 4K is alleen voldoende Als je de textures op High of Medium Zet.
Zoals ik zei, genoeg games die meer als 12GB gebruikt op 4K als je de textures Op Maximum zet.

Ik gaf je hiervoor al een voorbeeld met Resident Evil 4 Remake, want de game crashed als je de textures op Max zet. Dus 12GB zal de komende jaren een probleem worden nadat games steeds zwaardere textures gaan gebruiken.

Wat zoveel jaar geleden Ultra was, is nu Medium.
Consoles gebruiken ook custom settings vergeleken met PC.
Ik vind het wel knap dat ze op 16GB de laatste games met goeie settings kunnen draaien. Waarbij het Op PC gauw het dubbelen nodig hebt, aangezien de VRAM en RAM apart word gebruikt.

Ik zie games die meer als 20GB aan RAM Gebruiken, en dan nog eens 10 tot 14GB voor de VRAM.
Maar laatste tijd gaat het ook goed fout met de PC ports. Veel te hoge eisen, en veel gestotter.

12GB is voldoende tot 1440p met Max textures. Maar op 4K, dan moeten de textures op Medium-High settings.
je gaat van een 3060 op 1080p naar een 4070 (voor god weet welke reden) dan is je monitor dood en dan ga je 4k kopen.Om dan te klagen over GPU geheugen met als vermelding:

dan ga je effe op 4k Resident Evil 4 Remake kan je de Textures echt niet op Max gooien want dan crashed de game hard.Ik moet het verlagen naar 4GB, als ik het in combinatie met RT wil draaien.

ooit al gedacht dat je keuze van kaart-schem en verwachtingen wat uit balans zijn......
Maar DLSS zal je wel helpen om je verwachtingen te behalen..... O-)

Als Nvidia nou eens een mid-range GPU uitbrengt met 16GB of meer, dan gaat mijn huidige 4070 gelijk op Marktplaats.

das grappig, die is er al meer dan 2j met meer dan genoeg geheugen voor de midrange, een 6800 - 6800XT ...

[Reactie gewijzigd door d3x op 22 juli 2024 19:00]

Ik dacht eerst dat het genoeg was voor 4K. Maar dat schijnt niet het geval te zijn.

Draait Prima op 4K zolang ik de textures op Medium-High zet.
Niet elke game ondersteund DLSS. Resident Evil 4 Remake is FSR, en dat zie er slecht eruit. Dus ik verlaag de Resolutie schaling naar 70%

Ik koop liever een Nvidia GPU wanwege de stabiele drivers. Vele keren een AMD Kaart gekocht, maar ik was meer bezig met drivers aan het herinstalleren.

En de 4080 vind ik te duur.
Maw Nvidia wil de prijzen van de 4060 en 4060ti laten stijgen en komt niet met een 'Super' variant voor het middensegment? Is er nog zoveel voorraad aan RTX 3060 dan?
RTX3060 12gb is ideale kaart voor oa Photoshop, en zijn nu al te verkrijgen onder de 300,-
Maar voor gamen is de RX7600 van AMD beter geschikt
"ongeveer minder dan 282 dollar"? Hoeveel is dat? 8)7
16gig is dan wel leuk maar je hebt dan helaas 192bits geheugen bus, lijkt me dan toch weer een bottleneck of zie ik dat verkeerd tegenover de 8gig 3060ti
Ik hoop eigenlijk dat er snel een 4050 komt
Hij zou wel een aardige prijsdaling nodig hebben om voor de gaming-markt nog competitief te kunnen zijn. De 6650XT blijft in dat segment toch wel de beste price-performance behouden. 12GB VRAM is leuk, maar voor een 1080p-kaart zoals dit doet het geen wonderen.
Hopelijk komt er snel weer een volwassen tech site
Ik gok dat je de betekenis van volwassen niet helemaal begrijpt (how can you if you are not)... Maar laten we wel wezen, wanneer is Tweakers.net dan precies een 'volwassen' techsite geweest? Er kwamen in 1999 ook vrij ongesubstantieerde geruchten voorbij... Dat is over al die jaren niet veranderd en legio andere zaken zijn wel veranderd.

Bron:
nieuws: AMD gaat Alpha's bakken?
Waar heb je het over? Tweakers rapporteert al heel lang over geruchten, er staat ook duidelijk in de titel dat het een gerucht is dus je hoeft niet te klikken

Op dit item kan niet meer gereageerd worden.