Eerste prijzen van Nvidia RTX 3000-videokaarten staan in Pricewatch

De eerste RTX 3080- en 3090-videokaarten van Nvidia-partners staan in de Pricewatch. De goedkoopste modellen hebben vooralsnog ongeveer dezelfde prijs als de Founders Edition-uitvoeringen van Nvidia. De videokaarten komen over een paar weken uit.

In de Tweakers Pricewatch staan op het moment van schrijven prijzen vermeld bij RTX 3080-kaarten van Inno3D en Gigabyte. Die kosten afhankelijk van de uitvoering tussen de 719 en 799 euro. Ook staan er RTX 3090-kaarten van diezelfde fabrikanten in de Pricewatch, voor prijzen tussen 1549 en 1629 euro. Bij de Productvergelijker van Hardware Info zijn ook MSI-kaarten te zien, met vergelijkbare prijzen.

Het gaat in alle gevallen om eerste prijsvermeldingen bij één webshop. De videokaarten komen pas over enkele weken uit, maar de prijzen lijken aan te geven dat fabrikanten hun RTX 3000-kaarten gaan verkopen voor prijzen die vergelijkbaar zijn met wat Nvidia vraagt voor zijn Founders Editions. In het verleden zijn de FE-uitvoeringen vaak goedkoper geweest, maar waren ze ook slecht verkrijgbaar of snel uitverkocht.

Bij de Duitse prijsvergelijker Geizhals zijn nog geen prijzen van de nieuwe RTX-kaarten te zien, maar een grote Duitse webwinkel heeft wel prijzen bij meerdere RTX 3090- en RTX 3080-kaarten staan. Het gaat daar ook om enkele modellen van Asus, PNY en Zotac. De Asus ROG Strix-uitvoering van de RTX 3090 kost daar 1789 euro. Vermoedelijk is dit een van de duurste RTX 3090-varianten. De btw is in Duitsland overigens lager dan in Nederland en België, waardoor de prijs in de Benelux kan verschillen.

Nvidia kondigde zijn RTX 3000-serie van videokaarten op 1 september aan. De RTX 3080 is vanaf 17 september te koop voor een adviesprijs van 719 euro. De RTX 3090 volgt op 24 september voor een adviesprijs van 1549 euro. De RTX 3070 verschijnt in oktober voor 519 euro, maar wanneer precies is nog niet bekend. Er zijn nog geen prijzen van RTX 3070-videokaarten van Nvidia-partners verschenen.

RTX 3080- en 3090-prijzen bij Caseking.deRTX 3080- en 3090-prijzen bij Caseking.de

Prijzen van RTX 3080- en RTX 3090-videokaarten bij Duitse webshop

Door Julian Huijbregts

Nieuwsredacteur

09-09-2020 • 09:44

280

Lees meer

Reacties (280)

280
278
183
15
0
72
Wijzig sortering
Voor informatie over prijzen en levertijden van de RTX 3000 series hebben we het NVIDIA GeForce RTX 30XX] Levertijden & Prijzen topic en je kunt te allen tijde alle prijzen van alle winkels die naar Nederland versturen (inclusief voorraad indicaties) hier vinden:

https://www.gputracker.eu...hics-chip/nvidia-rtx-3090
https://www.gputracker.eu...hics-chip/nvidia-rtx-3080
https://www.gputracker.eu...hics-chip/nvidia-rtx-3070

[Reactie gewijzigd door Paprika op 23 juli 2024 07:33]

Waarom zijn die kaarten van tegenwoordig zo onwijs duur eigenlijk?
De laatste keer dat ik een videokaart kocht was heeel lang geleden (GTX480 :P).
Duur?

de 2080TI was €1000+
de opvolger ervan de RTX 3070 is €519

dan vind ik deze prijzen alles meevallen eerlijk gezegd
Het is iedere generatie hetzelfde verhaal, maar veel mensen lijken het niet te snappen.

De 3070 is de opvolger van de 2070
De 3080 is de opvolger van de 2080
De 3090 is de opvolger van de Titan.

Dat de 3070 even goed presteert dan de 2080ti is niet meer dan normaal. Als we naar vorige generaties kijken zien we dit ook gebeuren.

Dat de Turing generatie aardig overpriced was ontkent niemand. En Nvidia weet dit ook, ze weten ook dat AMD met de nieuwe generatie aardig wat schade kan veroorzaken en prijzen de Ampere generatie daarom scherp in de markt!
Volgens mij maakt het geen zak uit wie waarvan de opvolger is. Als ik voor de prestaties van een 2080Ti nu een 3070 kan kopen, dan ga ik natuurlijk 2dehands niet meer betalen voor een 2080Ti dan voor een nieuwe 3070. En het liefst natuurlijk minder, want de 2080Ti heeft geen garantie en wordt waarschijnlijk minder lang gesupport.
Inderdaad. Vandaar dat allerlei videokaarten nu massaal worden gedumpt in vraag en aanbod. Allemaal zogenaamd onder het mom dat men stopt met gamen ... ja ja alsof de gemiddelde tweaker dat niet doorheeft.
Haha ja, de mooiste die ik ben tegengekomen was "deze kaart zat in de pc van mijn opa maar voor hem enorme overkill". _/-\o_
Wat de opvolger van iets is, is toch niet zo relevant als je naar de vraag van Gravit0n kijkt?

€700 - 1550 voor een videokaart is gewoon heel veel geld.
En ik bedoel het serieus hoor, is deze generatie het geld echt waard?

Ik speel op mijn i7 en GTX970 alle spellen gewoon prima, maar misschien mis ik iets.
Dubbel en dwars, ik heb ook een 970 en die begint nu echt wel moeite te krijgen hoor.
Misschien dat jij nog op 1080P speelt maar ook dan kom je met de nieuwste spellen niet boven de 45 fps.
Iedereen vergeet de Cryptho hype die is weg dus de vraag is lager.
De komst van nieuwe consoles daar heeft nvidia niks aan amd wel.
Dan ook nog big navi die er aankomt gemaakt op 7nm Tmc.
Nvidia ampere 8 nm van samsung denk dat eerste keer is dat amd voorsprong heeft op productie process.
Zonder al deze factoren zouden we zeker meer betaalt hebben maar de melk koe mag even op adem komen!
Maak je geen zorgen het word niet meer zoals het was 4 jaar geleden ;).
Nu gebruik je best een ASIC-miner .
Yup. En bovendien was het destijds ook gewoon een hele hype het coinminen. Dat is tegenwoordig weer echt een niche. Ik vermoed ook dat NVIDIA dit soort berichten maar al te graag ziet (ik beschuldig ze nergens van.. ;) ) zodat de prijs flink opgestuwd wordt door de hype.
TSCM 7nm ~= Samsung 8nm ~= Intel 10nm.
Deze productie processen hebben ongeveer allemaal dezelfde hoeveelheid transistors per mm2.
Die Cryptho hype zorgden er net voor dat de kaarten veel duurder werden. Alle kaarten werden gewoon opgekocht waardoor er tekorten waren en winkels die er wel nog hadden deze met groot gemak aan een dure prijs konden aanbieden. Zelfs nu nog, kijk maar eens wat de prijzen zijn voor de GTX1080.

https://tweakers.net/pricewatch/zoeken/?keyword=gtx+1080
Ik denkt dat jullie allemaal denken dat miner de deur uit is, wat tottaal het geval niet is in 2020 de rx 5700xt zijn door de meerderhijd aangekocht door miners inclusief mij zelf and de hype is even groot in de crypto wereld als ik de gaming wereld voor deze grafische kaarten, maar zoals gezegd word het nooit meer even erg als begin 2018 waar je met een 1080ti op een bepaald moment 15 eu per dag kon uit sleuren, de hashrates zijn al uit en miners zijn zeker geintereseerd in deze 3080s
Ze zijn zeker niet de deur uit maar ze zijn stuk slimmer geworden andere technieken die beschikbaar zijn.
En er is altijd amd die er aankomt met big navi : AMD is able to deliver roughly the same performance as the previous generation, with a third fewer cores, less than half the memory bandwidth and using 25% less power
Dus ik denk dat er ook pak zijn die voor amd zullen gaan.
Wat dan zorgt dat er meer nvidia's beschikbaar blijven en geen prijs rush plaats vind door tekorten.
Het is wel degelijk uniek. Zoals al aangegeven was de 1080Ti sneller dan de 2080 en kijk anders maar eens wat Linus techtips erover te vertellen heeft.
Was de 2080 goedkoper dan de 1080ti toen die werd geïntroduceerd? Dat is lig wel totaal anders... je zult maar recentelijk een 2080ti gekocht hebben en dat je nu voor ca 500 euro minder of anders gezegd minimaal 20% meer performance dan de 2080ti voor meer dan 300-500 euro minder.

Wat Linus erover zegt is dat het productie procedé is veranderd. De 2080ti werd volgens een heel duur procedé gemaakt en hoopte dat de feature raytracing deze prijs kon rechtvaardigen.

Het kleinere procedé wat Samsung maakt levert meer (complexere) chips per wafer op waardoor de prijs een stuk lager kan. Dat was natuurlijk met vorige generaties ook wel het geval maar nooit in deze maten en dat heeft nooit geleid tot aanzienlijke lagere prijzen eerder het omgekeerde.

[Reactie gewijzigd door InsanelyHack op 23 juli 2024 07:33]

Scherpe prijzen? Ik moet het nog zien, hier een tabel met introductieprijzen (USD) ter referentie:

2013 - 780 ti - 699
2015 - 980ti - 699
2017 - 1080ti - 699
2019 - 2080ti - 1050
2020- 3080 - 799

Plus betere prestaties, dus ja scherper geprijst dan voorgaande jaren.
De founders edition van de RTX 3080 is €719.
EN nu dus 699/720 , met inflatie ben je dus goedkoper uit.
Dat de 3070 even goed presteert dan de 2080ti is niet meer dan normaal. Als we naar vorige generaties kijken zien we dit ook gebeuren.
Volgens je verhaal is dit heel normaal, dat is het niet.
GTX1080 Ti was namelijk sneller dan de RTX2070 en zelfs vergelijkbaar met de RTX2080 wat betreft de performance.

De komst van Ampère is wel uniek te noemen!
Kijken we een generatie daarvoor en daarvoor dan zien we het wel weer gebeuren. GTX1070 vs GTX980ti / GTX970 vs GTX780.
Nou ontkracht je je eigen eerdere statement...
  • GTX1070 vs GTX980ti iets meer performance voor ong dezelfde prijs
  • GTX2080 vs GTX1080ti iets duurder tegen een lagere performance (extra feature ray tracing)
  • GTX3070 vs GTX2080Ti lager gepositioneerd maar beduidend beter presterend tegen een lagere prijs
... Das toch best uniek te noemen of snappen wij het nog steeds niet?

[Reactie gewijzigd door InsanelyHack op 23 juli 2024 07:33]

GTX3070 vs GTX2080Ti lager gepositioneerd maar beduidend beter presterend tegen een lagere prijs
Beduidend beter presterend? Heb ik wat gemist of mag ik je glazen bol ook even lenen?

Ja, nvidia zegt in de slides dat de 3070 sneller is dan een 2080ti, maar niet onder wat voor condities. dat dat het geval is met raytracing en dlss aan lijkt me logisch. ik ben vooral benieuwd hoe ze tegenover elkaar staan in rasterization.

[Reactie gewijzigd door wearebob op 23 juli 2024 07:33]

Nvidia zegt zelf ca 20%
https://www.youtube.com/watch?v=FboEVKwHYpQ
Redelijk overtuigend als ik het zo zie. Enige puntje blijft de hoeveelheid geheugen die zelfs met de 3080 achterblijft op de 2080ti.
Kijk even goed naar die video en de comments (RTX on bij Doom? Doom doet geen RTX). Dit is helaas niet echt. Er is een NDA tot mid september voor het uitbrengen van de benchmarkresultaten voor de geselecteerde reviewers. Natuurlijk kan er wat lekken, maar ik geloof het pas als ik het van een respectabele bron als GamersNexus oid zie.

[Reactie gewijzigd door wearebob op 23 juli 2024 07:33]

Nou ontkracht je je eigen eerdere statement...
  • GTX1070 vs GTX980ti iets meer performance voor ong dezelfde prijs
  • GTX2080 vs GTX1080ti iets duurder tegen een lagere performance (extra feature ray tracing)
  • GTX3070 vs GTX2080Ti lager gepositioneerd maar beduidend beter presterend tegen een lagere prijs
... Das toch best uniek te noemen of snappen wij het nog steeds niet?
Beetje rare sprong maak je hier in je vergelijking. De RTX2070 is in de meeste benchmarks minstens zo snel als de GTX1080Ti. De 1080Ti was bij introductie dik 900 euro, de RTX2070 zat toen rond de 800 euro. Zelfde performance, voor een iets lagere prijs.
RTX2080 en zeker de 2080Ti zijn altijd al, in alle opzichten significant sneller geweest dan de GTX1080Ti.

Ook dat je RTX wegzet alsof het slechts een extra feature is die niets toevoegt. Voelt voor mij een beetje als de GeForce256 wegzetten want wie gaat er nou extra betalen voor een hardware T&L engine die toch maar amper in spellen wordt gebruikt.

De eerste generatie GPU die een echt nieuwe instructieset meekrijgt is altijd duurder geweest dan de concurrentie. En dat kon in de regel ongestraft omdat er geen concurrentie was op het vlak van die nieuwe instructieset. Dat is echt niet nieuw. 3Dfx kaarten waren niet te betalen, maar ze waren de enige 3D accelerator met FSAA in hardware. Geforce256 was vrijwel onbetaalbaar, maar als je hardware T&L wilde was het de enige optie.
Dat was ook met de RTX20xx series, ja ze waren behoorlijk aan de prijs, maar bij launch was er geen concurrerend product met een vergelijkbare instructieset en daarmee eigenlijk ook niets met vergelijkbare performance. AMD/ATI doet eigenlijk al een paar jaar niet meer echt mee in het top end als het gaat om GPUs.
Maar TI was niet de refresh van de 20 generatie, dat zijn de Super kaarten. Als je 1070 en 980ti wil vergelijken met de nieuwste generatie is dat nu de 3070 en 2080 Super.
Nee
Met jouw logica was de 2070 sneller dan de 2080ti
Bij launch was de 2080 amper sneller.
Normaal zie je dat de xx70 van de nieuwe serie gelijk of iets sneller is dan de oude xx80 non-ti.
Nu is er nog geen onafhankelijke review beschikbaar, maar zou de 3070 boven de 2080ti uit te komen. Dat is eerder gebeurd, maar lang geleden. Volgens mij met de nieuwe 8000 serie
Ja, duur.

Vergelijken met de vorige generatie valt het mee. Echter in een verder verleden waren videokaarten veel goedkoper.

Ik heb voor mijn ait HD4850 een week na uitkomst 175 euro betaald, dat was op dat moment de op 1 na snelste videokaart die er was. De 4870, de snelste op dat moment 230 - 240 euro.

Als je ziet dat je het topmodel nu boven de 1000 euro kost en het model eronder 700+ dan zijn videokaarten belachelijk duur tegenwoordig vergelijken met die tijd.

En de 3070 is niet de opvolger van de 2080ti, hij is ongeveer net zo snel, maar videokaarten horen sneller te worden. De 3080 en bediscussieerbaar de 3090 zijn de opvolgers van de 2080ti.
Ja, duur.

In 2002 (Wat wordt een mens oud), kocht ik een Ti4600 (de krachtigste kaart die toen beschikbaar was) voor €499. Ergens in 2004 heb ik die vervangen door FX5950 voor €599, Zelfs met inflatie kom je nog niet in de buurt van wat een 3090 vandaag kost.
De RTX 3070 staat qua performance gelijk. Maar daar vergelijken we niet mee. We vergelijken met de plaatsvervanger, welke de top-tier GPU ofwel de RTX 3090 is (€1500).

Vanzelfsprekend heb je meer performance voor hetzelfde geld met een nieuwe generatie GPU's.

edit: opbouw

[Reactie gewijzigd door Tom970G1 op 23 juli 2024 07:33]

Vanzelfsprekend heb je meer performance voor hetzelfde geld met een nieuwe generatie GPU's.
Met de stap van de 900-series naar de 1000-series en weer naar de 2000-series van Nvidia (en de vergelijkbare AMD-kaarten na Rx 2xx) gold dit niet. Met de 3000 series heb je weer significant veel performance voor je geld dan een jaar geleden, maar het is wel enkele jaren gestagneerd.

Als mijn R9 390 niet was overleden, had ik het tot nu gewoon prima kunnen uithouden. Geen kaart van rond de €300 na 2015 was echt een significante stap vooruit.
het geldt altijd, waarom zou je anders de nieuwe spullen kopen? Dan zou de vorige generatie voor dezelfde prijs dezelfde performance te leveren... de GTX 1070 bood (~) de snelheid van een GTX 980Ti voor €300-400 minder.

Ik houd hier 2e hands buiten de vergelijking.

[Reactie gewijzigd door Tom970G1 op 23 juli 2024 07:33]

Omdat er andere dingen verbeterd zijn? Een kaart die even snel is maar 99% minder luid is en 99% minder stroom nodig heeft en 99% langer meegaat zijn echt wel kopers voor (van mensen die een eerdere generatie kaart hebbben).
Dat gebeurt niet. Je zal nooit een stap van 3070 naar 4070 zien met dezelfde prijs & performance alleen wat zuiniger. Dan wordt de 3070 een 4060 met deze specs. En dus ook de prijs van een 3060 en niet van een 3070. Dus je zal voor hetzelfde geld altijd meer performance hebben.
Weet je niet. Je kunt de toekomst niet voorspellen. ;p
Zou een zeer lage value proposition zijn voor een groot deel van de markt. Wie swapt een kaart om alleen 50 watt oid te besparen? :p
Ik zeg ook niet alleen 50 wat. Er zijn genoeg zaken die interessant kunnen zijn op papier.
Vanzelfsprekend heb je meer performance voor hetzelfde geld met een nieuwe generatie GPU's.

Heel veel mensen lijken dit niet te begrijpen.

Wat verwachten mensen die nu roepen (ja, maar de RTX3070 biedt performance die ook op niveau van een 1000+ euro kaart) hoe dat werkt over meerdere generaties?

Hoeveel sneller is een RTX3080 dan een 8800GTX? Wordt leuk als je dat ook in prijs zou gaan terugzien.
Tenzij de featureset groter is [van de nieuwe generatie]...
Zoals meer geheugen. En features zijn soms ook:
- minder energie verbruik
- koeler (gaat vaak samen met bovenstaande)
De RTX 3090 is de opvolger van de Titan, er gaat later echt wel een 3080TI komen. Zo is het nu elke keer gegaan.
Waarschijnlijk wel, maar toch wordt de 3090 als de ultimate gamer card (8K Gaming blabla) geadverteerd, terwijl dat normaliter de *80Ti was.
Nvidia doet dit natuurlijk ook als reactie op AMD big navi en de aankomende consoles die allemaal bejoebeld worden op 4K gaming 60 fps. Nu staan ze marketing technisch natuurlijk erg sterk met 8K 60fps.

Ik weet zeker als het zo was dat AMD nog niks in het vooruitzicht had liggen, de RTX 3090 veel later was aangekondigd en grote kans dat het dan Titan had geheten.

Nvidia doet wel vake rare sprongen wat zelfs niet in lijn met hun eigen benamingen, zelfde met de Super kaarten van vorig jaar ook om direct tegengas te geven op AMD, dat was eigenlijk gewoon een refresh maargoed marketing weer door het woordje Super eraan te plakken.
De 3090 is de "nieuwe" titan. En daarmee 50% goedkoper dan titan rtx.
Als de performance van de RTX 3070 gelijk staat aan die van de voorganger, de 2080TI, waarom zou je de laatste dan überhaupt vervangen door een RTX 3070?
Zelf ben ik bijna volmaakt blij met mijn GTX1650 Q-max in een Lenovo ideapad met 1TB SSD, 12 GB ram en i7 processor.
Ik weet: Het is allemaal niet eerlijk te vergelijken maar FS2020 draait er ( met de nodige aanpassingen in de instellingen best goed op, net als DCS world.
Feit: FS2020 draait op dit moment nog op geen enkel systeem soepel met alles op 'ultra'
Het zal wel altijd een rat-race blijven..
Is de opvolger van de 2080TI niet gewoon een 3090 ofzo? Ik vermoed dat je kijkt naar kaarten met soortgelijke prestaties, maar bij het aanwijzen van een opvolger gaat het erom waar in de line-up ze vallen. In dit geval bovenaan dus.
uitgaande van die logica,
waar valt de oude titan kaart dan onder?
uit de presentatie van Nvidia zelf kwam dat de 3090 de nieuwe titan kaart is
de 3080 de nieuwe top of the line game kaart en de 3070 de tegenhanger is van de "oude" 2080TI
Ik heb inderdaad even verder gelezen in de comments, en de 3090 lijkt de Titan kaart te zijn. Heeft Nvidia toevallig gezegd op welke manier ze tegenhanger bedoelen? Want nog steeds vermoed ik dat ze het over prestaties hadden, om die van deze generatie beter te kunnen relativeren. Dat neemt niet weg dat als je de dikste gamevideokaart van Nvidia wilde kopen je eerst voor een 2080ti ging en nu voor een 3080.
de 3080 de nieuwe top of the line game kaart en de 3070 de tegenhanger is van de "oude" 2080TI
Nee de 3070 heeft 'gelijke performance', dat maakt het geen opvolger...

Het is niet heel raar om tegenover de 2080ti een 3080(ti) te zetten, sterker nog dat is precies waar die laatste nummers op slaan, in welk segment ze zitten binnen de series.

De 3090 is dus een 'nieuw' segment boven de 3080, wat dus blijkbaar voorheen titan genoemd werd. die daaronder was de 2080ti en nu dus de 3080 :)
Ik denk dat als de 3090 de titan is dan is de 3080 de vervanger voor de oude 2080.. de 3070 voor de 2070 etc.. dat betekend gewoon dat ze nog geen 3080ti hebben uitgebracht (de ti brengen ze altijd later pas uit...) Wat dat betreft kan je beter de 3090 vergelijken met de oude 2080ti, gezien de titan vaak ongeveer ti performance heeft (vaak net iets beter) alleen dan voor ene veel te hoge prijs.
Er komt vast ook nog een 3080ti en/of een 3080 super.
De klassieke denkfout! Ik bied iets heel duur aan. Enige tijd later bied ik hetzelfde product aan voor minder en menig denken dat ze dan korting hebben gekregen! Het doel was altijd al die 500 euro alleen hebben ze geprobeerd een gevoel te geven dat je met 1000 euro iets unieks in handen hebt. Kortom je bent gewoon voor 500 euro opgelicht!
Dat vind ik alles behalve "opgelicht", als jij een product duurder kan verkopen door vraag en aanbod doe je dat ook. Dat heeft niks met oplichting te maken.
Tuurlijk niet. Als jij een product voor 1000 euro kunt verkopen en mensen kopen het licht je geen mensen op. Als jij vervolgens bij v2 bang bent voor de concurrentie en een goedkoper productieproces gevonden hebt ga je je product zo in de markt prijzen dat je potentiële klant niet naar de concurrent gaat.
Ik denk persoonlijk ook dat het gerucht dat de 3090 €2000 was door nvidia is begonnen.
'Oh hij is maar 1500,- ! Dat valt mee!'
Slim hoor
De RTX 3070 is uiteraard niet de opvolger van de 2080ti... dat deze hetzelfde en misschien wel iets beter presteert is een andere zaak. Maar van een 2080ti naar een 3070 is vooral een horizontale beweging, oftewel geld weggooien.
Kan zijn dat de garantie van je 2080ti voorbij is en de 3070 is toch weer nieuwe techniek...

Verder inderdaad een sidegrade te noemen ;)
De 3070 is niet dé opvolger van de 2080Ti, dat zou de 3080Ti zijn. Wat wellicht dus de 3090 nu is.

De 3070 is een hoog-segment budget kaart, die volgens nVidia, inderdaad sneller presteert dan een 2080Ti.
Mwa, je zou je aan de nummering van Nvidia kunnen houden en dan heb jij gelijk, maar er is ook een andere kijk: De opvolger is de kaart die tegen hetzelfde verbruik een nieuwere generatie (en daarmee waarschijnlijk betere prestaties) levert. Het punt zit hem er nu in dat de 3090 een veel hoger verbruik heeft (~400W) dan de 2080TI (~250W). Het is niet zo'n kunst om met een bijna dubbel verbruik veel meer prestaties te bieden. Bij de vergelijking 3070 met 2080TI ligt het verbruik dichter bij elkaar (ongeveer gelijk), dus afhankelijk van je optiek zou je die als opvolger kunnen zien.
Het maakt eigenlijk niet uit of de opvolger sneller is, het gaat namelijk om het feit dat het dat product "op volgt".

Wat context:
  • GTX 980 165W
  • GTX 1080 180W +9%W
  • GTX 2080 215W +19%W
  • GTX 3080 320W +49%W
2000 naar 3000 is inderdaad een flinke sprong in verbruik, de performance zou daardoor logischerwijs ook al (aanzienlijk) hoger moeten liggen.
Ja precies, volgens mij zeggen we ongeveer hetzelfde. Stel dat ik een compleet systeem heb met daarin een 1080 (180W) en ik wil de "opvolger" kopen. Dan zou ik ook kunnen zeggen dat dit de 2070 is omdat die ongeveer hetzelfde verbruik heeft (175W). Zodoende hoef ik niet ook een nieuwe voeding te kopen en eventueel een hogere energierekening te verwachten. Hetzelfde bij 2080 naar 3070.
De definitie van "opvolger" is niet altijd die met hetzelfde nummertje van de fabrikant, het ligt aan de context. Natuurlijk schuift Nvidia langzaam het verbruik op met dezelfde nummertjes (zoals jouw lijstje) want dan lijkt het performanceverschil hoger, maar dat is eigenlijk niet eerlijk. Als je de performance van de 3070 (220W) vergelijkt met de 2080 (225W) dan is het verschil ineens niet meer zo spectaculair als dat je de gelijke nummertjes van de Nvidia met elkaar vergelijkt.
De opvolver van de 2080 Ti is niet eens aangekondigt.

De 3070 is de opvolger van de 2070 die tovoellig sneller dan de 2080 Ti is, dat maakt het nog niet de opvolger.
De RTX3070 is absoluut niet de opvolger van de 2080ti. Nvidia heeft beweerd (benchmarks moeten we nog zien) dat het sneller is. Dat maakt het nog geen opvolger. De 3070 is de opvolger van de 2070. De 3080 de opvolger van de 1080. En de 3090 is de opvolger van de Titan serie.

Feit blijft dat de prijzen nog redelijk meevallen.

[Reactie gewijzigd door Amanoo op 23 juli 2024 07:33]

De 2080ti was duur, veel te duur.
Ter vergelijking: de 1070 was maar 380$ en was minstens netzo snel als de 980ti.

Maarja, het is in ieder geval een verbetering op de trend
...meanwhile @ Nvidia Head Quarters:
Muhahaha, het is gelukt! Omdat we de vorige generatie kaarten zo belachelijk duur gemaakt hebben denken ze nu dat de nieuwe heel goedkoop zijn.
Jensen Huang aan CFO: vergeet niet onze marketing afdeling een dikke bonus te geven dit jaar!

Wat ik van de prijsstelling denk:
RTX 2080Ti @€1000 - 1400 > Zo we hebben geen concurrentie dus laten we de consumenten eens lekker uitmelken.
RTX3070 @€519 > Oei, AMD kon wel eens met een goede kaart komen. Laten we de prijzen maar weer wat realistischer maken anders verliezen we straks te veel marktaandeel.
De opvolger is niet de kaart die hetzelfde presteert. Anders kunnen ze net zo goed niets nieuws uitbrengen.
En de GTX1070 was $380, de GTX970 was $330.. dus ja, de RTX3070 is duur. Goedkoper dan de RTX20 lijn, maar nog steeds een stuk duurder dan wat het ooit was. Door de absurde RTX20 prijzen voelt het nu slechts als een 'prima' prijs.

De RTX3070 is géén opvolger van de RTX2080TI.
Nee, het is gewoon erg duur, de techniek is relatief "goedkoop" (net zoals het vervaardigen van led tv's indertijd, maar dmv prijsafspraken van fabrikanten te duur gehouden en bestraft door Mevr Smit Kroes) en dus kan er goedkoper worden geproduceerd, maar de afzetmarkt is vele malen kleiner geworden met de komst van online gamen via consoles als de XBOX en PS. De jongste generatie wil geen dikke desktop in de kamer, maar een kleine krachtige console met bijbehorende controllers. Verkochten de makers van videokaarten 10 jaar geleden er nog "miljoenen", nu nog maar een fractie daarvan. Dus weinig aanbod, "hoge vraag", maakt het nu eenmaal duurder.
Enfin, dat denk ik. Heeft iemand andere ideeën? Insiders hier?
Gr
Geen echte concurrentie. Dus ze kunnen nu flink cashen.
Ter context

2018: 20% omzet groei
2019: 40% omzet groei
2020: 6% omzet daling*

https://www.macrotrends.n...harts/NVDA/nvidia/revenue

* Statistieken van 2020 zijn natuurlijk nogal onzeker. Dus, loop niet op de zaken vooruit om daar voorspellingen over te maken. Ik vindt zelf een omzetdaling van maar 6% erg meevallen.
Hou er wel rekening mee dat bij Nvidia 2020 niet 2020 is zoals wij het kennen, Nvidia boekjaar loopt van eind januari tot eind januari het volgende jaar. Nvidia's "2020" is de periode van 27 januari 2019 to 26 januari 2020. We zitten nu voor Nvidia dus al in boekjaar 2021, Q2 2021 was 3.87 miljard, Q1 2021 3.08 miljard.
Hoe weet je dat... Waarschijnlijk zijn dankzij de concurrentie die gaat komen de prijzen erg acceptabel
Console markt 2020 zit allemaal bij AMD. :X
Ik verwacht om 2 redenen:
1. R&D is duurder geworden omdat de rek eruit is v.w.b. Moore's Law. Dit betekent dat ze nu op "de moeilijke manier" performance en efficiency verbeteringen moeten doorvoeren ipv grotendeels die shrinks.
2. AMD heeft al een tijd lang geen behoorlijke concurrentie geleverd op het vlak van high end kaarten. In de plaats daarvan zit AMD maar een beetje aan te klooien met kaarten die zich kunnen meten met Nvidia's middensegment.
Dit betekent dat er geen concurrentie is op het high end vlak, met veel hogere prijzen als gevolg.

Zelfs in de komende generatie zit AMD te mikken op een high end Big Navi model dat ergens tussen de 3070 en de 3080 qua prestaties zou moeten zitten. Leuke bump tov wat ze daarvoor aanboden, maar niet genoeg om de prijzen te doen zakken.

[Reactie gewijzigd door Jeanpaul145 op 23 juli 2024 07:33]

2. AMD heeft al een tijd lang geen behoorlijke concurrentie geleverd op het vlak van high end kaarten. In de plaats daarvan zit AMD maar een beetje aan te klooien met kaarten die zich kunnen meten met Nvidia's middensegment.
Om dit te verduidelijken, AMD's huidige vlaggenschip (Radeon RX 5700 XT) presteert vergelijkbaar met het vlaggenschip van Nvidia van drie jaar geleden (GeForce 1080 TI). Bron. Voor het hogere segment kan gebaseerd op de huidige kaarten gezegd worden dat AMD drie jaar of één generatie achterloopt. AMD's huidige hogere segment is marktbreed middensegment.

In de aanname dat er geen zaken zoals driverproblemen zijn kan de potentiële koper voor het lagere en middensegment AMD overwegen. Voor het hogere segment is er helaas nog geen alternatief. Ik ben benieuwd wat AMD voor de nieuwe generatie uit de kast trekt, maar wacht eerst de ijskoude vergelijkingen uit de praktijk af.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 07:33]

in de aanname dat er geen zaken zoals driverproblemen zijn
Op Steam heeft een derde van de Linux gebruikers een AMD kaart, veel meer dan de gemiddelde Windows gebruiker. Oorzaak? De AMD drivers zijn open-source dus die geven geen problemen op Linux en die worden out-of-the-box ondersteund.

Zelf heb ik nu nog een NVidia kaart, maar mijn volgende gaat zeker een AMD worden. Ik hoef geen high-end kaart (en ben ook niet bereid de high-end prijs te betalen) dus voor mij is de keuze voor AMD eenvoudig.

Ben je een zakelijke gebruiker? Dan is AMD nog wel interessant omdat ze geen vervelende non-server clausules in hun open-source drivers hebben. Ik heb in het verleden render-servers opgetuigd met AMD kaarten omdat de prijs/resultaat-verhouding tussen AMD OpenCL en NVidia CUDA nogal kut is als je verplicht bent om Quadro kaarten te kopen.
Op Steam heeft een derde van de Linux gebruikers een AMD kaart, veel meer dan de gemiddelde Windows gebruiker. Oorzaak? De AMD drivers zijn open-source dus die geven geen problemen op Linux en die worden out-of-the-box ondersteund.
Het aantal Linux gebruikers is minimaal ten opzichte van het aantal Windows gebruikers. En dit zeg ik als Linux en Windows gebruiker.

De AMD drivers onder Windows voor Navi waren lange tijd onstabiel. Daarom deze opmerking.
Percentueel is AMD heel populair onder Linux. In absolute aantallen is het natuurlijk een druppel op de gloeiende plaat, maar AMD heeft dus wel een trouwe selectie aan fans gekregen.
Wat je zegt klopt, maar dingen even in perspectief zetten:
De windows markt Voor Steam games is grofweg 100x de grootte van de Linux markt voor games, getuige uit oa de statistieken van Steam zelf (die wijzen uit dat het aantal Linux gebruikers vaak net onder de 1% is van de totale user base).

Als ik AMD was zou ik gaan voor het geld, met user sympathie op hooguit een 2e plek. De reden? Van user goodwill kan je geen rekeningen betalen. Dus hun huidige strategie, hoewel ik hun FOSS aanpak zeker een warm hart toedraag, is ronduit bizar vanuit zakelijk perspectief.

[Reactie gewijzigd door Jeanpaul145 op 23 juli 2024 07:33]

Mijn volgende wordt wel Nvidia, maar dat is meer omdat ik van een vriend voor praktisch nop een GTX1080ti zal kunnen overnemen. Wilde ik een nieuwe kaart kopen, dan zou ik ook AMD overwegen km deze redenen. Nvidia drivers zijn altijd wel prima geweest. Maar AMD is tegenwoordig ook vrij goed en integreert toch echt beter in Linux.
De 5700xt is nooit bedoeld en ook niet geprijst als highend videokaart. Hij is vergelijkbaar geprijst met een 2060 super en preseteert tussen een 2070 en 2070 super in. Maar tegen een lagere prijs.

Als RDNA(1) gemaakt zou worden om in het highend segment te concurren dan had de kaart niet 40cu's maar richting 80cu's gehad.

Big navi gaat dus wel richting de 80cu's die mag je dus vergelijken met de 3080..
Natuurlijk niet echt eerlijk omdat AMD ook zijn aanbod gaat vernieuwen die kaart is al een jaar oud .
Daarbij is die high end echt wel een niche markt: de 2080 ti's verkopen echt maar heel beperkt, AMD hun beste kaart is vergelijkbaar qua prestaties met een 2070 super of 1080ti maar is 20-50% goedkoper dan die kaarten. Een XT5700XT heb je voor 380 de goedkoopste 2070 super een 480 .

AMD is dus voor het 99% van de markt wel degelijk competitief en zelfs beter, echt kijken veel reviewers en tweakers enkel naar wie hefet "het snelste" zelfs al kost dat 1500+euro voor amper betere prestaties.
Natuurlijk niet echt eerlijk omdat AMD ook zijn aanbod gaat vernieuwen die kaart is al een jaar oud .
En die Nvidia kaart al drie jaar. Het punt blijft staan.
Daarbij is die high end echt wel een niche markt:
Aantallen in verkoop was geen onderdeel van de discussie. De high end markt expliciet wel, onafhankelijk van diens grootte.
AMD hun beste kaart is vergelijkbaar qua prestaties met een 2070 super of 1080ti maar is 20-50% goedkoper dan die kaarten. Een XT5700XT heb je voor 380 de goedkoopste 2070 super een 480 .
En daarom noem ik dat ze in het lagere en middensegment prima meegenomen kunnen worden in vergelijkingen. Ze spelen alleen op het moment niet mee in het hogere segment. Ik hoop dat daar verandering in komt, want concurrentie is alleen maar goed.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 07:33]

De discussie was waarom zijn prijzen zo hoog, het argument dat AMD achter zou lopen is niet correct.
In het segment waar 95+% van alle verkopen zitten is AMD gewoon even goed prijs/performance of beter dan nvidia.

Een 2070 is niet lager -end, de markt begint op een 75euro voor een 1030/1040 of rx550 dat is "lager en".Een 2070 super is gewoon nog high end omdat die beginnen rond de 500euro en dus qua prestaties en prijs gewoon een pak boven het gemiddelde uitsteken. Dat is ook waarom de prijzen hoger zijn, de performantie en onderzoek in deze kaarten is gewoon zo kostelijk . Voor een doorsneel gamer op 1080p is een 2060 best betaalbaar en die draait alles snel genoeg.
De discussie was waarom zijn prijzen zo hoog,
Onwaar. Ik refereer in mijn post enkel naar:
2. AMD heeft al een tijd lang geen behoorlijke concurrentie geleverd op het vlak van high end kaarten. In de plaats daarvan zit AMD maar een beetje aan te klooien met kaarten die zich kunnen meten met Nvidia's middensegment.
het argument dat AMD achter zou lopen is niet correct.
Op het high-end vlak lopen ze zeker achter, en ook daar is goede concurrentie nodig om prijzen te drukken.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 07:33]

De eerste post ging daar wel over, en XT5700XT is imo high end volgens jou blijkbaar niet. maakt echter weinig uit nogmaals high end is maar een miniem deel van de markt en amd loopt dus op 90+% vand e markt niet achter integendeel .
AMD's huidige vlaggenschip is helemaal niet zo snel als een GTX1080 Ti, eerder vergelijkbaar met een GTX1080.
Een XT5700XT is high end en beter prijs/kwaliteit dan gelijk wat nvidia heeft momenteel.
De markt voor 3900's is gewoon miniem de meeste mensen hebben een x060/x070 of AMD equivalent en daar is AMD heel competitief.
Vraag en aanbod. Als je slim wilt zijn dan koop je ook niet de 3090 maar de kaart met de beste prijs / performance balans. Welke dat precies is weten we pas na echte reviews.
Een 100pk fiat panda heeft een betere pk/euro verhouding dan een Ferrari of een Bugatti ;)

Sommige mensen willen nou eenmaal het snelste wat er beschikbaar is. Ik kies zelf ook altijd een lager segment, maar neemt niet weg dat ik ook begrijp dat er mensen zijn die andere keuzes maken.
Omdat:
  • Nvidia in sommige jaren bijna geen concurrentie had
  • Er een tijd terug gigantische vraag was naar GPUs door mining
  • 28000 miljoen (RTX 3080) vs 3100 miljoen transistors (GTX480)
  • Meer R&D nodig om prestaties te verbeteren (morse law is dead).
  • Inflatie

[Reactie gewijzigd door DoubleYouPee op 23 juli 2024 07:33]

heeft Nvidia dan nog wel concurrentie, ''Big Navi'' zal ook niet veel beter concurreren dan nu bijvoorbeeld.
Dus blijft het voorlopig voor de komende 5 jaar denk ik.
Nvidia is meer gaan doen dan alleen GPUs maken. Ze hebben de afdelingen zoals automotive en AI vooral initieel lekker zitten spekken met de winst van hun GPU verkopen en omdat er weinig concurrentie was/is hebben ze de prijzen aardig kunne opvoeren, bij turing zijn ze echter wel een beetje tegen een grens aangelopen, die reeks is relatief erg slecht verkocht.
Omdat Nvidia een bedrijf is en bedrijven willen meer geld. Na de mining hyp zag Nvidia dat vele mensen de hoge prijzen gewoon betaalden en zijn daarmee verder gegaan.
Tegenwoordig?
nvidia 780, 980/ 1080 (allemaal non TI dus) kostte toen ook gewoon 800euro, 2080 was zelf 900-950.

De 480/580/680 zaten idd meer rond de 500-550 met inflatie is dat een 600 euro nu.

750 valt dus nog mee gezien de laatste jaren.
Vraag en aanbod.

Voorheen werd het masaal gekocht om litecoins etc te minen. Daardoor is de prijs omhoog gegaan omdat vraag naar GPU heel erg hoog was en aanbod laag.
Gewoon op de Big Navi wachten. Die gaan naar verwachting 150 euro onder de prijs zitten met nagenoeg dezelfde prestaties. 3080 specs voor 500 euro is dan opeens een stuk gunstiger.

ps: en vergeet ook niet dat BN op de 7nm machines zit en ze ook nog eens bijna alle machines heeft opgesnoept.
Nvidia moet daarom doen met 8nm machines (behalve dan voor de 3090) en dat kost ruimte en snelheid op de chip.

[Reactie gewijzigd door freedzed6 op 23 juli 2024 07:33]

Neer verwachting van wie? De fanbois uit CJ's Radeon topic :?
Hier ook aan het wachten op Big Navi.
Het stroomverbruik van deze Nvidia reeks is niet verantwoord.
De prijs laat vermoeden dat ze al een reeks klaar hebben om Big Navi te counteren.. let maar op.
Enige reden is dat mensen ervoor over hebben. Als je de productie kosten tussen 3070 en 3090 vergelijkt, zijn deze bijna hetzelfde. Alleen het geheugen is verschillend. Je betaald dus voor een betere gebakken chip.
De die-size van een 3070 is echt wel een fors stuk kleiner dan een 3090. Het is in die zin zeker niet een 'beter' gebakken chip.
3900 is veel grotere die, en veel meer geheugen (24GB). Dat kost allemaal wel.
Omdat Nvidia een hebberig bedrijf is zonder goede concurrentie. En zelfs met concurrentie zal het niet veel uitmaken want AMD verdient ook graag meer aan de kaarten. De vorige serie was knetterduur en nu zie je al dat veel mensen het normaal vinden helaas.

Tja, zelfde met telefoons etc.
Jij verkoopt je huis ook voor de prijs waar jij het voor gekocht hebt :?
De graaicultuur naar gamers, bah, begrijp er ook niets meer van. Heb voor dat geld nu een nieuwe laptop gekocht met GTX 1660 ti en Ryzen 4800h, die aan veel van mijn verwachtingen voldoet. 20% sneller als de duurste macbook pro 16 voor een schijntje van de prijs. Dat noem ik een goede deal, daar zouden de grote merken een voorbeeld aan moeten nemen.
Simpel, geen competitie. Amd heeft alleen maar in het midden/lage segment concurrentie voor Nvidia wat Nvidia dus vrij spel geeft in het hoge segment. En zolang wij consumenten het voor deze prijs kopen blijven ze het doen.
De 2000 serie was nog extreem veel duurder dan dit.
Vanwege het feit dat Amd zegt dat big navi in het hoge segment kan gaan concurreren heeft Nvidia (waarschijnlijk) de prijzen zo ver ze kunnen omlaag gehaald om die kans proberen weg te halen en hun zelf een mogelijkheid gegeven om nog kaarten tussen bijvoorbeeld de 3080 en 3090 te zetten.
Waarom zijn die kaarten van tegenwoordig zo onwijs duur eigenlijk?
Omdat grafische kaarten steeds belangrijker zijn geworden.
De ontwikkelingen in de CPU wereld staan een beetje stil. Grote performance doorbraken zijn er al een tijdje niet meer geweest, de focus ligt al een tijd op zuinigheid, vooral onder invloed van de mobiele markt.

De performance en het uiterlijk van moderne games wordt grotendeels door je GPU bepaald.
Daarnaast is er een flinke opkomst van software die je GPU als extra processor kan gebruiken.

In mijn ogen is de GPU steeds meer "coprocessor" aan het worden. Nu hebben veel moderne CPU's tegenwoordig ook een GPU ingebouwd. Zo komen we langzaam full circle. Ik verwacht dat de markt binnenkort gaat beseffen dat ingebouwde GPU's de nieuwe standaard zijn en dat we daar geen aparte term meer voor nodig hebben en het gewoon allemaal CPU kunnen noemen. Net zoals niemand het tegenwoordig nog over z'n mathmatische coprocessor heeft, dat is gewoon deel van de moderne CPU.

Owja, en we hebben het hier natuurlijk wel over de introductieprijzen van high-end kaarten. Die prijzen beginnen altijd tussen de wolken. De meeste mensen zullen niet echt dat soort bedragen uitgeven aan een GPU.

[Reactie gewijzigd door CAPSLOCK2000 op 23 juli 2024 07:33]

Omdat sinds GTX480 GPU dramatisch complex is toegenomen en zich enorm heeft geavanceerd tov toen. Gewoonweg niet meer 1:1 te vergelijken. Duurder, maar je hebt elk jaar ook geen nieuwe GPU meer nodig.
Duur?

Een setje Voodoo 2's voor 1200,- gulden, dat was duur. Met 20 jaar inflatie gerekend ;)
Inflatie, geld wordt steeds minder waard, dmv geld bijdrukkerij aka fractional bank reserves.
Die video is compleet fake.

Gewoon twee keer dezelfde video, wat andere cijfertjes eronder, et voila, views scoren.
Nou ik ben blij dat ik geen console gamer meer ben.

De hoeveelheid games die ik in 30fps moest spelen was gewoon niet te hachelen.

Dan betaal ik liever wat meer en kan in tenminste volop genieten van de ervaring.

Ook niet te vergeten: op consoles moet je vaak een subscription betalen iedere maand voor online multiplayer die je op de pc niet hoeft te betalen. En games zijn doorgaans goedkoper op de pc. Over de gehele levensduur van je console kan dat flink aantikken.
Van die 30fps zal nu wel veranderen met de nieuwe consoles.
Dat ligt eraan. Games worden natuurlijk ook steeds veeleisender.

Je pc kan je tussentijds upgraden, om hier in mee te gaan. Met een console kan je dat niet doen.
Games worden inderdaad veeleisender, maar als men de specs nu bekijkt van de consoles zullen 60fps met gemak behaald worden voor de komende paar jaar. Misschien brengen ze dan wel een pro versie uit die weer mee kan. Huidige consoles waren al verouderd bij launch, nu is dit toch anders.
Nou nou met gemak zou ik toch niet zeggen. Misschien op lage settings.

Maar met een 2080super haal je echt niet met gemak in iedere game 4k 60fps laat staan in aankomende games.

Daarnaast is een 2080super gpu in een console nu nog indrukwekkend. In de ampère Line up is dat nog maar mid tier performance (rond een 3060). Na de opvolgende generatie zal je dat performance niveau zelfs al in low end gpus op de pc terugvinden.
Lijkt me heel onwaarschijnlijk dat je dat in de "low end" gaat terugvinden. Als je gaat kijken naar de 1080 (die straks dan ook 2 generaties oud is) ga je daar echt niks in de low end tegen kunnen zetten. Zelfs een 980Ti ga je niet evenaren met dat soort budget kaartjes, hooguit ergens in de mid-end (lees 3050Ti of iets dergelijks), maar zeker niet van die bargain basement prutskaartjes.
we zullen zien. ik heb nog geen enkele benchmark gezien van die nieuwe consoles.
een videokaart van 800€ (want ja, een 2090 = de nieuwe Titan en ben je dus niks mee om te gamen) is dus geen optie. maar een PRO versie van een console die je dan opnieuw moet aankopen is dan wel te verantwoorden? dus pakweg 2x400€ = 800. Komt dit niet op hetzelde neer dan? Je kan die oudere console dan wel weer verkopen, maar dat kan ik evengoed met mijn 1080ti.
Bij de vorige generatie werd ook steeds gezegd dat 60FPS ondersteund was, maar ontwikkelaars kozen toch vaak voor grafische praal boven FPS.

Niet dat ik direct zeg dat dat nu weer gebeurt, maar het zijn niet Sony en Microsoft die kiezen hoe ontwikkelaars de toegenomen rekenkracht gebruiken.

[Reactie gewijzigd door aicaramba op 23 juli 2024 07:33]

Bij de ps4/ps4pro was de gpu prima maar de CPU zwaar onder de maat.

Dan is de keuze voor graphics > fps snel gemaakt. De Cpu is immers niet beter dan die in een budget tablet/telefoon.

Nu met een 8-core zen2 is dat wel net ff anders.
Graphics > fps zal gewoon blijven op de consoles, want graphics verkopen nou eenmaal.. De gemiddelde console gamer heeft geen benul hoeveel fps een game draait.. Dat wil niet zeggen dat er geen console gamers zijn die daar wel op letten, maar die vormen een minderheid..
Los van het feit dat aimen met een controller een drama is als je muis/toetsenbord gewend bent.
Klopt. Ik heb zowel een toetsenbord, muis als controller aan mijn pc gekoppeld. Kan zelf kiezen afhankelijk van de game wat het lekkerste speelt.
Controller prima voor racers of games als RDR2 maar niet voor de 'echte' shooters en het snelle werk. Ik heb een controller gekocht puur voor Forza :)
Wat heeft de RTX 3090 te maken met het zijn van een gamer? Het is een enthousiast kaart.
Omdat de 3090 een gaming kaart is....
Ja, en de 3070 of 3080 niet?
Toch noemt nvidia de 3080 als hun nieuwe flagship card. Niet de 3090.
de RTX 3090 is een TITAN kaart (voorheen rond de €3000), niet echt een game kaart dus.
de dikste game kaart van de RTX 3000 serie is op dit moment de de RTX 3080,
De RTX 3090 is op dit moment gewoon de snelste 3000 series kaart, en geen titan, anders hadtie wel zo geheten.
Nvidia heeft zelf in haar presentaties aangegeven dat de 3090 in de TITAN categorie behoort. Wellicht faseert TITAN als productnaam dus uit vanaf deze generatie.
Het enige wat Nvidia op haar website daar over zegt is:
The GeForce RTX™ 3090 is a big ferocious GPU (BFGPU) with TITAN class performance.
Oftewel, de performance is vergelijkbaar met die van de TITAN "klasse". Maar het is geen TITAN.

Ik verwacht dat er nog een TITAN komt, of ze de naam inderdaad uitfaseren.

[Reactie gewijzigd door drdelta op 23 juli 2024 07:33]

Nvidia heeft zelf in haar presentaties aangegeven dat de 3090 in de TITAN categorie behoort
Oftewel, de performance is vergelijkbaar met die van de TITAN "klasse". Maar het is geen TITAN.
Categorie en klasse zijn in deze hetzelfde, je zegt dus precies hetzelfde als Random Hajile.....
Het is niet alleen wat de website zegt. Ik noem niet voor niets de presentaties. Bekijk deze video, en spring naar 34:12, waar de CEO van Nvidia de 3090 introduceert als het Ampere-antwoord op de behoeften die de TITAN klasse vervult: https://youtu.be/E98hC9e__Xs

Het is daarom aannemelijk dat de nog niet eerder getoonde(!) xx90 product type ter vervanging van de TITAN naam dient, ten behoeve van consistentie in al hun product naamgeving.
Het is daarom aannemelijk dat de nog niet eerder getoonde(!) xx90 product type ter vervanging van de TITAN naam dient, ten behoeve van consistentie in al hun product naamgeving.
In 2011 hadden we al de GTX 590, in 2014 hebben ze daar echter andere branding overheen gegooid en vonden ze opeens dat het een losstaande klasse was. En nu komen ze daar weer op terug?

2011 - GeForce GTX 590 (500 series)
2012 - GeForce GTX 690 (600 series)
2014 - GeForce GTX TITAN (700 series)
2015 - GeForce GTX TITAN X (900 series)
2016 - Nvidia TITAN X (1000 series)
2017 - Nvidia TITAN Xp (1000 series)
2017 - Nvidia TITAN V (volta)
2018 - Nvidia TITAN RTX (2000 series)
2020 - GeForce RTX 3090 (3000 series)
De 3090 is gewoon een gaming kaart en de opvolger van de 2080TI.
Waarom noemt nvidia de 3080 dan als hun nieuwe flagship card?
Ik denk een mainstream flagship
~700 dollar is niet mainstream.
Daar ben ik het niet helemaal mee eens. Als je kijkt hoe NVIDIA voorheen de titan serie adverteerden, was daar vrijwel geen sprake van het woord "gaming". Vergelijk dat eens met de webpagina voor de nieuwe RTX 3090, en dan staat wie pagina ineens barstensvol met het woord "gaming". Ik denk wel degelijk dat NVIDIA de 3090 richt op gamers. Blijkbaar is daar een markt voor. Ze zullen (denk ik) ongetwijfeld ook nog wel met een aparte titan komen, omdat de titan series nou een maal op een volstrekt andere markt gericht is.

Greg Salazar heeft een goede video hierover geupload: https://www.youtube.com/watch?v=k9Be9N9P2Pc&t=217s
Nvidia zet de 3090 nadrukkelijk in de markt als de eerste 8k gaming card, waarbij de 3080 de flagship is voor lagere resoluties.

Ik denk dat er voldoende vraag is voor de 3090, want hoe vet is het om met een 2 * 4k VR bril te kunnen gamen met tenminste 90hz? (Let op: 8k is 4x zoveel pixels als 4k).

Persoonlijk heb ik het bedrag er niet voor over, maar ik denk zeker dat er vraag is.
De 3080 gaat dat soort resultaten waarschijnlijk al geven. Voor ongeveer de helft van de prijs dus. De 3090 is gedoeld als nieuwe Titan kaart en ook voor 8K toepassingen
Ik denk dat je nu een klein beetje appels met peren vergelijkt.
Bij de GTX9xx serie kwam ook een Titan kaart uit, die was bij de release rond de 1200eu.
De 3090 is de Titan kaart van de 30xx serie.

Volgens mij was de 980 rond de 600eu en de 980ti rond de 800eu bij de introductie.
Ik denk dat nVidia het nog helemaal niet zo slecht doet qua pricing dit keer (de 3080 zit mooi tussen deze 2 prijzen in).

[Reactie gewijzigd door Stoksbrood op 23 juli 2024 07:33]

De 3090 is ook de ultieme kaart. Dit is ook de kaart die developers, cad ontwerpers in hun PC's zullen gaan hebben. Voor de echte diehards die het geld er voor over hebben zullen soms ook nog wel voor de 3090 kiezen. Maar over het algemeen is de 3080 het nieuwe topmodel.

Daarnaast moet denk ik ook niet onderschat worden wat de nieuwe PS5 en XSX gaan kosten. Met een vermoedelijke prijs van 499 heb je een redelijke start. Maar als je hier je storage bijvoorbeeld voor wilt gaan uitbreiden mag je ook in de buidel tasten. PS5 gaat met NVME PCIE 4.0 SSD's van Sony's QVL werken. Waar nu gemiddeld een 1TB storage ook 250 euro kost. Voor de XSX was er vandaag ook een leak dat de Seagate opslag uitbreiding van 1 TB ook 249 dollar kost.

*speculatie*
Nu is dit natuurlijk nog lang niet in de buurt wat je voor een PC betaald, maar bij een PC krijg je ook nu al 2 keer de perfomance er voor terug. We weten natuurlijk nog niet hoe Cyberpunk bijvoorbeeld op de PS5 of XSX gaat uitzien, maar ik kan me voorstellen dat PC gamers met 3080 een hogere framerate / resolutie / beter raytracing gaan hebben dan op de nieuwe consoles.
De 3090 is ook de ultieme kaart. Dit is ook de kaart die developers, cad ontwerpers in hun PC's zullen gaan hebben.
Discutabel, iig voor CAD (en ook zakelijke omgeving) zijn Quadro kaarten vrij gangbaar.

Zelfs de 3090 biedt "maar" 24GB vram aan, daar waar de huidige (lees; vorige) generatie Quadro RTX 8000 je 48GB aan vram aanbied.

Ik denk zelf dat er erg veel 3070s en 3080s verkocht gaan worden gezien het prijspunt en performance, zeker gezien de aanzienlijk betere prijs-performance propositie dan de 2000 serie.
De RTX 3090 is dan ook de nieuwe TITAN, niet de nieuwe GTX 980. Maarja, prijzen zijn wel wat hoger geworden.
980 en 3090 zijn ook totaal niet vergelijkbaar he. Je moet de 980 vergelijken van toen met de 3080 nu en die kost omenabij de 720 euro.

3090 is de opvolger van de titan series. Als die vergelijkt is ook die prijs netjes.
Edit: zie dat RDR2 op 4K met ultra settings gemiddeld 66 FPS haalt (https://www.youtube.com/watch?v=o1fLf3UToX0), dat lijkt me toch wel heerlijk gamen
Zoals in de comments onder het filmpje al werd vermeld, dat is geen test met de nieuwe RTX3000 kaarten. Die zijn nog niet beschikbaar voor testen. Een clickbait titel voor wat "easy views"
De lijst met 2de hands 2080TI's wordt nu wel erg lang. Verbaas mij beetje over de prijzen die gevraagd worden.
Iedereen denkt waarschijnlijk nog de hoofdprijs te kunnen vragen totdat de nieuwe kaarten er zijn.
Vraag en aanbod.. als ze niet verkopen zullen ze wel zakken.
In de V&A van Tweakers zijn de prijzen vaak erg hoog, veelal kun je via Ebay het goedkoper krijgen vanuit het buitenland.
Vooral afdeling cpu is lachwekkend oude i7 uit 6000 reeks gerust nog 250 voor vragen daar koop je Amd Ryzen voor die veel sneller is en plus garantie
Sommige mensen hebben een i5 die niet meer mee kan, terwijl een i7 dat wel kan. Er is niet altijd geld voor een compleet nieuwe Ryzen PC, terwijl een verkoop van je i5 en de aankoop van de i7 je PC best weer voor lange tijd laat ademen. Zelf heb ik dat ook een paar jaar geleden gedaan met een i5 2500 en een i7 2600k. Die extra threads zijn immens in het huidige landschap.

En omdat de vraag naar oudere i7 processoren "hoog" blijft, blijft de waarde ervan redelijk goed bewaard.

[Reactie gewijzigd door SIMEUKER op 23 juli 2024 07:33]

Maar dan spaar je toch net even wat verder, en haal je dan gewoon een set die veruit beter is?
Ja daar kwam ik ook achter. Soms vragen ze nog zo veel voor oude meuk. Dan moet je echt de rest nog ergens hebben liggen. Anders je al snel even duur en soms goedkoper uit door het nieuw te kopen.
Inderdaad lachwekkend wat je soms voor prijzen voorbij ziet komen.

Veel mensen maken de fout om te kijken naar wat ze destijds betaald hebben voor de cpu en gaan daar dan een stuk onder zitten.

In plaats van dat ze kijken wat er momenteel voor die prijs beschikbaar is.
ik wacht daar ook op, als ze het voor 250-300 verkopen prima zou ik zeggen.
Maar nu nog rond de 600-800 vragen naah, no-way.

Maar er zijn nog veel mensen die het niet weten, die pas in hardware land terecht gekomen zijn, die zullen het wel normaal vinden.
De hoofdprijs valt wel mee hoor. Ik zie dat ze duidelijk gezakt zijn. Waar ze eerst soms wel 900 euro vroegen ligt dat nu al rond de 600, maar eerlijk is eerlijk, het is nog niet echt competitief ten aanzien van de nieuwe kaarten (vind ik).
Mensen willen die kaarten ook niet van de hand doen voor een habbekrats en zo onwijs veel verlies lijden op hun aanschaf van vorig jaar.

Waarom je een 2080ti nu al wil verkopen voor een 3080/3090 is mij overigens een raadsel immers speelt een 2080ti alles met 2 vingers in de neus af volgens mij maargoed.
Nieuwste van het nieuwste willen hebben denk ik?
Denk eerder een gevalletje van "als ik ze nu voor deze prijs kan verkopen, dan koop ik een 3000 reeks, zoniet houd ik de kaart nog een paar jaar bij, proberen staat vrij"
De 3080 of 3090 komt hier sowieso wel, maar ik ben niet overtuigd dat de 3070 de 2080ti gaat verslaan bij non-dlss/raytracing, dus ja wat moet je dan vragen, iedereen geloofd blind de verkooppraatjes en misschien kloppen ze misschien niet, maar ik wacht wel tot ik de vergelijking kan maken. Tot die tijd gewoon de hoofdprijs vragen, lig er ook niet wakker van dat ik nog steeds een 2080ti moet gebruiken :D

En dan laat ik de verkrijgbaarheid nog even buiten beschouwing, dat wordt vechten voor een nieuwe kaart straks, dat heeft Nvidia wel duidelijk gemaakt. De 2080ti is het enige echte alternatief als de 30xx niet leverbaar zijn!

[Reactie gewijzigd door watercoolertje op 23 juli 2024 07:33]

When the slide says RTX 3070 is equal or faster than 2080 Ti, are we talking about traditional rasterization or DLSS/RT workloads? Very important if you could clear it up, since no traditional rasterization benchmarks were shown, only RT/DLSS supporting games.

[Justin Walker] We are talking about both. Games that only support traditional rasterization and games that support RTX (RT+DLSS).
Bron: https://www.reddit.com/r/...es_you_asked_we_answered/
Ja de grafiek slaat dus beide, dat is het hele punt ook, dank je wel voor de onderbouwing.

Als dlss/raytracing dus een hardere boost hebben gehad (en dat suggereren ze zelf in de presentatie) dan komt die dus boven de 2080ti uit en de rasterization-games doen er dus aan onder!

Dat is het mooie aan gemiddelde als dat gelijk is en 1 van de individuele waardes gaat omhoog, moet er dus een andere waarde omlaag gaan om op hetzelfde gemiddelde uit te komen :)

[Reactie gewijzigd door watercoolertje op 23 juli 2024 07:33]

Dan moeten we inderdaad ook nog afwachten, en (ik ga er zo maar even van uit) als je zoals jij een blok van tegen de 100€ erop geschroefd hebt zitten, dan denk je ook een extra keer na voor je een kaart vervangt.
Waarschijnlijk ja..., ieder zijn ding.
Waarom zou je een prima functionerende auto willen inwisselen voor een nieuwe voordat je 100k kilometer op de teller haalt...

omdat na de 100k de inruilwaarde scherp begint te dalen.
Uhm nee,

De waarde van Auto's daalt het meeste zodra je bij de dealer weg rijdt.

Voorbeeld.

Mijn ibiza SC nieuwprijs 18k
2de hands gekocht 20.000km 4 jaar oud 9800,-

Verkocht 10 jaar oud 90k km 5.000
Schreef in 6 jaar dus de helft af van de eerste 4 jaar.
Hij zal zolang die gekeurd kan worden niet onder de 2 a 3 duizend komen.

Je kan auto's economisch het beste kopen na 4-6jaar en dan oprijden.(ik had hem niet meer nodig)
Als je een Ti hebt gekocht, vulde dat kennelijk een bepaalde behoefte of noodzaak. Als je hem nu weer verkoopt, dan moet je gewoon het verschil slikken.

Als ik een 2080Ti zou kopen, zou ik een paar weken wachten, meer dan 250 euro is het imho niet waard. Zou dan doorsparen voor een 3070.
Dat is absoluut waar.

Wat een prijsverschil zeg.. 1080t in mijn bezig.. die zou je eigenlijk voor max 150 moeten kunnen verkopen maar dat gebeurd ook nooit meer.
Spaar jij maar lekker door haha, voor een 3080 dan :Y)

https://m.hexus.net/tech/...ekbench-aots-scores-leak/

De 3080 is daar maar (bijna) 30% sneller in 2 benchmarks dan de 2080ti en op de hoogste setting maar 10% }>

En 250 voor een 2080ti, je hoopt het vast maar misschien over een jaar of 2, 400 op z'n minst zelfs als die maar even goed is als een 520 euro kostende (praktisch niet verkrijgbare) 3070 is...

[Reactie gewijzigd door watercoolertje op 23 juli 2024 02:31]

En als je hem al verkoopt moet je maar hopen dat je dit jaar een 3000 serie hebt. Ik denk dat de wachttijden erg lang zullen zijn.
Kwestie van vraag en aanbod. De lijst is lang ja, maar over het algemeen kun je ervan uitgaan dat de mensen die high end kaarten nu weg doen toch wel diepe zakken hebben en geen haast hebben met verkopen. Daarnaast zullen er een pak meer mensen die een 2e handse 20xx kaart willen overnemen, dit stuwt de prijs weer omhoog.
Als men hierover even zou nadenken... je gaat geen 600 euro neerleggen voor een gebruikte 2080ti of 2080 Super terwijl je nieuw een RTX 3070 kan krijgen met een vanafprijs van circa €550,-, een kaart die hetzelfde of zeer wss zelfs beter zal presteren.
Als je nu nog een RTX2080Ti koopt voor meer dan 500 euro, dan voel je je erachter flink belazerd.

De RTX3070 is zuiniger, waarschijnlijk ietsje sneller, heeft meer RT cores, en kan dus complexere scene's met raytracing aan, en wordt langer ondersteunt omdat het een nieuwere kaart is.
Als je nu nog een RTX2080Ti koopt voor meer dan 500 euro, dan voel je je erachter flink belazerd.
Of juist niet :)

Laten we de daadwerkelijke prestaties even afwachten, het is voor mij heel simpel, Nvidia zegt dan raytracing 2 xo zo snel is geworden, en dlss flink is verbeterd. Als dat waar is en de gemiddelde prestatie in games dus gelijk ligt met een 2080ti dan ligt ie bij non-dlss en raytracing games er dus flink onder en met dlss/raytracing er boven, anders kom je gemiddeld niet op hetzelfde uit :)

[Reactie gewijzigd door watercoolertje op 23 juli 2024 07:33]

Hoe je het ook draait en keert, de recente 2080ti kopers hebben momenteel een genaaid gevoel ... En niemand wil nog de redelijke marktwaarde betalen met dit nieuws. Of de kaart nu beter is of niet, ze zit in dezelfde orde met betere support voor RTX; voor 1/3 van de prijs.
Plus je hebt er een nieuwe garantie bij, ook wel wat waard! Realistisch gezien zou een 2080ti (zonder garantie nu niet meer dan 350-400 moeten opbrengen.. dat is toch wel een goede vooruitgang dan..

Want voor 450 betaal je liever 100 euro meer voor een nieuwere kaart met garantie lijkt me..

[Reactie gewijzigd door klaasraak op 23 juli 2024 07:33]

Dat bedoel ik inderdaad.
Ja ik zou inderdaad zeker geen 2080Ti kopen, ook niet 2e hands. Als ik iemand was die een RTX 2080Ti had gekocht, dan zou ik achteraf dan in ieder geval niet lopen zeuren dat ik me belazerd zou voelen; kennelijk zou ik het het waard gevonden hebben om die 2080Ti tegen zo'n prijs te kopen. Je kunt dan nooit weten hoe hard iets gaat droppen of niet, dus het zou dan een beetje verwend zijn als ik dan zou gaan zeuren over me belazerd voelen. Is hetzelfde als een gloednieuwe auto kopen die ineens 5K minder waard is zodra je de showroom uitrijdt. Dat heeft natuurlijk niet zoveel zin en dat weet je van te voren.

Ik weet dat het niet helemaal eerlijk vergelijken is, maar in 2015 heb ik een GTX970 FTW+ gekocht voor 319 euro 2e hands, en ik zit meestal in de 300 euro categorie videokaart. Vóór de GTX1000 serie kreeg je voor dat geld meestal wel een x70 kaart, die 3 of vaak zelfs maar 2 stapjes gepositioneerd was onder het flagship.
Sinds de komst van de 1000 serie kaarten, kun je voor dat geld geen 3 of 2 stapjes onder het flagship meer kopen. Een GTX1070(Ti) was altijd al boven de 400 euro, zelfs 2e hands werden er mijns inziens bijna nieuwprijzen gevraagd met de welbekende slogans "is nooit overgeklikt geweest" of "heeft altijd netjes op het bureau gestaan" (alsof dat het meer waard maakt....).
Het zijn wij, de zuinige hollanders die het onderste uit de kan moeten hebben, die ervoor zorgen dat de 2e hands markt zo duur blijft. Ja, deels vraag en aanbod en 'wat de gek ervoor geeft', maar goed, het is niet verboden, het mag gewoon, maar ik 'handel' dan blijkbaar op een andere manier en ik zou me nooit 400 euro voor een kaart vragen die 4 jaar oud is (GTX1080ti bijvoorbeeld), omdat ik dat moreel niet juist vind. Maar ieder heeft zijn eigen "kompas" bij verkopen/handelen.

Mijn verloop ongeveer en bijbehorende prijzen die ik heb betaald: FX5900Ultra (525 euro) -> 6800GT GS (485 euro) -> 7900GTO (250 euro) -> 8800GT GS (300 euro) -> GTX570 (310 euro) -> GTX970 (320 euro)

Ik kan nu in ieder geval niet meer in die 2-of-3-staps-onder-flagship vissen waar ik dat altijd wél kon en dát voelt niet helemaal "eerlijk", want alles schuift gewoon op naar boven en je moet het met steeds minder doen om het dan maar zo te zeggen.. Het gaat zich dan om bijvoorbeeld 1070 (Ti) destijds, een RTX 2070/RTX 2060...dat zit er gewoon niet in, misschien met een beetje geluk zou ik de RTX2060S kunnen krijgen voor dat geld 2e hands, maar met de 2e handsprijzen die men zich vraagt heb ik daar een hard hoofd in. Ik zou dan in 1 categorie lager kunnen vissen, en dat is de poule van de GTX 1660 Super (zit er nog iets tussen GTX 1660S en RTX 2060S in?) en dat zijn behoorlijk wat stapjes verwijderd van het flagship.
In the end zal ik moeten gaan kijken naar mijn wensen om 1440p gaming op minimaal 50-60fps aan te kunnen en dan ermee te dealen dat de kaarten die dat kunnen, zoals de RTX 2070S en misschien de RTX 2060S op medium settings, niet meer in mijn budget liggen. Tijden zijn veranderd, en we zullen erin mee moeten, of je moet 5 jaar wachten om dan een RTX 2070S voor 250 euro te kopen ;)
Maar je kan nu al een 2070 Super voor rond de 350 tweedehands krijgen? Dat is nou niet zoveel meer dan dat jij destijds voor je GTX970 FTW+ hebt betaald. Zou natuurlijk nog even afwachten wat die 2ehands prijzen gaan doen bij de introductie van de 3000 serie (en wellicht AMD's tegenbod), maar is dat dan niet ongeveer je performance wens voor het juiste budget?
Ja inderdaad, daarom was ik van plan om te wachten. 2070S voor 350 of eronder zijn nog erg schaars 2e hands. Als die RTX 3070 echt voor 519 euro uitkomt, dan is rond de 300 euro voor een 2070S dan eigenlijk ook niet meer zo valuable, want de RTX 2080Ti zal 2e hands dan toch echt best wat onder de 519 euro moeten komen (waarom anders niet gewoon een nieuwe 3070 kopen?). Dus ik schat in dat RTX 2080Ti's dan rond de 400-450 euro 2e hands zijn, en dan is 300 euro voor een 2070S wel wat prijzig 2e hands, want er zit een behoorlijk prestatieverschil tussen. Ik zou dan eerder verwachten dat de 2080S dan rond de 350 euro 2e hands gaat zitten.
Zou het voor je hopen. Vind ook dat de 2XXX series gewoon veel te duur waren voor de performance bump die je er voor terug kreeg. Heb dan ook rustig gewacht en op een 1080Ti blijven hangen. Enige echte upgrade was een 2080Ti en dat kost me toch wel een absurd bedrag voor veel te weinig echte performance.
Die (3070) niet beter is op 4K vanwege het videogeheugen. Dus iets meer betalen voor een 2080TI is dan begrijpelijk.
Volgens de "benchmarks" die er al zijn is dit niet het geval, prestaties op 4K zijn gelijk aan de 2080ti.
Er zijn nog geen onafhankelijke reviews, die komen pas 14 september.

De 2080 moest het op 4K ook afleggen tegenover de 1080TI omdat de 1080TI meer videogeheugen heeft.
https://youtu.be/3heu6kcbWBA
Dat weet ik, maar de bekende gegevens kunnen wel al naast elkaar worden gelegd. Maar sowieso, dan kan jij ook nog niets zeggen over hoe 4K zal presteren ;)
+Dan heb je ook weer de volledige garantie bij je nieuwe kaart ;)
Kans is aardig aanwezig dat die 3070 en 3080 redelijk snel door de voorraad zijn, daarmee automatisch een 2080ti als goed alternatief hebben, dus kan je daar nog even op meeliften.

Ik wacht rustig eerst de kritische reviews af, de 2x dat ik met coilwhine heb gezeten is niet leuk meer.
Iedereen wil voor een dubbeltje op de eerste rang zitten daarom worden tweehand 2080's voor nieuwprijs verkocht |:( 8)7 - Lijken wel bmw gs rijders.. dure fiets kopen maar niet voor onderhoud willen betalen.
over RTX 3000 gesproken. Wat is nu het stroomgebruik? Heb je inderdaad een nieuwe connector nodig? Hoeveeel performance loop ik mis met PCIe 3?

EDIT: kom er et achter dat de embargo pas volgende week maandag eindigt. Dat wist ik niet en daarom stelde ik de vragen. wil je reactie aub niet de hel in minnen

[Reactie gewijzigd door Neon Noodle op 23 juli 2024 07:33]

Volgens YouTubers JayzTwoCents, is de TDP van de kaarten wel fors hoger stroomverbruik moeten we nog even afwachten inderdaad maar zal waarschijnlijk dus ook wel een back hoger zijn door de hogere TDP.

Nieuwe connector zit voorlopig alleen op de Founders Edition kaarten de meeste zo niet alle AIB's gebruiken de traditionele PCI-E power connectors volgens Jay.

Performance verschil tussen PCIe3 en 4 is hoogst waarschijnlijk verwaarloosbaar, als er al een verschil is praat je over hele kleine verschillen 1-2% omdat de de PCI-E 3.0 bus nog niet verzadigd wordt.
hmm ok. ik zat me al half druk te maken dat ik een compleet nieuwe PC moest bouwen. ik heb nu een 500watt psu. ik denk dat ik dat wel moet upgraden dus. ik wil graag van de 1060 naar de 3080
Ja, die 500W PSU zou je indd best wel upgraden naar iets van een 700W of 800W, afhankelijk van je andere componenten.
Zoals lager vermeld, 3080 reference stroomverbruik 320W.
Moeten we in reviews nog zien hoe dit loopt in de testen, maar ik zou verwachten dat met boost dit wel kan oplopen.
Ik heb ook maar een mooie semi-passieve 750W aangeschaft laatst, wat ik las moet dat voldoende zijn voor een 3080.

Al heb ik mijn 970 ook op een 700W draaien al die jaren, was achteraf misschien wat overkill.
Wat ik heb begrepen is dat bij de founders edition je die nieuwe connector nodig hebt, maar dan zit er wel een verloopkabeltje bij. En bij de custom kaarten is het gewoon 2x 8pin
Ik heb geïnformeerd bij CableMod en zij geven aan dat ze over zo'n 2 a 3 weken custom 12 pins kabels kunnen gaan leveren voor de verschillende PSU's
onbekend, ligt aan de toepasing.
nee,
geen.

[Reactie gewijzigd door flippy op 22 juli 2024 17:17]

Van wat ik heb kunnen vinden:

Stroom verbruik van de verschillende kaarten zijn voor de FE als volgt (Nvidia site, https://www.nvidia.com/nl...d=gf73_nv-int-bnr_nl-nl):
- 3090 = 350
- 3080 = 320
- 3070 = 220

Het stroom verbruik zal zich aanpassen afhankelijk van welke toepassing zich afspeelt op de PC tijdens gebruik. Ik denk ook niet dat dit al te verkeerd zou moeten zijn afgaande van de nieuwste video van Linus Tech Tips waar dat ze uitrusting hebben gekregen om de actuele wattage te meten van eender welke PCIE kaart en waar de 2080 Ti die wordt vermeld als hebbende een stroomverbruik van 250 tijdens het gamen wel degelijk daar rond zweeft.

Nieuwe connector is alleen toepasselijk op Founder Edition kaarten, AIBs zullen deze niet hebben. Founder Edition kaarten komen met een adapter voor bestaande 2x8 pin configuraties (afgaande van de Digital Foundry Preview)

PCIe 3 vs PCIe 4 is een moeilijk iets om te meten op het moment, dus is het best afwachten tot reviews die deze in kaart brengen. Speculatie op het moment is dat deze mogelijks single digit percentage van performance zouden moeten verschillen voor nu.

[Reactie gewijzigd door WaffleDealer op 23 juli 2024 07:33]

Even in mijn glazen bol kijken.

Oh nee... toch maar even de reviews afwachten.
Heb het idee dat deze generatie videokaarten een gigantische boost gaan geven in de performance voor PC spellen. De 'oudere' generatie kaarten wordt op een grote achterstand gezet. Allemaal veroorzaakt door de nieuwe console generaties uiteraard.

Waar ik benieuwd naar ben is het stroomverbruik van bijv. de 3080. Als je een beetje alles op max speelt (1440p, 144hz) kan je volgens mij zo 500 watt (systeem+gpu) uit je stopcontact trekken. 2 uurtjes gamen = 1kw = ongeveer 22 cent. Maar goed als je 750 euro aan zo'n kaart uitgeeft moet dat geen probleem zijn. :P
22cent voor twee uur gamen is toch te verwaarlozen. Zeker als je het afzet tegen je huidige verbruik. Knappe jonge als je dat terug ziet op je stroomrekening.
Ja en het scheelt met deze nieuwe generatie ook weer geld in verwarmingskosten, dus uiteindelijk is het wel iets goedkoper dan die 22 cent ;)
500 watt lijkt me wel heel veel
momenteel neemt mijn i7 9700K (niet overclocked) + 2080 (wel overclocked) minder dan 300 watt op full load
ik verwacht dat mijn systeem met een 3080 en onder full load nog steeds onder de 400 watt blijft
pro tip: undervolten van je grafische kaart is iets dat een grote besparing kan opleveren
dit zijn de settings van mijn 2080: http://users.telenet.be/dropbox/MSI%20OC%20RTX%202080.png
dus: overclock mét undervolt
nog een pro tip: frame limiters gebruiken in games waar je geen 100+ fps nodig hebt, bvb WoW

[Reactie gewijzigd door SideShow op 23 juli 2024 07:33]

Als je op je stroomkosten moet letten dan ben je beter af zonder gaming PC. Wie speelt er nu zoveel uur per dag dat het een significant verschil zou geven op je factuur, dat gaan er weinig zijn. En diegene die zo veel uur per dag kunnen gamen gaan naar school en de ouders betalen de factuur.

Ik zou mij eerder zorgen maken om de warmte. Ik heb hier nu ook een 2080ti, hiervoor een Vega 64 en in de zomer wordt dat wel een probleem op het bureau. Ik zal eens moeten investeren in een airco denk ik...
Anoniem: 474132 9 september 2020 11:00
Wat voegen deze kaarten wezenlijk toe aan de gameplay? Is dat het enorme bedrag waard?

Innovatiegehalte lijkt me laag in verhouding tot de prijs. Kan me de introductie van de 3dfx kaarten nog herinneren. Dat was zeker een wezenlijke stap tov de toen heersende 2d kaarten als Matrox Mga, tsenglabs et4000 en Oak :)
Wat voegen deze kaarten wezenlijk toe aan de gameplay? Is dat het enorme bedrag waard?
Tja hangt net af wat voor gamer je bent, het is een hoop geld maar met meer game-uren dan werkuren per week is dat het meer dan waard.

Wat er op voorruit gaat is meer performance, die je zelf in kan delen in de settings, wil je meer kwaliteit of meer FPS, hogere resolutie, Raytracing.

uiteraard wordt de performance per dollar wel fors lager naarmate je naar het duurdere segment gaat, dat is gewoon een nichemarkt (mede door de prijs natuurlijk).

Is het nodig? Misschien niet, maar wat is nou wel echt nodig in het leven, een dak, eten en zuurstof.
Als dat je benchmark is heeft geen enkele kaart daarna de impact gehad zoals 3dfx. Het is altijd beter en sneller geworden maar niet opeens 4d of 5d of 7d uit je beeldscherm.

Maar de stappen die deze kaarten zetten t.o.v. de vorige generatie zijn gewoon goed. En met een redelijk prijsje zorgt het ervoor dat ik mijn 1060 ga upgraden.
Zullen we ooit weer een dergelijk paradigmashift meemaken? Denk dat het pas komt als er een nieuwe manier van "graphics wiskunde" komt, wellicht dat het raytracing wordt.
Hoe zit het nu werkelijk met het aantal sloten dat een kaart vergt?
Het ene merk spreekt van 3 sloten bij een 3080, op de website van NVidia staat 2 sloten.
Wel fijn dat je ergens vanuit kunt gaan voordat je wat aanschaft.
Dat ligt helemaal aan de specifieke kaart. Het kan bijvoorbeeld zo zijn dat de 3080 van asus door de dikke koelers een 3 slots kaart is, terwijl de 3080 van gigabyte minder dikke koelers gebruikt en daardoor een 2 slot kaart is. Dit is dus per kaart verschillend.
Het staat er bij die fabrikanten op hun website toch altijd bij. Ik snap je probleem niet , hoe werkelijk wil je't hebben ? 't is niet zo dat een fabrikant meldt dat het 2 sloten vergt en dat het in je PC 3 sloten gaat vergen.

Het enige waar je moet op letten is als je'n andere pcie kaart steekt, dat dat slot dan vrij is op je moederbord. Of als je een nvme disk neemt met heatsink, dat die niet te hoog uitkomt en zo misschien het PCB van je videokaart zou kunnen raken waardoor je je kaart niet in zijn slot op het moederbord krijgt...
De eerste weken of maand laat ik dit wel allemaal langs me heen gaan, want de kaarten zijn door aanbod gebrek toch niet te betalen zoals dit bij elke nieuwe release van Nvidia het geval is.

De Nvidia Titan kaart was al een niche product, maar met al die RTX 3090 die ik in de webshops zie verschijnen vraag ik mij echt af of men echt denkt dat deze kaarten zo massaal verkocht gaan worden. Ik weet niet hoeveel titans er verkocht zijn of RTX2080 Ti kaarten, maar de nieuwe RTX 3090 is nog even €300-€400,- duurder dan de 2080Ti. 8)7

Ik wacht wel lekker op de kaarten die een beetje prijs kwaliteit hebben, of ik ga voor een nieuwe console. Deze bedragen zijn gewoon belachelijk en iedereen die een RTX 3090 koopt moet zichzelf toch echt eens te rade gaan of men een bedrijf wil sponsoren die zulke bedragen durft te vragen voor een grafische kaart. Deze kaarten zijn duurder dan 80% van complete systemen die verkocht worden. :|
Het hele punt van zo'n flagship product is de hoge prijs. Zodat het een fantasieproduct wordt, waar de meeste mensen alleen van kunnen dromen. Mensen die ze wel kunnen kopen kunnen er mee opscheppen.

Dat is de waarde van zo'n kaart maken voor nVidia, het gaat er niet om om winst met de top kaart te maken. Dat doen ze met de budgetkaarten. Maar het feit dat ze een superdeluxe kaart hebben met de beste performance betekent voor veel mensen dat nVidia het superieure merk is, en dus dat ze dat merk dus moeten hebben. Ondanks dat ze maar een 3050 of 3060 kunnen betalen.

Vergis je niet hoe belangrijk het concept 'merkbeleving' is voor elektronica en gadgets. Ook al ben jij het er niet mee eens en kijk je naar de prijs/performance, genoeg anderen die er wel in trappen.
Dat hoef je mij niet uit te leggen dat begrijp ik allemaal wel, maar je vergeet een ding. De vorige top kaart werd enkel en alleen door Nvidia zelf geleverd. Het gaat hier om de RTX Titan. Want daar is de RTX 3090 prijstechnisch mee te vergelijken. De RTX2080TI is niet de kaart waar je deze top kaart prijstechnisch mee moet vergelijken, toch positioneert men deze kaart blijkbaar nu wel zo.

Er zijn tal van third party developers aan de haal gegaan met de RTX 3090, wat ik nogal vreemd vind als deze kaart de absolute top zou zijn. Al deze merken zullen moeten gaan concurreren om een kleine high end markt, terwijl ze ook nog een of meerdere varianten beschikbaar maken van deze kaart. 8)7

Uiteindelijk zijn er niet heel veel reference kaarten die Nvidia na een paar maand nog verkoopt. De meeste kaarten worden vooral verkocht door merken als Asus, MSI etc. Ik vindt het dus een vreemde stap dat Nvidia en ook van deze merken die nu allemaal gaan concurreren voor zo'n kleine high end markt.
de recente steam-survey ondersteund die schets zo te zien nog steeds.

NVIDIA GeForce GTX 1060 --- 10.75%
NVIDIA GeForce GTX 1050 Ti --- 7.48%
NVIDIA GeForce GTX 1050 --- 4.85%
NVIDIA GeForce GTX 1070 --- 3.82%

nu pak je met de steam-survey natuurlijk niet 100% van alle gebruikers, maar het dekt wel een aanzienlijk aantal.

het ligt denk ik in de lijn der verwachting dat een 3060-type kaart wéér het segment gaat worden waar er om de klant gevochten gaat worden (mits AMD met een alternatief komt)

[Reactie gewijzigd door Zephyr op 23 juli 2024 07:33]

Ouch gezien de zwakke dollar had ik eigenlijk wel scherpere prijzen verwacht. Die 3090 is nu helemaal idioot duur rond de 1600 euro 8)7
Ja wat een geld he!
Nou heb ik zelf wel al met de 3080 dat dit als een overkill voelt. Zou niet weten waarvoor ik een 3090 zou moeten hebben. +- €750 voor een 3080 vind ik nog wel verantwoord :9
Als je bv 8K wilt gamen of 4K met hele hoge framerates.
Of specifieke rendering / 3d moddeling taken. Die 3090 is ook meer een pro kaart dan alleen puur gaming gericht. Beetje wat de Titans ook zijn.

Op dit item kan niet meer gereageerd worden.