Gerucht: Nvidia kondigt rond 9 september zijn GeForce RTX 3000-videokaarten aan

Volgens geruchten is Nvidia van plan om op of rond 9 september zijn aankomende GeForce-videokaarten te presenteren, die vermoedelijk worden uitgebracht in de RTX 3000-serie. Deze gpu's zijn gebaseerd op Nvidia's Ampere-architectuur en zullen de huidige RTX 2000-kaarten opvolgen.

De informatie is afkomstig van YouTube-kanaal Gamers Nexus, dat zich baseert op board-partners van Nvidia. Prijzen van de komende videokaarten zijn nog niet bekend. De bronnen van Gamers Nexus benoemen niet welke RTX-modellen Nvidia uit de doeken zal doen. De afgelopen jaren presenteerde Nvidia eerst zijn meer high-end gpu's, zoals het bedrijf dat bijvoorbeeld deed bij de aankondiging van de RTX 2080 Ti, RTX 2080 en RTX 2070. Mid-range-varianten, zoals de RTX 2060, volgden dan enkele maanden later.

Volgens anonieme bronnen van Wccftech komt Nvidia in eerste instantie met vervangers voor de 2080 Ti, 2080 Super en 2070 Super, die later in september op de markt moeten komen. Een releasedatum voor een 2060 Super-vervanger wordt daarbij nog niet genoemd. Wccftech publiceert vaker informatie over onaangekondigde hardware, maar de juistheid daarvan is wisselvallig. Deze informatie dient dus met een korrel zout genomen te worden.

Die videokaarten zouden volgens Wccftech beschikbaar komen met verscheidene hoeveelheden videogeheugen. De meest high-end videokaart zou bijvoorbeeld beschikken over 24GB aan vram. Ook zou de gpu-fabrikant met een videokaart met 20GB aan geheugen komen; eerder deden al geruchten de ronde over een dergelijke gpu. Een 2070 Super-vervanger zou beschikbaar komen met 8 of 16GB aan videogeheugen, terwijl een 2060 Super-vervanger 8GB zou krijgen.

Eerder deden verder geruchten de ronde dat Nvidia zou stoppen met de productie van zijn RTX 2070 Super-videokaarten. Dit is volgens de bronnen van Gamers Nexus incorrect; enkele van 'de grootste videokaartfabrikanten' bestellen nog steeds RTX 2070 Super-gpu's bij Nvidia en videokaarten op basis van deze chip worden momenteel nog geproduceerd.

Vermeende Nvidia RTX-3000-line-up*
Board-id Vervanging voor Videogeheugen Geheugenbus Mogelijke releaseperiode
PG132-10 RTX 2080 Ti 24GB 384-bit Tweede helft september
PG132-20 RTX 2080 Super 20GB 320-bit Eerste helft oktober
PG132-30 RTX 2080 Super 10GB 320-bit Medio september
PG142-0 RTX 2070 Super 16GB nnb nnb
PG142-10 RTX 2070 Super 8GB 256-bit Tweede helft september
PG190-10 RTX 2060 Super 8GB 256-bit nnb

*op basis van onbevestigde geruchten van Wccftech

Door Daan van Monsjou

Redacteur

09-08-2020 • 16:12

283 Linkedin

Submitter: JWL92

Reacties (283)

Wijzig sortering
bij techradar hebben ze nog een leuke toevoeging met memory en speeds:
Meanwhile, a massive leak from Moore’s Law is Dead reveals a GA102 GPU that will theoretically be Nvidia’s top-end Ampere consumer offering. It’s highly likely going to be named the RTX 3080 Ti, which we may also have already caught a glimpse of, thanks to Asus.

This graphics cards looks to be an out-and-out beast of a graphics card with hugely fast boost clocks of up to 2.2GHz, offering 21 TFlops of raw performance, 18Gbps video memory – 864GB/s of memory bandwidth, around 40% more than the 2080 Ti (at 616GB/s), and PCIe 4.0 support.

More recent rumors, however, do point towards the Nvidia GeForce RTX 3080 Ti having a massive 627mm² die, adding weight to the rumors that Nvidia Ampere GeForce GPUs will be based on Samsung's 8nm node, instead of TSMC’s 7nm process.

Other lesser graphics cards in the 3000 range have been revealed as well, and they may push those boost clocks to 2.5GHz. The RTX 3070 and RTX 3070 Ti are allegedly going to be built on the cut-down GA104-300 and the GA104-400 respectively. The RTX 3070 will purportedly have 2,944 CUDA cores (the same as the existing RTX 2080), along with 8GB of GDDR6 video memory. On the other hand, the RTX 3070 Ti will up the ante to 3,072 CUDA cores and have GDDR6X memory.
Ik zit wel te wachten op een 3080Ti, vraag me af wat dat moet gaan kosten... Zal wel rond de 1200 zijn?
Lijkt mij wel, zullen wel de normale prijzen gaan aanhouden.

Ben alleen een beetje bang voor de founder editions uit ervaring vinden deze het nog wel eens leuk om slecht te werken. Staat natuurlijk wel leuk.
Met deze die size gok ik op 1500 euro.
Ik vertrouw die Moore's law is Dead gast zover als ik hem gooien kan (dat is niet ver), iets aan zijn lichaamstaal schreeuwt con-artist.
Gewoon nog even wachten op de release info van NVidia. Dan pas weet je zeker dat je betrouwbare informatie hebt. ;)
Nog beter, gewoon wachten op reviews :+
De aftermarket coolers maken de kaarten toch pas interessant. Dan kunnen er intussen reviews geschreven worden. De default zal wel herrie maken als een stofzuiger, en uiteindelijk wordt-ie 10% sneller de allerlei fabrikanten. We kunnen met extrapolatie al wel redelijk verwachten wie met wat gaat komen. ;)

[Reactie gewijzigd door hooibergje op 10 augustus 2020 21:34]

Is dit als doorsnee consument al echt nodig, quasi alles gaat ontwikkeld worden met de ps5 in gedachten zou ik zo denken. Waarvoor dit dus overkill is.

De meerwaarde lijkt me dan ook zeer beperkt buiten voor de echte die hards, zelf heb ik nu een rtx 2080 wat al redelijk 'die hard' is op zich maar ik zie eigenlijk nog geen reden om te upgraden.
Kijk wat ~20 jaar terug normaal was voor de doorsnee consument. 640 x 480 whoop whoop! :p
Je maakt sowieso een kromme beredenering. 'De doorsnee consument heeft het niet nodig dus de meerwaarde voor die hard gamers is zeer beperkt'.
Daarin noem je twee verschillende doelgroepen met ander budget & behoeften. Trouwens - de tijd dat videokaarten alleen voor games worden aangeschaft is ook voorbij. Grafische kaarten worden ook gebruikt bij videobewerking en ander rekenwerk. Dat geeft elke verbetering van videokaarten meerwaarde. Niemand kan universeel zeggen of een verbetering meerwaarde heeft of niet - dat is aan de consument voor zichzelf te bepalen.

4K 120hz en alle settings ultra terwijl je op de achtergrond een video converteerd. Dat klinkt nu quasi-onmogelijk maar ooit zal de doorsnee consument vragen om componenten die dergelijke rekenkracht hebben. Of wat denk je van twee gebruikers op èèn PC, elk met een eigen muis/toetsenbord/monitor? Allemaal mogelijk maar nog(!) niet gangbaar.

Tot slot - elke iteratie maakt dat developers applicaties kunnen ontwikkelen die voorheen te zwaar waren. Dat alleen al geeft naar mijn mening elke verbetering bestaansrecht.
Anoniem: 562971
@Kuusje9 augustus 2020 17:31
1 x Voodoo 3DFX 8mb kaart..... NEE WACHT!! 2 x Voodoo 3DFX kabeltje ertussen en.... tja daarvoor nodigde je de buurman uit ;)
Voodoo :) waar is de tijd dat de computer nog iets leuk was en nog niet tot het meubilair behoorde😬
Volgens mij doe je iets verkeerd als de computer niet leuk meer voor je is.
Anoniem: 562971
@Remenic9 augustus 2020 19:20
De tijd dat ze nog rechthoekig en wit/geel waren, daar doelt @extremezz op :)
Haha toch niet, wil gewoon zeggen dat een pc zoals een gsm ondertussen een gewoon gebruiksvoorwerp is geworden. Vroeger in de jaren 90 was een pc hebben niet zo vanzelfsprekend en koste ook meer , maar het was een soort nieuwe wereld of ontdekkingsreis . Denk dat alleen mijn generatie dat zal snappen lol als 40er😬.
Denk dat alleen mijn generatie dat zal snappen lol als 40er😬.
En ik als bijna 50er :)
Voor velen inclusief mij is dat niet veranderd hoor. Heb nu alleen ook daadwerkelijk de poen om all out te gaan
Vroeger in de jaren 90 was een pc hebben niet zo vanzelfsprekend en koste ook meer...
Tja, daar weer voor was het ook niet zo vanzelfsprekend dat thuis een TV stond... Zo kun je wel aan de gang blijven... ;) De radio... Telefoon... You name it.

[Reactie gewijzigd door CH4OS op 10 augustus 2020 00:04]

Ik als 50+ heb alles zien komen, vanaf de kleuren tv tot de vhs recorders etc. en ja ik heb nog steeds een relatief oude videokaart, maar kan alles dat ik speel er nog mee doen.
Echter zodra deze pc niet meer volstaat ga ik vanzelfsprekend naar een huidig actuele setup . dus ja relevant.
Ja, maar het is gewoon raar om te zeggen dat iets niet nodig is, omdat het huidige toch volstaat. Volgens die redenering zou 640k ook nog voldoende zijn.
Voor mij is het nu zelfs andersom, met alle technieken van tegenwoordig (smartphone, tablet, ChromeCast, laptop van de zaak) heb ik de laaste jaren mijn PC steeds minder gebruikt, terwijl ik er daarvoor elke dag wel een paar uur achter zat. Nu nog 1 a 2 dagen per week denk ik.
Correct...
Mijn eerste veredelde typemachine was een 286 van Philips ( NMS9100), met een okerkleur monochroomscherm.
Was een 2e handsje en kostte me toch 1000 gulden.
Daarna een nieuwe 486 dx2/66 met vesa local bus en een whopping 4MB Ram... HP deskjet 520 erbij en ik was 2560 gulden verder..
Daarna nog een paar keer vernieuwd en rammel nu op een Lenovo ideapad S540 met i7, 1650 qmax, 12 GB ram en 1 TB SSD. €1149 was de schade.. Hier doe ik wel weer een paar jaar mee, tenzij MSFS2020 beroerd draait maar daar ben ik nog niet zo bang voor.
Oh ja, hier 53 op de klok:-)
Denk dat je vooral bedoelt dat het tegenwoordig voornamelijk laptops zijn die worden gekocht en steeds minder desktops en al helemaal geen towers meer ;)

Heb zelf onlangs mijn oude tweede generatie Core i7 2700K systeem vervangen voor een Ryzen build met 3700X, MSI Mortar B550M, en 2x 16GB G-Skill Ripjaws geheugen. Gewoon in dezelfde (stille) Antec kast met geluidsisolerende wanden, want die is prima.

Alleen de videokaart (antieke ATi Radeon HD5770) heb ik nog niet vervangen omdat ik eerst de nieuw Nvidia lijn wil afwachten. Ik wilde eerst een 2060 Super of een 2070 Super gaan halen als die wat in prijs zouden zakken. Aangezien dat niet (of nauwelijks) gebeurt wacht ik liever op een 3060 of 3070 Super als die ongeveer gelijk geprijsd gaan worden.
Met een ellendikke handleiding erbij ^^
Ah toen er nog een turbo knop en slot op zat.
Precies want pc's bouw je zelf, die koop je niet kant en klaar. NOOIT
Dat weet jij, dat weet ik, maar dat wist men in de tijd van de Pentium 75 nog niet :P
Euhm is het niet andersom?

Ik herinner me dat destijds je computer juist wél tot het meubilair behoorde omdat je een flink bureau nodig had voor je kast, toeter, printer etc. terwijl vandaag de dag je mini behuizingen hebt, laptops/tablets gemeengoed zijn en zelfs high-end PC's in stijlvolle kleine behuizingen passen die je overal kunt neerzetten meer als een stuk 'kunst' dan een 'meubelstuk'. :P
NEE WACHT!! 2 x Voodoo 3DFX kabeltje ertussen
Waardoor je (met 2x Voodoo2) een maximale resolutie had van 1024x768 met 16 bit aan kleuren. Dat moet wel het toppunt zijn geweest. ;)

Overigens was 2x Voodoo2 niet voor de doorsnee consument. Daarvoor moest je echt wel een enthousiasteling zijn.
[...]
Overigens was 2x Voodoo2 niet voor de doorsnee consument. Daarvoor moest je echt wel een enthousiasteling zijn.
Ach je was jong, en als er op de doos van de game 3DFX stond dan.... tja :)
ja ooit wat ik nog jong, 16 jaar oud 3 computers en 6 voodoo2's... mooi zo'n jeugd waar alles nog kon omdat je thuis woonde. Tegenwoordig echt het geld niet meer voor!
Mijn hemel, takes me back.

Ik had van mijn eerste bijbaantje een Diamond Monster 3D II gekocht, was helemaal de shit met Quake.
VGA (640x480) is iets langer geleden hoor :+
Rond de eeuw wisseling was 1024x768 volgens mij ondertussen normaal. De enthousiastelingen zaten toen al op 1600x1200.
Aah altijd een fijn begin van de week. Even een reminder dat ik echt oud word. Thx :+
Ja ik voel dat ook al, om maar te zwijgen over de muis die nog niet optisch was maar met een balletje _/-\o_ .
Staan je harde schijven wel in Master/Slave? Laat Github het maar niet horen :p
Goed geheugen, dat klopt wel ongeveer ja.

Volgens Wikipedia:

640 × 480 × 16 color resolution that was easier to read and thus more useful for office work. It was the standard resolution from 1990 to around 1996. The standard resolution was 800 × 600 until around 2000.
Is rond de tijd dat ik elke week met een groep vrienden een lanparty had waar ik met mijn eerste van mijn eigen verdiende geld gekochte pc naar toe ging, dus dat helpt om die periode nog goed te weten ;)
Nog maar niet te spreken over de toepassingen welke niet op de next gen consoles beschikbaar zijn bijvoorbeeld VR met 2x4K resoluties, multi monitor support, ultra wide 21:9 resoluties. Resoluties en refresh rates boven de 4K120hz.

En dan nog maar niet te spreken over alle compute toepassingen (non-gaming) waar over het algemeen dezelfde chips voor worden gebruikt.
Een min 1 krijgen is inderdaad overdreven en niet de bedoeling. Je reactie is on topic dus een -1 is onverdiend!

Laat je niet uit het veld slaan door reacties. Meningen zijn altijd waardevol maar als je erg stellig bent stel je je open voor tegenargumenten.
Van mij mogen ze dat plusjes en minnetjes beoordelingsgedoe er uit halen. Ik vind het niet echt Tweakers waardig.
Wat een onzin. Ik kan niet wachten op een upgrade van de 2080Ti. Zeker in VR is er nog veel te winst te boeken. Daarnaast zullen 4K gamers ook zitten te wachten op een upgrade.

Ik kijk erg uit naar de 30 reeks, ben bijzonder benieuwd naar de benchmarks. Een flinke boost van het VRAM lijkt me prettig, hoewel het verschil tussen mid-markt (8GB) en 3080TI met 24GB wel erg groot is. Ben daarom wel benieuwd welke software die 24gb echt gaat benutten.
Ik zou het nogal aparte hoeveelheden geheugen vinden. Een 8GB lijkt me voor een RTX2060 opvolger wel prima, maar voor een 2070S opvolger zou ik verwachten dat je eerder naar de 10-12GB gaat. 16GB is echt overkill hier, maar 8GB zou weleens krap kunnen zijn in de toekomst.

Maar we moeten het maar gaan zien, de geruchten over ruim 300W TDP voor RTX3080s en hoger hoop ik ook dat onjuist zijn.

@kristofv Het probleem is dat jij kijkt vanuit je eigen oogpunt met een RTX2080. Maar als je een GTX1070/GTX1080 hebt bijvoorbeeld, wil je nu juist wel gaan upgraden.

[Reactie gewijzigd door Sissors op 9 augustus 2020 16:42]

Nou, nee hoor. Ik heb een gtx1080 en heb nog nergens last van. Nou komt dat wel omdat ik niet de nieuwste games speel en meer de wat oudere spellen, maar mensen zoals ik kunnen nog prima de 3000 generatie overslaan.

Speelde gisteren even Borderlands 3 omdat het nu gratis is op Steam en op 3440x1440 met alles op high haal ik nog een stabiele 40+ fps zonder drops. Zo kan ik nog wel meer games noemen die nog prima spelen als je niet alles op ultra zet, maar high is zeker nog haalbaar.

Zeker als de nieuwe generatie kaarten weer zo achterlijk duur gaat worden is het niet de moeite om te upgraden. Zelfs de 2080(ti) zou ik dan niet gaan halen als de 3000 serie uitkomt. Het prestatieverschil tussen een 1080 en 2080 vind ik het voor die prijs niet waard.
Het feit dat je 40+ fps noemt als blijkbaar goed genoeg geeft ook al wel aan dat je niet echt de doelgroep bent voor het nieuwste en beste...
Mijn 2080 zat volgens mij op dezelfde resolutie rond de 100 fps (tijdje geleden dat ik het gespeeld heb wel). Maar wel pas nadat ik hem op dx12 gezet had, die doet het veel beter als je dikker in je gpu power zit dan cpu power (in Borderlands 3 bedoel ik dan).
40fps ... tja dan zijn we snel uitgepraat. Op 3440x1440p en high quality (wat natuutlijk verschilt per game) vind ik een stabiele 60fps al compleet ontoereikend en komt het nog erg vaak schokkerig over.

Dus ik zou best wel een boost willen, maar die prijzen van Nvidia zijn gewoon compleet van de pot gerukt.
Tja, zoals ik zeg speel ik niet meer heel vaak nieuwe spellen op PC. Als ik wow speel ofzo dan heb ik 100+ fps met alles op max :P

Mijn scherm heeft G-sync dus met Borderlands 3 op die 40+ fps blijft het stabiel draaien. Voelt voor mij gewoon vloeiend aan en heb geen last van schokkerige situaties.

Welke spellen speel je dan? 60fps op 3440x1440 lijkt mij in veel gevallen prima.
Ik speel allerlei, maar neem gewoon Battlefield 5 als referentie 6o Fps op 1440p en dat voelt heel stroperig aan.
Met de textures die gepaard gaan met 4K lijkt me 16GB geen overkill. Ik denk dat 4K ook het mikpunt wordt van Nvidia met de 30xx-serie. Daarnaast worden de high-end desktop-GPU’s ook steeds meer ingezet voor algemene rekentaken waar (video)geheugen vaak niet groot genoeg voor kan zijn.
Dat laatste zou eerder een reden zijn voor Nvidia om geen consumenten kaarten met zoveel geheugen aan te bieden, die professionele markt wil je namelijk ook naar je veel duurdere professionele lijn krijgen.
Akkoord!

Ik vermoed dat er zal gekeken worden naar de combi ssd + voldoende vram voor een scene in de consumenten line-up. Waarbij de idee van PS5 naar de computer overgebracht wordt. Op korte termijn door aan te moedigen een ssd te gebruiken voor de game library en via sofware het beste eruit te halen. Op lange termijn kunnen ze mogelijks een SSD in de GPU integreren voor deze techniek.

Kunnen ze de hoge vram nog steeds als aparte professionele branche houden voor hun Quadro's. Waarbij 3D berekeningen en andere professionele doeleinde waarbij alle data continu vlot bereikbaar moet zijn ipv. slechts een beperkt deel voor games :)
De consoles krijgen beide volgens mij een extreem snelle ssd waardoor textures on demand laden vrij snel gaat. Bij de PC kan je daar niet vanuit gaan en kan het dus verstandig zijn die te preloaden op (het geheugen van) de videokaart. Of je loopt het risico texture pop-in te krijgen en dat leidt mij in elk geval enorm af. Met meer geheugen kan dus dergelijke problemen voorkomen. Maar het is natuurlijk wel een beetje glazen bol werk.
Ik kan me niet voorstellen dat men op de PC een SSD niet als vereiste mee gaat geven. Die dingen zijn al tien jaar gemeengoed in gaming PC's behalve bij de allergrootste schrapers. Een flink percentage gamers hadden al een SSD ten tijde van de PS3, consoles zijn inmiddels twee generaties verder, een DX9 videokaart wordt ook niet meer ondersteund.

Ik denk overigens dat men met name wil richten op content creators. Het zal nVidia vast steken dat Digital Foundry z'n video's maakt met een Radeon VII omdat de performance daarvan vele malen beter is dan dat van een 2080ti.
Een SSD kan ook Sata 3 zijn, dan haal je max 600MB/s. De PS5 SSD doet 5.5GB/s en die van de Series X tegen de 4. Dat haalt mijn NVMe niet eens... Daarom zei ik ook extreem snelle SSD. :)

En het zal best dat content creators er ook profijt bij hebben, maar ik zit al minimaal een half jaar met smart te wachten totdat de 30xx uitkomt. De 2080(ti) is niet genoeg vooruitgang t.o.v mijn 1080ti (en ja, die heeft het nu soms (te) zwaar).

[Reactie gewijzigd door MN-Power op 10 augustus 2020 09:53]

is wel af te wachten hoeveel daarvan waar gaat zijn.
Die snelheden van de SSD's in de consoles zijn netjes, maar blijft theoretisch. Wat is de realistische snelheid bij normaal gebruik?

Is niet om negatief te doen over de consoles, het is zeker interessante technologie die ik met open armen zou ontvangen op de PC als blijkt dat er werkelijk voordeel uit te halen is.
Ik heb momenteel een X570 build, maar bewust nog gekozen voor pci-e 3.0 nvme drives omdat er weinig voordeel te halen is uit de 4.0 drives bij mijn gebruik (windows/internet/gamen)

een 1080ti is nog zeker voldoende tegenover de 2080ti, de 3000 series zou wel al het overwegen waard kunnen worden ... zeker als je 4K of high refreshrate wilt gaan. Ik heb momenteel de 2080Super, tevreden van en zal wss de 3000 serie overslaan (ik gebruik nog een 1080p als 2e monitor en daar haalt ie ruim voldoende fps op in eender welke titel @ ultra settings)
Ze hebben beide 'slechts' 16GB gedeelde RAM. Da's niet heel veel, dus het lijkt erop dat er vooral gebruik gemaakt wordt van textures(en andere zaken) die van SSD gelezen worden wanneer ze écht nodig zijn.

Ruim voldoende is relatief natuurlijk, maar voor simracing is het eigenlijk niet haalbaar als je 4k bij 60fps wil halen met de graphics op ultra. En dat wil je als je op iets minder dan een meter van een 55" zit. Al is het alleen maar om te zorgen dat de HUD 2x zo klein kan en toch leesbaar blijft. En ook bij andere games moet je echt keuzes maken als je op 4k 60fps wil halen. Nou ga ik bij 'bankzit-games' meestal terug naar 1080p bij max settings omdat ik dan wél een meter of 3 van mijn scherm zit. Maar toch zie je het verschil tussen 4k en 1080p nog... Alleen irriteert een lage fps mij iets meer. Maar ik maak liever geen keuze dus een 3080ti is zéér welkom.

[Reactie gewijzigd door MN-Power op 10 augustus 2020 13:06]

Daar heb je zeker weten een punt, dank voor de opheldering. Ik ben ook erg benieuwd hoe het allemaal toegepast gaat worden. Bij mij zitten er ook nog altijd slechts SATA3 schijven in omdat op het moment een upgrade weinig meerwaarde biedt. Het zou gaaf zijn wanneer dit wel het geval is :)

Qua upgrade snap ik je volledig. Ik zit in hetzelfde schuitje, maar een performance segment lager. M'n R9 Fury komt nog te goed mee om te vervangen, al helemaal voor het geld wat er voor moet worden neergelegd. Een 5700XT zou leuk zijn, maar mist toch weer de nodige cruciale features met name ook qua connectiviteit (HDMI 2.0 bijvoorbeeld). Even de kat uit de boom kijken dus.
je denkt dat enkel sequentiële snelheden van belang zijn?
Nee natuurlijk niet, maar ik denk niet dat Microsoft of Sony in de max speed only valkuil trappen. Dan vallen ze namelijk gelijk door de mand bij de laadtijden, waar Sony bijvoorbeeld juist mee te koop liep.

https://venturebeat.com/2...eep-dive-into-ssd-memory/

Verder ben ik helemaal niet pro-console of zo(eerder het tegenovergestelde ;) ). Maar ik hoop serieus dat beide consoles flink meters maken, dan maakt de PC dat namelijk ook. De One en de PS4 hadden wat mij betreft veel en veel krachtiger mogen zijn.
Mee eens, mijn 150 euro rx 570 heeft ook 8gb. 12 lijkt mij de sweet spot tbh.
Nou ja, gezien de nieuwe consoles iets met een retesnelle SSD gaan doen, lijkt me een naar de huidige maatstaven gestoord grote hoeveel heid RAM, plus hopelijk een speciale SSD aansluiting niet zo gek....
Doorsnee consument, lees even aandachtig. Ik denk persoonlijk dat er voor hun zeer weinig vraag zal zijn naar een nieuwe generatie.

Je bekijkt de dingen duidelijk vanuit een heel grote tweaker bril.
Voor de doorsnee consument zullen de lager geplaatste modellen uiteraard net zo interessant worden als de huidige modellen in datzelfde segment nu zijn. Haal je op dit moment een low- tot mid-range game-pc dan zit daar nu bijvoorbeeld een RTX 2060 in. In dat segment wordt de RTX 3060 (als die zo gaat heten) net zo de moeite waard, of iets meer of iets minder, dan de huidige in hetzelfde segment nu zijn. Dit gaat altijd al zo, dus je vraag is nogal onlogisch. De wensen van de doorsnee consument worden gewoon bediend, maar zij zijn niet de enige groep, dus komen er ook modellen met meer rekenkracht. En die zullen boven de consoles uitsteken, zoals de pc al decennia doet als je genoeg uitgeeft.

De hoger geplaatste modellen zijn veel minder ideaal qua prijs-kwaliteitverhouding, en zijn alleen interessant voor specifieke liefhebbers van de laatste 20% extra performance, waar het meeste geld in gaat zitten. Toch zijn er nog best wat kopers voor, zeker op deze site ;)

[Reactie gewijzigd door geert1 op 9 augustus 2020 17:19]

Sorry, maar zelfs de 300+ euro voor de 2060 is niet echt voor doorsnee consumenten, die zitten vaker max 200 euro voor een gpu.
Ik kocht voor m'n gevoel vroeger toch meer videokaart voor 200 euro dan tegenwoordig. Misschien zit het alleen in m'n hoofd.
Nee, het zit niet in je hoofd, dat was ook gewoon.. 'vroeger' wat we nu als 2060 performance based GPU binnen de hele 2000 lijn dus ongeveer voor 200 euro en was highend rond de 400..
Maargoed alle prijzen stijgen.. Heeft voor mij ook lang geduurd voordat ik een 2060 super kocht om mijn 760 te vervangen, en die 2060 was 140 euro duurder dan wat ik indertijd voor mijn 760 had betaald.
Zelf begin ik niet aan 2e hands GPU's te kopen, je betaalt dan eigenlijk nog teveel voor iets waarvan je niet weet hoe die gebruikt is (gelukkig is die tijd nogal voorbij van gebruik voor mining, want dan kon je kaart echt wel eens versleten zijn als je die kocht)..
"Vroeger" was ook op de PC alles boven de 30fps nog in orde. 60 FPS werd een beetje de heilige graal toen LCD's hun intrede deden. Vervolgens is zo'n 15 jaar geleden de resolutie van 1920x1200(of 1080) zo langzaam de norm geworden waar we behoorlijk lang zijn blijven hangen.

Ik heb het idee dat de laatste 5 jaar er een stroomversnelling is geweest waarin niet alleen de eisen qua resolutie omhoog zijn gegaan naar het liefst een verviervoudiging, maar tevens een verdrievoudiging van de framerate.

Stel je je eisen bij naar 60fps op 1080p, dan zijn de kosten eigenlijk niet eens zo bar hard gestegen lijkt me. Maar goed wanneer je als fervent gamer geen compromis wilt maken dan wordt het een dure hobby.
De doorsnee koopt een pc of laptop en kijkt werkelijk niet naar de GPU.

0as als ze een beetje op de hoogte zijn van wat een game nodig heeft, kijken ze pas verder.
Maar dan ben al net buiten de doorsnee-gebruikersgroep.
Een GTX 2050 bestaat niet en de 2060 is een RTX..
De GTX 2050 is de GTX 1660 geworden omdat er geen RT cores in zitten. Qua performance zat de 1660 ook 30% lager ongeveer. wat je ook bij een 2050 had kunnen verwachten. Daarna kwam de 1660 Ti, als sterkere budget kaart. Daarna kom je inde mid range als de met de RTX en dus wel de RT cores in je videokaart ingebakken.
Dus de GTX 2050 bestaat niet er is dus een GTX 1660.
Dank - verbeterd.
Onlogisch voor tweakers, daar ben ik mee akkoord.

Voor de doorsnee consument, waar mijn comment dus over ging zoals vermeld, lijkt me die vraag net de belangrijkste.

Ik vind dat we toch eens wat afmoeten van dat "het is tweakers.net dus je mag geen ander perspectief zien dan dat van ons".
Je snapt 'm nog niet: er worden hier zowel duurdere als goedkopere modellen aangekondigd, hooguit de duurdere eerst. Dus dit is interessant voor zowel de Tweaker als de doorsnee consument, en dat er duurdere bestaan voor de liefhebber is altijd al zo.

[Reactie gewijzigd door geert1 op 9 augustus 2020 17:02]

En mijn punt is dat deze lagere modellen voor de doorsnee consument allicht niet aantrekkelijk zijn.
1440p en 4k schermen met hoge framerates worden nu langzaam aan mainstream omdat deze steeds beter betaalbaar worden. Hier horen goede kaarten bij zoals de 2070s of hoger. Er is daarom zeker markt voor een 3060 en hoger. En een 3050 voor 1080p.
Dat is jouw punt, en als anderen het niet met je eens zijn ga je er nogal hard in.
Volgens je eigen redenatie ben je dus ook een Tweaker die geen tegenspraak duld.
Even zonder hat en meid; het is voor ieder toch zijn/haar keuze of ze nieuwe hardware in pc steken of lekker de huidige hardware houden?
Mvg.
De nieuwe serie is gewoon hetzelfde voor minder geld of beter voor hetzelfde geld, welke doorsnee consument zit daar dan niet op te wachten?

Muv rebrands zijn ze ook vaak nog zuiniger.

[Reactie gewijzigd door watercoolertje op 9 augustus 2020 19:03]

Dat is jouw mening en puur jouw mening. Wat jij met een computer doet of kwa games speelt is niet wat de 'gemiddelde gebruiker' er misschien mee doet.

Dus de correcte zin zou zijn dat het voor jou niet aantrekkelijk is.
Ik daarintegen, net als mijn broer zitten wel te wachten op de iets goedkopere nieuwe modellen.
Anoniem: 599181
@kristofv9 augustus 2020 18:05
Jou mening is gewoon op niet veel gebaseerd toen de 1060 uitkwam was dat voor een heel lange tijd een heel interessante kaart, laag verbuik, niet extreem duur en zeer goede 1080p performance.

2060 was dan iets minder interessant, maar dan had je de 1650.

De 3060 kan best opnieuw een interessante kaart worden. Als je iets van 2070 performance kan krijgen voor 350€ bvb.

De laatste tijd doen ze toch hun best voor een kaart uit te brengen die prijs/ performance redelijk goed zit.
Dit is ook te danken aan AMD die met de Radeon 5600 en 5700 serie kaarten goed op weg is en zorgt voor gezonde concurrentie. Anders waren Nvidia kaarten nog steeds peperduur geweest.
Een ander hoeft het niet met je eens te zijn.
Doorsnee consument koopt geen high-end spul zoals de 2080ti maar kijkt bij de mid-range.
Yups ik koop al jaren het midden segment ... ooit eens een game pc van rond de 5k euro in 2006-2007. Leuk maar na 3-4 jaar is er wat beters en heb je veel geld weggesmeten. Nu heb ik zoIeso minder tijd om te gamen. Op max settings spelen of een paar tandjes lager maakt niet uit. Vroeger nog competitie rtcw gespeeld. Ging ik een nieuwe pc in gebruik nemen, herinstalleer ik rtcw ... wist ik helemaal niet meer hoe er dat uitzag op default. Voor VR en 4K gaming kan ik het me nog inbeelden, maar om nu eerlijk te zijn is 1440p niet genoeg ? Competities zij meestal.nogal altijd op 1920. 144hz op 1440p moet nog wel kunnen, maar je bent beter dat je dan gewoon om de 2 jaar een midrange kaart koopt. Maar dat is mijn idee.
Er heerst nog altijd wat epeen gehalte, maar voor mij om Wow, Hearthstone, apex legends, Diablo 3 te spelen op 1440p Is een 2060 super genoeg. En als je dan op Steam kijkt naar de meest gebruikte videokaarten dan is dat meestal bijna in de meeste gevallen het lagere segment en zeker niet de topkaarten. Een 2060 en 2070 super zij respectievelijk 3,5 en 3,2% in de top ... combinatie met de supers. 35% is 1060, 1070, 1650 en 1660 tesamen ...
Het moet ook de moeite zijn om te upgraden naar een middenmotor.

Ik had 980ti, en speel voornamelijk path of exile. Ging goed, tot ik mijn scherm ging upgraden naar een 1440p 144hz en de kaart met niet genoeg was. Upgrade naar 1080ti gegaan en gaat goed (geld maakte niet uit, 1080 was mogelijk goed genoeg).

Nu wil ik die raytracing ook wel eens proberen, dus zou een rtx kaart moeten hebben. Heb me niet echt verdiept, maar ik dacht dat (zonder raytracing) de 1080ti tussen 2070 en 2080 zat (was er toen al een 2070ti?). Dus om niet minder te hebben, had ik naar een 2080 moeten gaan. En als ik dan al zoveel uitgeef om rtx te testen, wil ik er in mijn "main game" (dat ook zwaarder is geworden en niet altijd 144fps houdt) ook op vooruit gaan, en voor een 2080ti gaan voor "een kleine meerprijs".

Gelukkig waren er amper games met rtx, heb ik de aankoop laten voorbij gaan, en is een 3070(ti) hopelijk wel een upgrade. Wou alleen duidelijk maken dat naar een middenmotor gaan (zowel praktisch als mentaal, zonder epeen) niet altijd mogelijk is...
Mja een dikke game pc heb je al rond 1 tot 1,5k en ga je duurder dan gaan mensen er nutteloze dingen als kerstverlichting inbouwen en waterkoeling of SLI/Crossfire wat niet altijd geweldig ondersteund wordt.

Veelal kun je nog wel de GPU upgraden in een bestaande pc, games zijn veelal GPU limited ipv CPU, oke je kan het overdrijven maar vaak zit er nog wel voldoende rek.

In deze oude barrel is ook een GTX1080 in gekomen en de CPU trekt het nog net, dus waarom alles vervangen gezien Intel de laatste jaren heeft lopen slapen in performance.

Edit: Boven 16GB ram voegt niets toe in games omdat het niet aangesproken wordt en is allemaal overkill, 16GB+ noem ik al top of the line dus.

[Reactie gewijzigd door mr_evil08 op 11 augustus 2020 09:23]

Yups maar zonder leds en waterkoeling kom ik voor een pc toch al snel uit op meer dan 1,5k. Maatjes hangt ook af van gebruik. Ik heb nu een 3700x gekocht dat tegen dat de 4000 serie een beetje minder kost een upgraden kan plaatsvinden, 32gb ram (heb ik jaren) 3600mhs cas 16, 2x 1tb NVMe , seasonic titanium voeding, ASUS b550 f gaming, meshify c, be quiet dark rock pro 4. Dan zit je al snel aan dat bedrag. En dat is voor mij, programmeren, af en toe vm, videobewerking etc meer dan genoeg voor nu. Ik ben ook freelancer, deze pc brengt dient dus ook om brood op tafel te brengen. Had ik all the way kunnen gaan, zeker, maar beetje zonde van het geld, zeker voor mij qua gaming. Maar dit is voor mij nog altijd middensegment (bovenste). Ik spreek pas vanaf 64gb ram 3600 mhz 16 cl, 2080 super of ti, 3950x van top of the line. Uiteraard is dit serieus overkill, maar het hangt af van gebruik. Met een goede middensegment kaart kan je een jaartje of 3 verder, misschien zelf 4 als je niet altijd de AA titels op max settings wilt spelen. Zowieso zal max settings met een middensegment al moeilijk zijn in deze titels keer als je naar 1440p gaat en 4K mag je wel vergeten, tenzij je serieus wat settings naar beneden gaat halen. Uiteraard zal dit verschillen van game tot game
Ben ermee akkoord dat meeste games nu gemaakt worden naar zijn lowest hardware maar er is zeker wel een markt voor deze nieuwe kaarten.

Ik merk dit zelf aan mijn klanten.
Vroeger kwam men vragen naar een pc dat game x of y kon draaien en meer niet.
Nu komt men vlugger met de specs van hun huidige PC en de vraag of ik de storage of videokaart kan upgraden.

De reden hierachter is dat de huidige generatie ouders meer doorhebben dat een PC niet de vuilbak in moet als een spel niet optimaal draait en de PC niet te oude is en dat ze dus gewoon kunnen upgraden.
Meestal zit deze consument dan wel 2 generaties achter.

Bvb ikzelf ook zal zeker een 30 serie kaart kopen voor 2 reden. Ik heb de 20 serie geskipt omdat het te nieuwe was en ook omdat het te duur was. Trouwens zit nog op een SLI 780TI :9

Soit, het zal eigenlijk afhangen van wat de prijs zal zijn ter vervanging van de 2060 en 2070.
Deze zijn meestal de betere koop voor de gewone mens.
Als ze duurder worden zal het moeilijk zijn om te verantwoorden. Als ze gelijk zijn aan de vorige generatie dan zal het vlot verlopen en als het goedkoper is, wat ik betwijfel, dan zullen er veel vervangingen gebeuren.
Heb nog steeds een GTX1080Ti op een 3900x gewoon omdat tot nu toe geen een game eigenlijk de meerwaarde van een RTX2080ti in verhouding met de 1080Ti die ik heb kon goedpraten, pas nu komen de eerste games pas die echt van de tech die de 2000 meebracht gebruikt, en dan niet eens grootschalig.

Ik denk voor meeste gamers die wel voor stevige gaming rigs gaan, en hun rigs regelmatig updaten, en weten hoe alles werkt, je best wel eens denkt, ik sla een generatie over, wat ik nu heb is voorlopig nog goed zat, tegen de tijd ik ga merken het gaat verouderen zie ik wel, met beetje mazzel komt er al dan wel een nieuwe Gen al weer aan..

Nu begint mijn GTX1080ti inderdaad hier en daar zijn leeftijd te tonen met de eerste games, en zowaar me al paar keer is overkomen, blijk ik wederom een generatie te hebben overgeslagen, iets wat idd me al paar keer is overkomen..

Idem CPU's, zeker in de down moment van AMD en Intel absolute alleen heerser was en kleine miniscule upgrades leverde, heb ik aardig wat over geslagen. sedert mijn i7-4820k alles overgeslagen tot nu dus de R9 3900x uitkwam, en nu zelfs met de XT's even zat te denken een 3900XT te nemen (uiteindelijk niet gedaan, de 100MhZ winst is het niet waard, en haal ik met O/C al weer in)

Ik denk ik niet de enige ben die dit doet die zelf zijn eigen PC's bouwt,

[Reactie gewijzigd door ArranChace op 9 augustus 2020 22:42]

Denk inderdaad dat velen hier je denkwijze volgen.

Altijd het laatste nieuwe willen om gewoon geld uit te geven is zinloos vooral als de oudere generatie nog perfect kan volgen is zinloos. Zelf even gestopt met gamen en mijn PC puur gebruikt als office PC maar nu ik terug wat wil gamen voel ik wel die 4 generatie gap :)

En net zoals jij ben ik nu ook een het leunen naar een AMD build puur voor kost/performance en gewoon eens proeven wat de concurrent kan bieden. Intussen wacht ik op zowel de AMD Zen3 serie en de Nvidia 30 serie om te kijken wat ze bieden en vooral gaan kosten 8)7
Nu zijn de prijsverschillen al stukken kleiner geworden, maar in begin toen de 3900X net uitkwam, was dat best enorm.. Voor de top I9 betaalde je op dat moment toch iets van ruim 1200 euro, t.o 600 voor de 3900.

Wat mij dus ruimte overliet om meer geld uit te geven aan andere componenten, zoals betere koeling, hoger segment mainbord, geheugen en case, wat je build uiteindelijk toch net even dat extra geeft als dat ik uiteindelijk voor een gewone standaard i9 build was gegaan.

Ik geef toe ik soms wel eens stiekum stond te glimlachen als vrienden de componenten bekeken en comments maken van, heb je Jay2Cents berooft ofzo..
Klopt, zo denk ik er ook over. Heb een nieuwe Ryzen build gebouwd en wil als laatste de videokaart vervangen en wil een leuke midrange kaart kopen zoals de 2060/70 Super. Ik wil even kijken wat de 3060/70 Super gaat doen qua prijs. Als deze vergelijkbaar is met de prijzen van de 2000 serie nu dan ga ik waarschijnlijk wel over tot aankoop, tenzij de 3000 serie slecht wordt gereviewd. Want laten we eerlijk zijn, zo extreem veel beter is de 2000 serie niet tegenover de 1000 serie, zeker niet om die flink hogere prijzen te rechtvaardigen. Daarom goed dat Nvidia wat tegengas krijgt van AMD en daardoor de prijzen (nu nog marginaal) gaan zakken.
Dat valt mee. Ik speel veel X-Plane en met UHD Scenery slokt ie alle 11GB van mijn 2080ti binnen no time en wordt er uitgeweken naar systeem RAM. 24GB is zeer wenselijk voor dit soort toepassingen en ook zoals hierboven genoemd VR toepassingen.
Definieer eerst eens de doorsneecosument dan? Ook in deze generatie komen gewoon low-, mid- en highend modellen uit, dus - zoals altijd - voor ieder wat wils.

Alleen de huidige topkaarten halen grofweg evenveel tflops als de ps5, echter is een console meestal toch wat efficienter, dus in pricipe loop je een generatie achter momenteel. En de pc is niet voor niks masterrace he ;)
Ach achterlopen volgens mij kan je op net zo veel plaatsen een RtX3080 als een PS5 kopen namelijk helemaal nergens :)
Dat is toch ook enkel en alleen maar omdat je nu al een RTX 2000 reeks kaart hebt.ik heb nog gewoon een GTX1070, en veel van mijn vrienden zitten op een GTX1060. Die spelen nog wel vlot, maar een upgrade is wel de moeite waard. Ik speel op 1440p144 en die kaart trekt dat gewoon niet in alle games.

Ik kan een 2000 reeks kopen. Maar dat doe ik niet. Voor exact dezelfde reden dat jij niet warm wordt voor een 3000 reeks. Ik wil meer waar voor mijn geld dan de 2000 reeks kan bieden, en ik weet gewoon dat binnen de paar maanden er nieuwe kaarten met nieuwe features op de markt gaan zijn.

Ik denk juist dat er heel veel vraag gaat zijn. Zeker als de prijzen goed liggen als AMD ook iets competitief in dezelfde periode op de markt kan brengen.
PC markt is anders. Deze platform is hardware abstract. En bepalen minimum feature level wat de mainstream is. Dat er next komt houd niet in dat PC gamer massaal gaat upgraden. Mainstream voor deze target markt zijn 3 a 4 .
Voor dev is hogh-end niet interressant , bij hun gaat om mainstream en daar degelijke game experience voor creëren.
Upgraden is luxe en keuze of je hoop cash tegen gooid voor extreme settings of hoge fps of gewoon 1080p in low setting. Bij sommige games kan dat er toch ook nog goed uitzien. En bij singleplayer is 30 of 60fps te doen.
Games zijn vaak op consoles gebasseerd, nu er nieuwe generatie consoles zijn worden pc games ook weer zwaarder, heel veel games zijn gewoon console ports.
wat eigenlijk niet persé betekent dat dit slecht nieuws gaat zijn voor PC gaming. Het kan net DE drijfveer voor developers zijn om nog meer details te voorzien omdat ze minder beperkingen hebben.
Dingen horen zoals 4k@120hz, HDR, etc klinkt als muziek in de oren, kan alleen maar betekenen dat de komende jaren weer een sprong/innovatie kan gemaakt worden in de content.
Sinds wanneer is een 3080 voor een doorsnee consument bedoeld? Daarnaast gebruik je jezelf als voorbeeld als doorsnee consument met een 2080ti?
Excuus. Ik dacht te lezen dat je een 2080 ti had. Het punt blijft hetzelfde
Bepaalde miningsoftware heeft profijt van meer geheugen..
Qua computerspelletjes zou ik het niet weten.. misschien mensen die (zwaar) tekenwerk doen? Of draait dat op voorkeur nog op quadro?
niet alleen 4k en vr maar ook fps gamers met hoge refreshrate monitoren zitten met te wachten.
Simulatie en render software, waar het allemaal in je VRAM moet passen. Ik draai simulaties en renders op mijn GPU en 24gb is echt een gamechanger.
4k. Je kan ket een 2080ti niet eens de meeste games op 144 fps 1080p ultra spelen. 4k is nog niet eens aan de orde op een paar trage gameplay titels na.
Er zijn ook mensen met een 1080ti(of lager natuurlijk) die graag willen upgraden, maar de 2080 of 2080ti geen grote stap vooruit vonden, zeker niet voor de prijs. Bovendien denk ik dat deze keer de raytracing ten eerste wél voldoet en bovendien juist met de nieuwe generatie consoles(en hun raytracing integratie) er door games juist meer op raytracing geleund gaat worden. Ik kijk dus juist enorm uit naar de 3080(ti)
Yes die zijn er, van 2x 970 naar 2x 1070Ti maar 2x 1080Ti gegaan. De RTX Serie vond ik het geld niet waard, zeker gezien ik van SLI wil afstappen. Hopelijk geeft de 3080ti een behoorlijke boost voor een ongeveer gelijke (of lager?? :X) prijs...
Er zijn ook mensen met een 1080ti(of lager natuurlijk) die graag willen upgraden, maar de 2080 of 2080ti geen grote stap vooruit vonden, zeker niet voor de prijs. Bovendien denk ik dat deze keer de raytracing ten eerste wél voldoet en bovendien juist met de nieuwe generatie consoles(en hun raytracing integratie) er door games juist meer op raytracing geleund gaat worden. Ik kijk dus juist enorm uit naar de 3080(ti)
Bingo! Precies dit dus. Kan niet wachten op de release van de 3080Ti (en de release van de Ryzen 4000). 2080Ti was het hem gewoon niet qua prestaties, en al helemaal niet qua prijs/prestatie.[

[Reactie gewijzigd door Kubrix op 9 augustus 2020 20:59]

maar de 2080 of 2080ti geen grote stap vooruit vonden, zeker niet voor de prijs.
Verwacht je nu echt dat de PG132-10 een enorme stap vooruit zal zijn en significant goedkoper? De verwachting is dat het ook weer een minimale stap voorruit is tegen een premium prijs. Waarom zou Nvidia die formule veranderen? Ze zien dat het werkt...

Zit zelf nog op een GTX970 merkte recent daar pas 'issues' mee omdat ik meerdere gameclients draaide om 4k schermen op max settings. In de eerste instantie zoiets van misschien aan het einde van het jaar upgraden, na zes jaar... Nu ben ik ook naar andere opties aan het kijken die wellicht efficiënter zijn of dat de 2e hands prijzen flink kelderen omdat er toch voldoende mensen gaan upgraden.
Vooral in VR, maar ook maar in 4k is het verschil tussen een 1080 en -ti al goed merkbaar. Dus ja, ik verwacht dat ik met een 3080ti niet of minder zal hoeven schipperen met settings. Dat moet met een 1080ti wel. Ook wil ik gewoon raytracing kunnen gebruiken. Dat kan nu ook wel, maar bij Control moest ik (met raytracing op medium) terug naar 720p. Voor de beeldkwaliteit was dat het met waard, maar ik draai liever gewoon op 1080p of nog liever, 4k. En ook voor simracing kan ik nog wel wat extra grafische power gebruiken.

Is het nodig: nee, is het me het geld waard: dubbel en dwars.

[Reactie gewijzigd door MN-Power op 9 augustus 2020 19:11]

Mja dat is ook het voornaamste argument dat ik persoonlijk zie ,maar hoeveel publishers gaan er hun tijd/geld echt insteken voor die 5% van de markt die echte goede raytracing kan draaien dan. Mijn 2080 (en dus ook de consoles) hebben er moeite mee.

Ik had ze liever nog wat zien wachten tot men echt kon zien wat de ps5 bracht op dat gebied , al zullen zij dat intern wel weten allicht.
De nieuwe consoles ondersteunen het beide. Dat wordt dus de standaard voor games die op alle drie uitkomen. Het is bovendien méér werk om met onrealistische belichting(de oude manier) te werken.

Ik zou me dus eerder zorgen gaan maken over de beeldkwaliteit als je géén raytracing kaart hebt, aangezien dat in de komende jaren steeds minder aandacht gaat krijgen. Raytracing is (in elk geval voor de consoles) vanaf de komende generatie de standaard. Zie het als het moment dat 3D-acceleratie zijn intrede deed. Software rendering kreeg steeds minder liefde. Logisch want daar zat veel meer effort in. En het resultaat in vergelijking met bijvoorbeeld 3DFX gewoon ruk.

[Reactie gewijzigd door MN-Power op 9 augustus 2020 16:48]

Met raytracing is het gewoon meer rays gebruiken (voor de al bestaande lichtpunten), denk dat ontwikkelaars daar weinig speciaals voor moeten doen behalve wat sliders omhoog sliden...

Daarnaast kunnen consoles wss 4k@60hz of 1080p@120hz (bij grafisch zware spellen), met een 3080ti wss gewoon 4k@120hz of hoger...

Vergeet ook niet dat het probleem wat jij nu schetst ook op zou gaan bij de huidige consoles en computers. En daar is er geen enkel probleem (muv van slechte ports) om meer pracht en praal te tonen op (veel) hogere aanyal FPS. Uiteraard heeft dat wel een prijs :)

[Reactie gewijzigd door watercoolertje op 9 augustus 2020 19:25]

Ik had begrepen dat ray tracing een bepaalde approach heeft die wellicht op oudere generaties kaarten en dus ook toekomstige consoles door de tijden heen geoptimaliseerd kan worden.
Met een redenering als deze, zal er nooit technologische vooruitgang zijn. ;)
Ach physx was ook onzin dus zal ray tracing dat ook wel zijn ;)

(Ondertussen zit het in IEDERE game)

[Reactie gewijzigd door computerjunky op 12 augustus 2020 11:37]

Zal even een positievere noot hierop geven. Ben het met je eens. Ook omdat developers aangeven dat de huidige methodieken mooiere resultaten geven voor minder computing power. Ook omdat de huidige Raytracing methodieken lang niet alle belichtingsaspecten kunnen overnemen (zeer gelimiteerd op dit moment) zullen de niet-Raytracing methodieken gewoon erg lang blijven bestaan.

Tegen de tijd dat raytracing volledig zelfstaand gebruikt kan worden voor alle belichting zijn we 3-4 generaties verder
Zou je nu al een PC kunnen bouwen die de PS5 kan evenaren? Of beter en relevanter, een PC die Unreal Engine 5 echt kan benutten? Ik vond hun demo zeer indrukwekkend, maar vraag me wel af of er al hardware is die dat kan gebruiken?
De makers van die demo geven aan dat dat met een RTX 2070 prima te evenaren is:
https://www.google.com/am...e-5-demo-a4jZ11m9oF6Y/amp

Daarnaast is de FPS ook niet zo denderent, waarschijnlijk gaan er nog wel wat settings omlaag in de daadwerkelijke games.

[Reactie gewijzigd door watercoolertje op 9 augustus 2020 19:45]

Qua rekenkracht ligt een PS5 (ver) achter op een high end pc (Nieuwste Ryzen of Intel icm 2080TI). Of die snelle SSD echt zo revolutionair is moet ik nog zien.
Videokaarten als deze zijn voor gamers, als je nu een RTX2080 hebt is er misschien weinig reden om te upgraden maar iemand die van de 10 of 9 serie komt heeft reden genoeg.
Niet perse, die 16gb & 20gb non-ti varianten zijn zeer interessant voor de creatieve sector. Ik zit regelmatig tegen de 8gb limiet van mijn kaart (VR & zwaar video werk) aan en de meer waarde van bijvoorbeeld een 2080ti opzichte van de 2080 zijn de vrij forse kosten niet echt waard waar een 3070 met 16gb of een 3080 met 20gb het alleen al voor het geheugen waard zijn.

[Reactie gewijzigd door Craftypiston op 9 augustus 2020 20:46]

Precies dit inderdaad, zit zelf nog op een 9 serie kaart die wel aan vervanging toe is. De 3000 serie zou daar een mooie voor zijn.

Plus niet vergeten dat er zoveel mensen zijn die wachten tot de 2000 serie in prijs zakken dus op alle vlakken zal het de sales helpen van NVIDIA. Tweede hands krijg je dan ook ineens allemaal 2000 serie kaarten aangeboden en de mensen die games maken hebben dan ook weer een stukje meer power beschikbaar.

De steam survey laat het ook wel goed zien, de top 6 zijn allemaal nog 10 serie kaarten, denk dat dit straks allemaal wel 20 serie kaarten zullen zijn van gamers die ze goedkoper binnenhalen of tweede hands
Precies. ik heb mijn 1080 al vergeleken met de 2080 supers, en ik vond met de super de upgrade niet waard. Met de voorspelde increase van ~30% op de 2080Ti heb ik meer baat bij een upgrade naar de 3080.
bron: https://www.pcgamer.com/n...e-date-specs-performance/
Ik ben héél benieuwd naar de benches, én naar AMD's reactie.
Ik upgraden ook gewoon weer van een 2070super naar een 3070, heb ik het nodig? Misschien niet maar het is gewoon voor de heb, omdat het kan dus waarom zou je het niet doen?
Omdat je voor die duizend euro ook een hoop andere leuke dingen kan doen, die misschien meer verschil maken. Nieuwe dikke Ryzen in je socket, extra geheugen, nieuwe monitor, noem maar op.
Lijkt mij sterk dat een xx70 kaart duizend euro kost.

Het is een soort hobby en hobby’s mogen wat kosten.
Hobbies mogen absoluut wat kosten, dat ben ik helemaal met je eens. Ik overweeg sterk om hoog in de 30xx range in te springen om weer lekker vloeiend te kunnen flightsimmen. Mijn dikke Ryzen doet de rest, maar mijn huidige GTX1660 is eigenlijk niet voldoende.
Ik draai nu half life alyx op max op 2x P6000 en dat gaat maar net, dus er is voor heeel lange tijd nog zeker behoefte voor betere GPUs als je VR in overweging neemt. Al helemaal als je gaat raytracen natuurlijk en wat te denken van wave tracing (realistische audio).
Maar VR was er ook al een paar generaties geleden... Natuurlijk zijn daar nog zat winsten te behalen, maar de VR industrie heeft in de tussentijd ook zat technieken ontwikkeld om maar niet puur afhankelijk te zijn van de snelheid van de ontwikkelingen van GPU makers.
Dat vroeg een kennis van mij ook een keer waarom koop je al weer een nieuwe videokaart. Mijn antwoord gewoon omdat ie er is heb nu een watergekoelde 2080Ti kan niet wachten om weer een nieuwe te kopen :)
als je hem koopt, dan hoop ik voor je dat amd het gat nu niet meteen overbrugd...
Dan moeten de drivers wel beter zijn. Ik ben zelf gegaan voor een RTX 2070 super vanwege de driver problemen, ook al was AMD misschien een betere koop puur gekeken naar hardware.
Dat geef niks dan verkoop ik hem en koop ik die toch gewoon :)
Dan kun je je VR goggles eindelijk een acceptabele refresh rate geven :-)
Is dit als doorsnee consument al echt nodig
Zoals je wellicht weet is de nieuwste snelste video kaart nooit bedoeld voor de doorsnee consument.
Het zijn verschillende markten, de high end kaarten en de playstation 5 wellicht doen ze het daarom juist nu, AMD gaat wel meer richting het mainstream segment met hun 5700 vervanger maar ze komen er pas eind dit jaar mee.
Zou verschillend waren ze nu ook weer niet, vroeger waar het de uitzonderingen die een Titan kochten voor €1000+, nu lijken ze bij bosjes kaarten van €1500 te kopen.
Maar Nvidia hoeft helemaal niet naar de release van de ps5 te kijken; hun strategie is altijd eerst de topmodellen uitbrengen, later komt dan de goedkope mainstream lijn aan kaarten uit die volledig wordt uitgemolken.Het maakt voor Nvidia geen hol uit wanneer en hoe ze hun kaarten releasen; het verkoopt toch wel. Ze hebben bijna een monopolie in dat marktsegment. PS5 komt niet ens op de radar voor in deze; RDNA2 wellicht wel, maar dat is nog maar even afwachten.
Je denkt dat mensen naar PS5 zullen overstappen omdat ze niet binnenkort voor hun PC een videokaart kunnen kopen die goedkoper (en langzamer) is dan wat PS5 biedt? Dat soort kaarten zijn er volop. En ik denk dat die markt erg klein is, en er juist wel behoefte is (alhoewel ook niet veel) aan een kaart die sneller is dan wat PS5 biedt. Zo houdt NVIDIA die mensen voorlopig nog bij PC ipv dat ze die verliezen aan Sony/AMD.
De markt schuift gewoon een stukje op, 3000 kaarten komen uit, de 2000 kaarten zijn goedkoper en belanden op de tweede hands markt. Mensen die geen volle mep voor een nieuwe kaart willen betalen kunnen ze goedkoop op de kop tikken en heb je alsnog een flinke upgrade.

PS5 heeft er totaal geen invloed op verder dus snap niet waar die opmerking wegkomt. Triple A games die op alle platformen uitkomen zullen gewoon altijd het beste eruit zien op de PC en kan je ook de beste performance halen. Geen speculatie maar gewoon een feit want PC kan je gewoon zo gek maken als je zelf wil. De tech demo van unreal 5 kan je op een RTX 2070 Super draaien.
ps5 is ong gelijk aan 2080 kwa gpu power en als pc gamer wil je daar liefst toch echt boven zitten voor extra grafische kwaliteit en 144fps dus ik denk zeker niet dat deze kaarten overkill gaan zijn
Inderdaad, plus de console games zijn over het algemeen beter geoptimaliseerd dan PC games. Al zal dat in het begin wel meevallen aangezien ze ook nog op de xbox one en ps4 uit gaan komen. Dat zal dus voor de nieuwe consoles gewoon wat extra graphics e.d. zijn dat op PC al kon.

Interessant trouwens dat
de tech demo van Unreal Engine 5 blijkbaar op een RTX 2070 Super zou kunnen draaien Als je daar dan wat overhead bij op telt van het OS e.d. zal je wel op de 2080 zitten.
Hahaha nee. De PS5 zal niet eens in de buurt komen qua performance. Appels en peren!
Cijfermatig heb je een 2080TI nodig om er overheen te gaan.
ook maar net aan, als je in flops gaat vergelijken dan is de volgende in de lijst de 2080 ti (alle andere kaarten --> 1660 ti --> 2080 ti )
9.75 TFLOP - 5700 XT
10.07 TFLOPS - 2080
--------------------
10.28 TFLOPS - PS5
--------------------
11.00 TFLOPS - 1660 Ti
11.15 TFLOPS - 2080 Super
11.20 TFLOPS - RTX 5000
11.34 TFLOPS - 1080 Ti
12.10 TFLOPs - Titan XP
--------------------
12.16 TFLOPS - Xbox Series X
--------------------
12.63 TFLOPS - Quadro P6000
12.70 TFLOPS - Radeon RX Vega 64
13.45 TFLOPS - 2080 Ti
13.80 TFLOPS - Radeon VII
14.90 TFLOPS - Titan V
16.30 TFLOPS - Quadro RTX 6000/8000
16.30 TFLOPS - Titan RTX

Maar goed, TFLOPS zijn een betekenisloze metric tussen verschillende generaties/soorten architecturen.

De PS5/XBX TFLOPS nummers zijn alleen nuttig om RDNA2 kaarten met elkaar te vergelijken, en dan nog.

[Reactie gewijzigd door drdelta op 10 augustus 2020 01:26]

ik heb niks gezegd.

Maar je heb gelijk betreft flops gebruiken als meetlat
We weten nog altijd niet of deze teraflops fp32 of 16 zijn en zo weten we nog veel meer niet. loze statistieken dus. En we zullen er ook nooit achter komen omdat console games niet of dezelfde grafische instellingen draaien maar altijd lagere settings.
Dit zijn allemaal FP32 TFLOPS, behalve de 1660Ti, anders waren de getallen aanzienlijk hoger geweest.

De 1660Ti heeft 11 TFLOPS (5.5 TFLOPS FP32 + 5.5 TFLOPS INT32).

Van de PS5/XBX weten we inderdaad ook niet wat het is, maar waarschijnlijk gewoon FP32.
Niet zo heel vreemd als je een 2 jaar oude GPU gaat vergelijken met een console die nog niet uit is... De nieuwe videokaarten komen ongeveer gelijktijdig uit met de nieuwe consoles, wellicht heb je voldoende aan een PG142-10 (of minder)... We gaan dat pas zien als er games uitkomen die een goede port hebben zowel op de PC als op de nieuwe generatie consoles EN er daadwerkelijk voor geschreven zijn.

Daarnaast is de hele discussie over console vs. pc graphic imho onzinnig, je bent een console speler, je bent een pc speler of je doet beide. Als een van de twee (iets) betere graphics geeft is dat voor 99% van de gamers geen reden om opeens wat anders te kopen, want als dat waar was geweest zouden er heleboel gamers jaren geleden zijn overgestapt op een iPad Pro ipv. dat Nintendo nu ruim een miljard winst maakt in een kwartaal (dat doen ze echt niet omdat de graphics van de Switch beter zijn dan die van MS en Sony consoles)...
Nou, de 2080ti is nog steeds de uber highend voor pc op dit moment, dus een console met die kracht hoef je echt niet te verwachten.
De PS5 is een console, die dingen zijn historisch gezien altijd overspecced t.o.v. de prijs die je ervoor betaalt. Je moet ook niet vergeten dat de kostprijs van een GPU een HEEL stuk lager ligt dan een videokaart die een consument in zijn pc prikt.
De PS5 is een console, die dingen zijn historisch gezien altijd overspecced t.o.v. de prijs die je ervoor betaalt. Je moet ook niet vergeten dat de kostprijs van een GPU een HEEL stuk lager ligt dan een videokaart die een consument in zijn pc prikt.
In dat geval heeft AMD geen enkel probleem, nietwaar? Halveren ze de prijs van hun kaarten en krijgen 90% van alle verkopen.

Helaas voor AMD is dat niet zo want de midrange to high end kaart prijzen zijn al drie jaar zeer competatief, de kostprijs is niet een HEEL stuk lager dan wat je betaald. De winst zit in de kaarten die nu net onder mid range zitten omdat daar de productie geheel standaard is geworden. Wat drie jaar terug een uitval had van 45% is dat nu vrijwel nul. Als je de jaarverslagen leest dan had je kunnen zien dat de 2000 range pas dit jaar winstgevend moet worden.

Er is in het verleden heel veel geschreven over consoles die ver onder de kostprijs verkocht werden, maar als je er naar terug kijkt met harde cijfers blijkt dat gewoon vrijwel nooit het geval te zijn. Wellicht de eerst 500.000 exemplaren, maar daarna is break even gewoon standaard. Aandeelhouders eisen dat gewoon. En nogmaals, dat kan jij gewoon nalezen in de jaarverslagen. Harde data, niet interpretaties van YouTubers.
Ik baseer mijn comment op mijn eigen ervaring met componenten-prijzen, welke heel wat nauwkeuriger is dan jouw jaarcijfers aan de voorkant. Die zijn voor deze discussie namelijk compleet irrelevant.
Systeembouwers betalen grofweg 1/5 van de MSRP videokaart prijs voor alleen de GPU, sourcen hun eigen geheugen en CPU en bouwen daar een PCB omheen. Wat ik dus zeg is dat je de prijs van een videokaart niet kunt vergelijken met dat van een console. Wat je er zelf van maakt moet jij weten, laat het in ieder geval duidelijk zijn dat ik echt totaal niet luister naar z.g.n. YouTube experts of mensen in comment-threads op tech sites :)
Als dat zo zou zijn dan zou de ps4 een 970 equivalent gpu gehad moeten hebben maar dat was toch echt niet zo. Ik weet dat veel geld uit games komt maar ps5 zo snel als een rtx 2080 noemen is pure onzin. Teraflops zegt echt niet alles bij die dingen.
Teraflops, Stream processors en kloksnelheid samen zeggen meer. Dus ja, grote kans dat de PS5 sneller is dan een 2080.
Al zou het zo zijn, er is geen manier om een PS5 met een 2080 te vergelijken vanwege een legio van andere factoren die de performance zullen beïnvloeden.
Inderdaad. Ze hebben lower dan low settings op de pc waardoor het lijkt alsof ze overspecced zijn.
Maar als je de beelden naast elkaar legt zie je pas hoeveel je mist op een console in graphics. Heel veel effecten worden weg gelaten veel clutter is er niet, textures zijn lager, er word resolutie geupscaled met matig resultaat, schaduwen zijn minde enz enz.
Er word dus een vals beeld van superieure rekenkracht gegenereerd.
in ieder geval een deel van de functionaliteit wordt op huidige tv's al ondersteund, je ziet ook meer monitoren die het ondersteunen. Tussen nu en zeg 3 jaar wordt het de standaard. Gezien de prijzen van deze kaarten is een gebruiksduur van 3 jaar toch niet teveel gevraagd
Ik denk dat de gemiddelde consument/gamer er wel raad mee. Maar de prijs tegenstaat. Dus heeft niets met overkill te maken. Maar alles met de prijs. En met een nieuwe generatie heb je weer meer FPS voor je euro's en dat is wat de gemiddelde consument wil. Omdat het een hobby is die betaalbaar moet blijven.
Anoniem: 159816
@kristofv9 augustus 2020 19:35
Gezien een hoop PS5 titels op slechts 4K30 gaan draaien is dit zeker nodig om goed speelbare framerates te krijgen in games met veel actie.
Vooruitgang is zeker nodig ja.. Dat (multiplatform) games vooral ontwikkeld worden met consolehardware in gedachten klopt, maar dat houdt de ontwikkeling van PC hardware niet tegen.. Als dat de norm zou zijn kun je elke ontwikkeling van nieuwe hardware gericht op gaming wel elke 6-7 jaar (de levensduur van consoles) helemaal stilleggen.. Zo werkt dat dus niet, de ontwikkeling en vooruitgang stopt nooit..

Buiten dat, als je op de PC ook naar hogere resoluties zoals 4K wil voor iedereen dan zullen videokaarten een stuk sneller moeten worden dan ze nu zijn.. En dan bedoel ik native 4K met alle toeters en bellen aan zonder allerlei trucjes als upscaling etc die nu op de consoles gebruikt worden om zogenaamd op 4K te gamen..

[Reactie gewijzigd door Inflatable op 9 augustus 2020 19:56]

Een doorsnee consument koopt geen grafische kaart van boven de 1000€ lijkt me zo...
4K @ 60 FPS is in veel games al niet te halen met een 2080ti.
Ik kan echt niet wachten om fatsoenlijk in 4K te kunnen gamen dus laat deze kaarten maar snel komen :)
Ja, want de 'doorsnee' consument heeft helemaal geen RTX 2080. In de Steam Hardware Survey hebben de drie 2080s (normaal, SUPER en Ti) een gezamenlijk marktaandeel van afgerond slechts 2,5%.

De stap van de 10- serie naar 20- serie was een paar jaar geleden voor veel mensen veel te klein om de gigantisch verhoogde prijzen te betalen. Dezelfde Survey wordt dan ook gedomineerd door kaarten uit de 10-serie, en ook de 9- serie doet nog prima mee; zo'n 2% van Steam gebruikers heeft nog altijd een 970 in de pc zitten, en daarmee staat die kaart nog steeds in de top 10 meest gebruikte GPUs.

Meer grafische kracht past prima bij de hogere resoluties, hogere refresh frequenties, VR toepassingen, en natuurlijk ray-tracing wat ook in de nieuwe consoles aandacht zal krijgen.
Is dit als doorsnee consument al echt nodig, quasi alles gaat ontwikkeld worden met de ps5 in gedachten zou ik zo denken. Waarvoor dit dus overkill is.
Als ik op Youtube MS Flight Simulator video's zie (*) die op een RTX2080 nog niet soepel draaien, denk ik dat dit zeker geen overkill is voor consumenten. Het ligt er maar net aan wat je wil en hoe lang je met je GPU wil doen.

*) Check Squirrel's vlucht van Athene naar Skiathos maar eens, waarbij hij over Athene vliegt en zijn videokaart het niet trekt op 60fps en niet eens alles op ultra.
De meerwaarde lijkt me dan ook zeer beperkt buiten voor de echte die hards, zelf heb ik nu een rtx 2080 wat al redelijk 'die hard' is op zich maar ik zie eigenlijk nog geen reden om te upgraden.
Nogmaals: het ligt er maar net aan wat je wil met je GamePC. Als je een RTX 2080 hebt, zou ik die ook lekker houden. Wil je een upgrade vanaf je 800/900/1000-serie GPU, dan is dit wellicht interessant. Zeker als je je PC voor meerdere jaren samenstelt.
De doorsnee consument gebruitkt de iGPU, geen losse videokaart.
Het mag wel duidelijk zijn welke doelgroep een RTX videokaart gebruikt.
Als de RTX 3000 uitkomt, let vooral op V&A hoeveel mensen hun "oude" videokaart gaan verkopen.
Je zal een piek zien, dat is de doelgroep waar nVidia voornamelijk op richt.
Kijk ik heb nog een 1060 die met een bottleneck CPU dus aangezien ik eind dit jaar een wil gaan upgraden ben ik hier wel blij mee :)
4K kan eindelijk eens standaard worden met deze kaarten. Ik heb zelf een 2080ti maar kijk uit naar de 3000 serie. Zeker met de verbeterde raytracing en DLSS 3.0. Hiermee wordt het eindelijk mogelijk om op 4k en framerates boven de 100 te gamen met (DLSS) raytracing aan.

Voor sommige games is de 208ti snel zat (destiny 2 bijvoorbeeld) op 4k. Maar denk aan games zoals Cyberpunk die uitgaan komen.
De kaarten worden initieel voor de zakelijke / AI markt ontwikkeld. De gamer varianten zijn gewoon aftakkingen van die pro-lijn met bepaalde functies gestript. Zo kan je een gaming kaart niet meer gebruiken voor berekeningen wat normaal richting de zakelijke markt neigt dan behalve gaming. Nvidia en AMD zet momenteel gewoon veel in op AI/NN/MachineLearning en toestanden en brengen GPU's met een verbruik tot 400W uit voor de zakelijke markt.

De performance van deze kaarten is gewoon 4K niveau. Je wil veel textures kunnen plaatsen in het geheugen, je wil dat snel over kunnen pompen van / naar CPU/GPU, en je wil een GPU hebben dat daadwerkelijk ook de rekenkracht heeft om dat te kunnen bewerkstelligen.

Dus krijg je een huge monster zoals dit. AMD zal ook niet binnen lange tijd een opvolger voor de 5700XT inbrengen. Het is voor ons consumenten alleen maar goed.
Hier kan ik je wel in volgen.

Afhankelijk van hoe goed de RDNA2 kaarten van AMD gaan zijn die in de PS5 en XBOX Series X zitten, zal de huidige 20 serie kaarten nog wel vlot meekunnen schat ik. AMD loopt toch wat achter op Nvidia ook.

Het is wel zo dat een PC gemiddeld iets krachtiger moet zijn dan een console wegens optimalisaties. Maar dan nog. Ik schat dan een PC met een RTX 2080 goed zal meekunnen met de PS5 en XboxSX.
De PS5 heeft ook Gpu chips waarvan we niet eens weten hoe snel ze zijn, want het zijn chips die nog niet eens uitgebracht zijn. En gezien de specs lijken ze krachtig.

640K Ram is enough for everybody O-)
Mocht iedereen redeneren zoals jij, zou er geen of nauwelijks nog vooruitgang geboekt worden. Het is net door de jaarlijkse cycle van verbeteringen door AMD/Nvidia, dat de PS5 nu een goede GPU kan gebruiken.
Sony heeft gewoon geluk dat AMD ditmaal, in ieder geval op papier, meer voortgang geboekt heeft bij het doorontwikkelen van hun videokaarten dan bij de PS4 het geval was.
Maar waarom zou Nvidia dat doen? Wat wint men er mee om het twee maanden uit te stellen? En wat winnen de consumenten ermee? Worden we beter van als het uitgesteld wordt? Kan ik dan beter gamen op die nieuwe GPUs in november?
Ik kan niet wachten op de "RTX 3080 Ti" voor m'n 3440x1440 paneel die nog wordt aangestuurd met een GTX 1080 Ti.
Ik voel de rib nu al, die het gaat kosten. :/
Zit in het zelfde scenario met mijn gtx 1080. De volledige 3440x1440 160hz word nog lang niet volledig benut. Heel benieuwd hoe de ‘rtx 3080/3080ti’ gaan presteren! Maar gezien de specs lijkt het inderdaad dat het best wel een rib kan gaan kosten..of 2.
Hier een 3840x1600 scherm, nog wel op 60Hz, maar ook daar voor is mijn 1080Ti maar net voldoende. Laat staan dat ik zou upgraden naar een 175Hz scherm met dezelfde resolutie.

Ben benieuwd naar de benchmarks en of het een flinke vooruitgang zal zijn. Ben toch wel een beetje bang voor 20% sneller en meer niet. Daar een enorm bedrag aan uitgeven ga ik niet doen.
Een RTX 2080Ti is al zo'n 34% sneller gemiddeld op 4K resolutie Ultra settings dan jouw GTX 1080Ti.. Een RTX 3080(Ti) gaat daar nog een schep bovenop doen straks.. Ik vermoed minimaal 50% sneller voor een 3080 t.o.v. jouw 1080Ti straks.. De RTX 3080Ti nog sneller, maar ook veel duurder..
Ik had het beter moeten zeggen. Ik doel op 20% sneller dan de huidige snelste kaart.

GPU's gaan wel vooruit natuurlijk, maar het is iedere keer maar een beetje. De grote stappen van vroeger zien we helaas niet meer. Iedere keer 15% of 20% nodigt niet echt uit of van de ene highend serie naar de volgende te gaan. Je oude kaart voor zeg 600 euro verkopen om een nieuwe te kopen voor 1200 euro die 20% sneller is, da's een hoop geld voor weinig meer.
Als je nu al een RTX 2080Ti hebt is er ook weinig reden tot upgraden denk ik.. Ik sla meestal ook zo'n 2 generaties over voordat ik weer upgrade.. Zeker als je monitor en resolutie hetzelfde blijft is het vrij onzinnig op elke generatie te upgraden.. Of je moet echt altijd het beste van het beste willen hebben en geld teveel hebben..
Ligt er helemaal wat je doet op dat scherm, of je het verschil ueberhaupt gaat merken...
Beetje Excel, web browsen, e-mail...
Iets langer wachten en kijken wat AMD doet? Voor de prijs zal het vast nooit slecht zijn. Ongeacht of AMD het goed doet of minder goed. Nvidia zal reageren....

Maar het blijft een rib :+ blijft alleen nog staan hoeveel ribben...
Hmm, dat weet ik nog niet. Ik heb niet zo'n hoge hoed op mbt de betrouwbaarheid van AMD's GPU lijn.
En als 'big navi' de RTX 2080 Ti evenaart heb ik er nog weinig aan, aangezien die stap voor mij te klein is. Veel meer zit er voor hun denk ik ook niet in want een kaart maken die 2 tot 3 keer sneller is dan wat ze nu hebben is niet reëel. Ik verwacht dat de RTX 3080 Ti zo rond de 30% meer prestatie levert dan zijn voorganger en daar mik ik dan ook mijn pijlen op.
Het lijkt dat we zijn aangekomen bij het moment dat de hoeveelheid GPU memory > RAM memory in onze PC's.
kwestie van meer RAM kopen dus :9
Je kan toch ook gewoon extra ram downloaden ?
https://downloadmoreram.com/
Ik denk dat dit nog best wel mee kan vallen. Op dit moment is 16GB RAM mainstream, maar er zijn ook genoeg mensen die 32GB RAM hebben of zelfs meer. En daarnaast is het natuurlijk nog niet bekend of de komende videokaarten zoveel VRAM hebben.
Deze hardware is echt voor gebruikers die veel geld aan goede hardware uitgeven. Die plempen minstens 32 GB in hun machine, tegenwoordig. En eigenlijk zit dat nu in de overgang naar 64 GB.
Er zit 64GB in mijn PC / 2700X systeem. Dit omdat ik met 16GB nog tegen de limits aanliep. Ik gebruik m'n pc dan ook echt voor vanalles op multimedia gebied.
Hah dat geldt voor mij al. Ik heb een 1080ti met 11GB vram, in een pc met 8GB aan geheugen. Maar da's een oud platform dus tenzij ik ergens nog wat compatibel geheugen kan vinden voor nul euro ga ik daar niets aan doen. Die 1080ti kan ik overzetten in een eventuele nieuwe computer, dat geheugen niet.
Ik heb een 9700k met een GTX1080ti draaien, en speel games op 1440p.
Ik merk gewoon bij nieuwere games dat ik niet meer alles op ultra kan draaien op 1440p, of zelfs very high zonder de 60fps te behouden. Tevens ben ik modder en heb veel VRAM nodig. Ik zit dus echt met veel smart te wachten op de 3000 series, want de RTX 2080ti voor 1400eur heb ik altijd een te fors prijskaartje gevonden als upgrade voor de 1080ti. Ben erg benieuwd naar de prijzen, maar ik ben bang dat de 3080ti eerder duurder dan goedkoper gaat worden dan de RTX2080ti.
Je hoeft toch ook niet perse een RTX 3080Ti te kopen.. Een "gewone" RTX 3080 zal je ook al minimaal een 50% boost in prestaties geven vermoed ik.. Ik had voor mijn huidige RTX 2080 een GTX 980Ti, maar vond de 2080Ti ook gewoon te duur en de 2080 was snel genoeg (+/- 80% sneller dan de 980Ti).. Dan maar ff geen Ti topmodel meer..

[Reactie gewijzigd door Inflatable op 9 augustus 2020 20:13]

Met VR merkte ik dat ik soms terugzakte naar 3 tot 5 fps. Onder de 20 wordt het irritant, maar onder de 10 wordt het haast onspeelbaar.
Wordt je misselijk van zulke lage FPS in vr? Je head tracking loopt dan toch erg achter?
Neuh, niet echt. Ik heb je het alleen gebruikt om te flightsimmen. Omdat je in een cock pit zit, beweeg ik niet heel veel met mijn hoofd. Alleen als je opzij uit het raampje kijkt is het even raar. Het irritantere is dat doen de resoluties eigenlijk nog te laat waren om de instrumenten af te lezen. Hopelijk is dat met die hippe HP Reverb G2 ook verleden tijd.
Ik ben bang dat de prijzen die pas bekend zijn samen met "the leather jacket" weer veel te hoog gaan liggen gezien de performance vergeleken RTX 2xxx
Amd heeft een einde jaar release van hun nieuwe kaarten waarschijnlijk zullen dan de prijzen bijgesteld worden (of niet als hun snelheid ruim boven die van amd blijft)
Daarom wacht ik ook even met het upgraden van m'n 1080ti. Want de Nvidia kaarten gaan duur worden. Dat kun je al aanvoelen komen.

Kijken wat AMD neerzet. Denk niet dat ze de 3080ti zullen verslaan maar denk dat ze wel in de buurt kunnen komen deze keer. Als ze de kaarten dan ook nog eens een stuk goedkoper neer kunnen zetten....

Het is een leuke tijd voor Hardware.
Gaan we weer 2080Ti prijzen krijgen? of kan AMD nu wel concurreren met RDNA2?
Laten we hopen dat AMD in het high end segment eindelijk eens wat fatsoenlijks brengt. Alleen goede concurrentie brengt de prijzen naar beneden. Als alle geruchten kloppen dan komt Nvidia als eerste met haar kaarten op de markt en de early adopters gaan dan waarschijnlijk flink betalen. Mocht AMD dan volgen met kaarten die kunnen wedijveren met Nvidia (en ze zitten onder Nvidia's prijs) dan moet Nvidia wel mee.
Gezien de chip wss groter is en er 2x zo veel geheugen in zit wordt ie vrij zeker duurder dan de 2080ti. Ben benieuwd wat het moet kosten om van de 2080ti te upgraden naar de 3080ti. Ik hoop dat dat me geen 500 gaat kosten om te upgraden maar ik ben bang van wel.
Gezien de chip wss groter is en er 2x zo veel geheugen in zit
Ja maar de prijs van de 2080Ti was niet zo hoog omdat het zoveel kostte om te maken, maar het was zo onwijs duur omdat AMD er niet mee kon concurreren.
7nm, meer RT cores en -volgens verwachtingen- efficiëntere ray tracing performance per core, DLSS 2.0 vanaf dag één (en het aantal games dat die toepassing zal benutten zal hopelijk snel stijgen met nieuwe releases)
En dan ook nog HDMI 2.1 zodat al wie in het bezit is van een 4K120Hz TV nu ook niet bottlenecked wordt door het huidige HDMI 2.0b.

Laat maar komen. En tegelijk ook die nieuwe van AMD, eens zien wat team Red er van gaat bakken met hun RDNA2 en of ze ook beeldreconstructie methode gaan hebben.
Volgens geruchten zullen de nieuwe kaarten op 8nm van Samsung worden gemaakt.
Ik vind steve echt goed bezig de laatste tijd. Neemt geen blad voor de mond. Check die video van MSI. En dan geef ik hem nog gelijk ook.

Op dit item kan niet meer gereageerd worden.


Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers is samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer onderdeel van DPG Media B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee