Uitgelekte specificaties wijzen op RTX 3070 en 3080 met 3072 en 3840 Cuda-cores

Specificaties van, naar geclaimd, Nvidia's komende GeForce RTX 3000-kaarten zijn online verschenen. Het gaat om de GA103- en GA104-gpu's die in de vermoedelijke Ampere-generatie van gpu's van het bedrijf vallen. Kaarten met de chips komen misschien later dit jaar uit.

De GA103 zou de gpu van de RTX 3080 zijn. De kaart zou 60 sm's of streaming multiprocessors hebben, waarmee het aantal Cuda-cores op 3840 zou uitkomen. Het gerucht maakt melding van een geheugenbus van 320 bits breed en de kaart zou met 10GB of 20GB gddr6 uitgerust kunnen worden.

Bij de GA104 zou het gaan om 48 sm's met in totaal 3072 Cuda-cores. De GA104 zou de gpu van de RTX 3070 zijn, en dankzij een 256 bits brede geheugeninterface maximaal 16GB aan gddr6 kunnen bevatten. De specificaties lekten uit via de Chinese site MyDrivers. Het gaat alleen om specificaties; foto's staan er niet bij. De geruchten maken ook melding van een GA102, die dan de gpu van een RTX 3080 Ti of Titan zou kunnen zijn.

De gpu's zouden binnen Nvidia's Ampere-serie vallen, waarover geruchten in 2017 al verschenen. Officieel heeft Nvidia nog niets bekendgemaakt over deze generatie. Volgens VideoCardz zou een release in het tweede kwartaal van het jaar kunnen plaatsvinden. De site meldt dat we waarschijnlijk op 22 maart meer horen over Nvidia's plannen, tijdens GTC 2020. VideoCardz zet wel vraagtekens bij de correctheid van de uitgelekte specificaties, onder andere omdat het ongebruikelijk zou zijn voor Nvidia om oneven gpu-nummers voor high-end chips te gebruiken en de claim van 10/20GB vram opvallend is.

Door Tijs Hofmans

Nieuwscoördinator

21-01-2020 • 09:00

180

Submitter: himlims_

Reacties (180)

180
176
72
2
0
85
Wijzig sortering
Kijk dat is een betere upgrade voor mijn GTX1080. Vond de prestatie winst van de huidige RTX nog wat magertjes. Benieuwd naar de specificaties.
Dat zal naar verwachting een 30-50% zijn tov 10xx, ik ben meer benieuwd naar het stroomverbruik.
Ik denk dat je eerder richting de 50% kan gaan bij gelijke performance. Ampere wordt op 7nm gebakken, dat is al een groot voordeel ten opzichte van Pascal op 16nm en Turing op 12nm en dan heb je nog de verbeteringen van de architectuur zelf.

Analist: Nvidia Ampere wordt 50% sneller met halvering van stroomverbruik
https://nl.hardware.info/...vering-van-stroomverbruik
Tuurlijk geruchten, maar zelfs iets afgezwakt zijn een mooie verbeteringen.
Lijkt me dat dit 50% sneller (met hetzelfde stroomverbruik) OF halvering van het stroomgebruik (bij dezelfde prestaties). Beide tegelijk is onwaarschijnlijk..
Er worden vaker zulke dingen geroepen, en het kan waar zijn. Het is dan alleen in 1 heel specifiek programma, bij een bepaalde workload. Voor de rest zijn zulke cijfers niet toepasbaar.
Dat ben ik met je eens. Puur de node verkleining van 12nm naar 7nm kan al wel zo 50% minder stroomverbruik opleveren.
https://www.tsmc.com/engl...oundry/technology/7nm.htm
Compared to its 10nm FinFET process, TSMC's 7nm FinFET features 1.6X logic density, ~20% speed improvement, and ~40% power reduction.
Maar dit is vergeleken met 10nm.

https://www.tsmc.com/engl...undry/technology/10nm.htm
With a more aggressive geometric shrinkage, this process offers 2X logic density than its 16nm predecessor, along with ~15% faster speed and ~35% less power consumption.
Maar ok, dit is TSMC en Ampere gaat op Samsung's EUV 7nm geprodiceerd worden. Dus eigenlijk moet je Turings 12nm TSMC's node gaan vergelijken met Samsung's EUV 7nm node.

https://wccftech.com/nvid...cs-cards-landing-1h-2020/
The fact that it is based on Samsung’s 7nm EUV process means we are looking at a performance advantage as well as a power efficiency advantage. Not only that, but believe it or not, 7nm EUV is actually supposed to be easier to fab than standard UV multi-patterning efforts. Think of EUV as sort of a reset of the difficulty curve as the company moves to a new light source. This will, however, require extensive re-tooling, but the economies of scale will almost certainly prove to be worth it. At a bare minimum, you are looking at a 50% increase all things considered and watt for watt.
En dit is puur de verbeteringen van de procesnode. Daarna komen de verbeteringen van de architectuur zelf nog... geen idee wat we daar van mogen verwachten en dat is dus afwachten.

Edit:
Bij de buren van HWI melden ze dat Ampere waarschijnlijk wel gewoon door TSMC wordt geproduceerd:
https://nl.hardware.info/...b-vram-en-3480-cuda-cores
Ze zullen waarschijnlijk beide gebruikmaken van het 7nm-procedé van TSMC, en niet van Samsungs vergelijkbare node.
https://nl.hardware.info/...m-chips-gebakken-bij-tsmc

[Reactie gewijzigd door Rudie_V op 23 juli 2024 18:21]

Of 25% sneller met minder stroomverbruik? :+
Vermoedelijk zal het potentieel worden beperkt om er voor te zorgen dat de sprong vergeleken met de vorige generaties niet te groot wordt,
daarnaast zal het stroomverbruik binnen de perken blijven.

Op dit moment is er geen sprake van echte concurrentie want AMD lijkt meer op het type x86-soc te richten dan aparte gpu.

De 50% claims moeten ze laten varen. Dat komt anno 2020 kinderachtig over. Laat zien waar je goed in bent.
Dat kan alleen wanneer AMD geen sprong vooruit maakt. Ik weet niet of nVidia hetzelfde risico wil lopen als Intel liep. Intel heeft toch wel een tikje gehad. En het feit dat AMD de laatste jaren, en de komende jaren, de video doet voor Xbox en Playstation zegt natuurlijk wel iets over wat er bij AMD in de pijplijn zit en dat nVidia echt niet alles kan krijgen wat ze willen.
Kookaansluiting voor de pc doet zijn intrede. :+
Nee dubbele 16ampere groep is dat (perilex aansluiting).
Dat wil zeggen als je alles op maximaal zet van de kookplaat je eigenlijk net even over de 16amp. Aan tikt daarom is de belasting verdeelt over 2 groepen, hierdoor vliegt de zekering er niet uit.

380V is krachtsspanning/stroom

[Reactie gewijzigd door klen_ghost op 23 juli 2024 18:21]

1080ti hier. Zat te kijken naar een 2080 maar in verhouding doet het qua performance bijna geen increase.

Zat te denken aan over het aanschaffen van de pricewatch: Samsung C49RG90 Zwart als monitor, maar ook het aansturen door de videokaart geld daar best heftig en tot nu toe is het internet erg verdeeld of een 1080ti zoiets wel kan trekken. Ik zie vooral de 2080 voorbij komen als requirement naast dat scherm... Dat is 2x veel geld en heb ik niet :'(
1080Ti bezitters hebben nog niets leuks om over te stappen idd, ik zit met hetzelfde "probleem". Behalve als geld geen rol speelt maar in die positie zit ik helaas niet ;)

Die C49RG90 gaat jouw videoplank niet leuk vinden, mijn 1080Ti heeft het al zwaar genoeg met 3440x1440.
Wat voor games speel je dan?

Zelf heb ik een MSI GTX1080 8GB.
Ik game op 3440x1440, mijn kaart trekt makkelijk 60FPS+ op ultra.
(games zoals World of Warcraft, Witcher 3, Assassins Creed: odyssey en Star wars: The old republic. )
Ik speel nu Red Dead Redemption 2, die tikt de 60pfs wel eens aan maar zeker niet stabiel. Ik moet nog wel een keer goed de settings in. AC:O kreeg ik ook niet stabiel op 60fps en zeker niet op ultra. Dat het jou met een langzamere kaart wel lukt is...opmerkelijk. Misschien CPU? 6700K@4.5Ghz hier.
Zeker bij AC:O kan je cpu een bottleneck spelen. Al heb je een goede overclock die game is best een slechte port.
RDR2 is ook een verhaal apart, slecht geoptimaliseerd en het maakt niet zoveel uit welke settings je verandert de fps blijft na genoeg gelijk 8)7

AC:Oddysee liep een jaar geleden ook niet heel soepel, misschien is dat in de tussentijd verandert?
Bekijk deze video's eens van Hardware Unboxed. Ik heb er zelf gebruik van gemaakt en toch wel van 25 FPS naar 40FPS kunnen boosten zonder al te veel kwaliteit in te leveren. Ging bij mij om een 1070 die 3440x1440 moest aansturen.

https://www.youtube.com/watch?v=385eG1IEZMU
https://www.youtube.com/watch?v=C3xQ33Cq4CE
Origins moet je ook niet op ultra spelen, very high ziet er bijna even goed uit maar scheelt een slok op een borrel qua prestatie. RDR2 idem. Er zitten bij die instellingen voor die games ook sliders die visueel gezien vrijwel niets doen maar wél je prestatie om zeep helpen.
Probeer eens een custom resollution met reddead redemption 2 van 1800p (3200x1800) en je krijgt echt stable fps van 60, verschil met 2160p (3840x 2160) is echt minimaal.

Met optimized ingame settings is 't alleen maar beter.

mijn specs;
aurus 1080ti extreme edition
i7 4790k no oc
16gb 1600mhz
ik heb een I7-7700K 4.8Ghz in m'n pc zitten, leuk heethoofdje... Hij is gedelid :)
Vreemd... Ik heb een EVGA 1080Ti FTW3 en bij AC origins kom ik heel vlot boven de 100fps uit op 3440x1440 met alles op ultra. Kaart is wel max OC via EVGA precision xoc tool.

Edit: CPU i7 8700K 5gHz all cores zal ook wel bijdragen aanezien AC O idd een heavy CPU load spel is

[Reactie gewijzigd door Clukers op 23 juli 2024 18:21]

Ik heb het over Odyssey, niet Origins ;)
Odyssey heb ik ook, en dat lijkt praktisch gelijk van load voor mn setup en geeft min of meer gelijke resultaten ;)
Inderdaad, daarom ben ik aan't wachten op de 3080 series :)
niet verkeerd bedoelt maar ik heb ook die ultrawide van samsung en ik heb er geen problemen mee.
ryzen 9 + 1080ti
1080ti is ook een zogenaamde anomaly. Die hebben ze helemaal opengegooid. https://youtu.be/5VilkryKVUY

Ti is in sommige games 20-25% sterker dan de GTX1080..

[Reactie gewijzigd door miknic op 23 juli 2024 18:21]

Dat is bij de 1070 en 1070ti ook. de Ti is een stuk sneller dan je zou vermoeden , zit dichter bij de 1080 dan de 1070.
Ik werk zelf op 3440x1440 120hz met een 2080. Wat ik merk is dat bij de high end games op max settings ik de 120fps niet meer haal. (118 ivm gsync). Dus zelfs de 2080 heeft al genoeg moeite met dit soort resoluties. Wat dat betreft raad ik aan te wachten op de 3000 series. Ook dan zul je flink moeten betalen voor een stevige GPU. Voordeel, je kunt er nog even voor sparen.
Ik game zelf op 4K (dus 3840x2160=8MP), dat is meer dan de 7.3 MP van die monitor, en mijn 1080Ti doet het over het algemeen prima. Soms moet ik wel eens iets niet op Ultra spelen, of op een iets lagere resolutie renderen, maar in ieder geval bij de pixel density van mijn 27inch is dat geen enorm probleem vind ik. Ik wacht zelf idd tot de 3080 serie met upgraden.
Met een RTX 2070 Super zit je zeker en vast goed om dit scherm aan te sturen. Je zal er niet alles kunnen uitpersen maar je zal met plezier kunnen gamen op dit scherm.

:)
1080ti bezitter reporting for duty :)

Inderdaad, ik vond de rtx 2080ti het niet waard om 1400€ neer te leggen voor 20/30% verbetering. Zit tot die tijd ook te wachten op de nieuwe Nvidia (of misschien zelfs Intel) kaarten. Het lijkt wel dat AMD voorlopig uitgespeeld is op het top segment GPU’s. Jammer voor de concurrentie verhoudingen.
Na slechts 1 generatie al upgraden levert natuurlijk nooit zoveel winst op.. Ik sla meestal ook een generatie over voordat ik weer upgrade, tenzij er een bepaalde reden is om toch eerder te upgraden.. Ik ben vorig jaar van een GTX 980Ti naar een RTX 2080 gegaan, bijna een verdubbeling in prestaties..
Ja ik ging de vorige keer van GTX760 naar GTX1080TI. Was ook eventjes omver geblazen :)
Nu inderdaad afwachten wat er nog allemaal komt. Voorlopig heeft mijn GTX1080Ti nog weinig problemen met games.
Ook dat hangt af van andere variabelen.

Ben zelf begin vorig jaar van een RX480 naar een RTX2070 gegaan en gemiddeld in games kom ik nog maar rond de 60 uit.

heb wel tegelijk een 1080p scherm verwisseld voor 4k maar dan nog...60 fps is 60 fps ;)
Er speelt natuurlijk wel meer mee maar in het algemeen vind ik dat je gelijk hebt. Ik ben van een GTX970 naar een RTX2060 gegaan en dat was het zeker waard. Van een GTX 1080ti naar een RTX 2080 lijkt me bij voorbaad als niet zo spectaculair.
Kijk dat is een betere upgrade voor mijn GTX1080. Vond de prestatie winst van de huidige RTX nog wat magertjes. Benieuwd naar de specificaties.
upgrade van GTX1080 naar 2080S is echt wel een verbetering. GTX1080 is te vergelijken met RTX2060 :)
Voor de prijs en wat je ervoor terugkrijgt, iets van 15-20 winst.. Vind ik het niet waard.
Voor de prijs en wat je ervoor terugkrijgt, iets van 15-20 winst.. Vind ik het niet waard.
GTX 1080 kostte ook €800,- pricewatch: MSI GeForce GTX 1080 GAMING X 8G en zeg maar gerust 30% beter

[Reactie gewijzigd door Hackus op 23 juli 2024 18:21]

Ik heb er toch "maar" een €620 voor moeten betalen en ook ik vond en vind de upgrade naar een RTX2080 het niet waard. Ik moet ook niet een GPU gehad hebben van elke generatie...

[Reactie gewijzigd door MattiVM op 23 juli 2024 18:21]

Ik heb er toch "maar" een €620 voor moeten betalen en ook ik vond en vindt de upgrade naar een RTX2080 het niet waard. Ik moet ook niet een GPU gehad hebben van elke generatie...
En, dat maakt het niet minder waard qua prestaties. Niks magertjes dus wat @miknic beweert.
(huidige RTX is super, niet RTX2080)
Daar had ik nog van de week discussie over, iemand die ik ken heeft nu een GTX 1080 Ti en beweerde dat de RTX kaarten het niet waard zijn en dat alleen RTX 2080 Ti zinvol en krachtiger is tov de GTX 1080 Ti, en dat pas bij de 30xx serie hij gaat upgraden.

Dat hij dan pas gaat upgraden is prima, maar ik wees hem wel op z'n plek toen ik toonde dat een RTX 2070 Super evengoed tot paar frames slechter presteert dan een GTX 1080 Ti, het ging mij puur om de stelling dat alleen RTX 2080 Ti beter was want dat klopt niet, als een RTX 2070 Super bijna hetzelfde presteert dan is een RTX 2080 en hoger sowieso al beter.

En dan begin ik niet over het prijs verschil, zelfs de GTX 1080 was meer dan de RTX 2070 Super nu.

op 1440p, overigens zie ik de RTX 2070/RX 5700 XT als de sweet spot qua gaming, alles erboven is gewoon te duur tegenover de extra prestaties die het levert

[Reactie gewijzigd door Mizgala28 op 23 juli 2024 18:21]

... ik wees hem wel op z'n plek toen ik toonde dat een RTX 2070 Super evengoed tot paar frames slechter presteert dan een GTX 1080 Ti, het ging mij puur om de stelling dat alleen RTX 2080 Ti beter was want dat klopt niet, als een RTX 2070 Super bijna hetzelfde presteert dan is een RTX 2080 en hoger sowieso al beter.

En dan begin ik niet over het prijs verschil, zelfs de GTX 1080 was meer dan de RTX 2070 Super nu.
Een upgrade moet goed voelbaar zijn. Van een een GTX 1080 TI naar een RTX 2070 is niets en een 2080 zou voor mij nog steeds niet genoeg zijn om er nog eens een pak geld tegen te gooien.
En wat?! Op zijn plek wijzen?! Dit is ook nog altijd een eigen mening die onder andere beïnvloed wordt door het beschikbare budget van de persoon.
Prijzen verschillen en zijn bijna voor elke generatie altijd (een beetje) anders. Ik zou nu ook geen GTX 1070 of 1080 meer kopen.

Je zegt het dan nog eens zo goed als zelf dat een upgrade naar een 2080 of 2080 TI het niet waard is:
op 1440p, overigens zie ik de RTX 2070/RX 5700 XT als de sweet spot qua gaming, alles erboven is gewoon te duur tegenover de extra prestaties die het levert
Maar goed... we zullen afwachten wat de 3000 serie heeft te bieden en wat de prijzen zullen zijn...
Ligt eraan welke game en op welke resolutie. Hoe hoger je gaat en hoe meer effecten je wil hoe meer geheugen je nodig hebt. Nu heeft de 1080ti 11gb geheugen en de 2070(s) en 2080(s) maar 8gb. Ik zou ook niet gaan upgraden als ik van een 1080ti zou komen, want er zijn games (zie digital foundry) die nu al echt enorm veel Vram trekken en in dat geval "kan" een 1080ti veel beter zijn dan een 2080s bv. En de toekomstige games zullen vast nog wel meer Vram nodig hebben. De keus voor mij zou dus altijd 1080ti zijn boven een 2080(s). Ik vind raytracing niet boeiend verder.

Enige optie zou dan een 2080ti zijn, maar ik zou lekker wachten tot de nieuwe generatie. Die worden ook goedkoper!
Dat varieert, puur kijkend naar de prestaties zal een RTX 2080 of hoger beter presteren dan een GTX 1080 Ti.

Echter inderdaad is vram hier een issue, maar persoonlijk vind ik een GTX 1080 Ti maar ook een RTX 2080 gewoon niet voldoende voor 4K gaming, want op 4K zal die 11gb VRAM zeker van pas komen tov 8gb.

Echter op 1440p is 8gb vram voor 99% van de games zat (en ik speel meerdere VRAM vreetzakken, hoogste wat ik zag was 6.6gb en dat was inclusief een high res texture pack)

Voor 4K echter zal het inderdaad anders wezen, waar op 1440p zelfs de zwaardere games voldoende hebben aan 8gb VRAM speel ik paar games die op 4k met high res textures vrij makkelijk boven die 8gb zouden uitkomen en dan is een GPU met 11gb VRAM wel zo handig.

Alleen ik vind dat geen enkele kaart dus ook niet de RTX 2080 Ti genoeg is voor 4k gaming, je zal toch de settings naar beneden moeten schroeven zodat je goede framerate behoudt (en dus zal de vram gebruik ook dalen) en als je lichtere games speelt kom je over het algemeen niet eens in de buurt van 8gb VRAM gebruik, laat staan 11gb (tenzij de betreffende spel waardeloos geoptimaliseerd is)

Ik denk sowieso dat 4k gaming nog niet echt goed mogelijk is zonder concessies, maar ik ben ook iemand die juist op PC gamed zodat ik al het pracht en praal kan zien als dat mogelijk is.
Ja, wel mee eens. Het gaat ook traag in gpu-land. Er komen allemaal brute 4k/144hz schermen uit, maar we kunnen er in feite nog niet veel mee. De huidge generatie gpu's zijn veel te underpowered en dat gaat in 2020 nog steeds zo zijn vermoed ik.
Enige optie zou dan een 2080ti zijn, maar ik zou lekker wachten tot de nieuwe generatie. Die worden ook goedkoper!
Ik heb de geruchten ook gelezen, maar eerst zien en dan pas geloven he ;)
Die paar procent dat de RTX 2080 is die upgrade inderdaad niet waard, ik geef hem dus groot gelijk met zijn statement dat de 2080Ti pas een zinvolle upgrade is.
Als je een tech enthausiast bent is het misschien leuk om voor elke 10% een upgrade te doen, maar voor normale gamers is dat het gewoon echt niet waard. Zelf vind ik het pas een upgrade als het ergens tussen de 40-80% is; iets wat we vroeger wel kregen. De huidige generatie gamers lijkt vooral genoegen te nemen met 15-30% procent winst in dezelfde prijsklasse.
Gegeven het is beter dan wat Intel de laatste tig jaar met cpus heeft gedaan, maar het is niet iets waar je blij van wordt als consument.

Je hebt dus helemaal gelijk dat de RTX 2080 sneller is dan een stock GTX 1080Ti, maar het is geen zinvolle upgrade.
https://www.techpowerup.c...per-gaming-x-trio/27.html

Ik zou haast stellen dat je hem niet op zijn plek hebt gewezen maar juist jezelf voor gek hebt gezet.

[Reactie gewijzigd door Sp3ci3s8472 op 23 juli 2024 18:21]

edit: aan Miknic
Wellicht op 1080p.. Maar op 1440p is het echt geen 50%. Dat is waar je toch wel naar kijkt deze dagen.
Zoals je kunt zien in mijn vorige post heb ik een bron toegevoegd. zomaar dingen beweren heb je echt niets aan.
Daar had ik nog van de week discussie over, iemand die ik ken heeft nu een GTX 1080 Ti en beweerde dat de RTX kaarten het niet waard zijn en dat alleen RTX 2080 Ti zinvol en krachtiger is tov de GTX 1080 Ti, en dat pas bij de 30xx serie hij gaat upgraden.

Dat hij dan pas gaat upgraden is prima, maar ik wees hem wel op z'n plek toen ik toonde dat een RTX 2070 Super evengoed tot paar frames slechter presteert dan een GTX 1080 Ti, het ging mij puur om de stelling dat alleen RTX 2080 Ti beter was want dat klopt niet, als een RTX 2070 Super bijna hetzelfde presteert dan is een RTX 2080 en hoger sowieso al beter.

En dan begin ik niet over het prijs verschil, zelfs de GTX 1080 was meer dan de RTX 2070 Super nu.

op 1440p, overigens zie ik de RTX 2070/RX 5700 XT als de sweet spot qua gaming, alles erboven is gewoon te duur tegenover de extra prestaties die het levert
Een 1080TI is geen 1080. verder is een RTX2060 Nu voor €325,- te verkrijgen, die +- gelijk presteert aan GTX1080(om bij Nvidia te blijven). Je ziet dus dat de moderne kaarten beter presteren tegen lagere prijs. (wat je met je vergelijk bedoeld ontgaat me ff. denk dat je verkeerd persoon quote)
Wat betreft je zgn sweeetspot gaat het niet over. @miknic beweert dat een GTX1080 niet het upgraden waart is naar huidige RTX(2080S) Dat een RTX 2070Super het gunstigste is voor 25-30% winst tov GTX1080 ben ik mee eens. Voor €560,- heb je dus deze prestatiewinst tov een GTX1080 (die toen €800,- kostte)

@Mizgala28 komt door multi-quote via iPhone

[Reactie gewijzigd door Hackus op 23 juli 2024 18:21]

Wellicht op 1080p.. Maar op 1440p is het echt geen 50%. Dat is waar je toch wel naar kijkt deze dagen.
Dat heb ik niet gezegd maar @miknic
Ik ben voor de 2080ti gegaan na flink wat getwijfel, maar goed ook want op 1440p 144hz zijn er maar weinig nieuwe AAA games die 144fps aantikken op de allerhoogste settings. Ik kwam van een 1070 dus het was al een hele stap in de goede richting, maar de 3080(ti) maakt het hopelijk nog beter.
Wellicht op 1080p.. Maar op 1440p is het echt geen 50%. Dat is waar je toch wel naar kijkt deze dagen.
Ja op elke resolutie kunnen de percentages enorm afwijken. Het kan zomaar zijn dat op 1080p het 25% verschil is en op 1440p 40%
Zie eens benchmarks tussen verschillende videokaarten.
Vooral geheugen type en hoeveelheid maakt uit op hele hoge resoluties
Dat kan als je te weinig geheugen hebt, maar dat is bijna nooit het geval. Wat je veel vaker ziet is dat de benchmark niet goed is uitgevoerd. Bijvoorbeeld doordat de instellingen veel te laag staan op full HD en dat er een bottleneck ergens anders wordt gelegd, bijvoorbeeld bij de CPU.
Het kan afwijken, maar dat zou eerder in het voordeel van de rtx kaarten uitvallen dan in het nadeel op hogere resoluties.

Dit vanwege de veel hogere bandbreedte van het gebruikte GDDR6 geheugen.

Vooral bij hogere resoluties gaat dit spelen.

En dat zie je dus ook terug, kijk deze benchmarks:

https://www.anandtech.com/bench/product/2514?vs=2527

Het verschil procentueel gezien wordt in de meeste gevallen juist GROTER naarmate de resolutie toeneemt, vooral op 4k.

En niet kleiner zoals miknic pretendeert.
Oja? Leg maar eens uit waarom dan. Zie mijn post hierboven.
Misschien eerst even zelf op je eigen linkje klikken dan zie je dat het verschil geen 30% is maar dat een RTX 2080 Super een dikke 50% sneller is dan een GTX 1080.
Helaas heeft niet iedereen door dat als je van 69% naar 100% gaat dat dat geen 31% verbetering is.
Andersom is van 100% naar 69% wel 31% verslechtering.

Lang leve het feit dat als je percentages relatief zijn (lees: alles behalve 100%), en als je relatieve waarden gaat optellen en aftrekken, het compleet mank gaat.

leraarmodus engaged

Als je van 69% naar 100% gaat, en je wilt die percentages vergelijken, doe je namelijk niet +31%, nee je vermenigvuldigt met 1.44 (=100%/69%). En vermenigvuldigen werkt altijd.

Als je namelijk vanuit 100% begonnen was, en *1.44 doet, eindig je op 144%. In dat geval wordt vaak wel gezegd "44%" sneller. En dat klopt dan dus weer wel, die 31% klopte dus niet.

Als men nog niet overtuigd is, gebruik ik altijd een extreem voorbeeld.

Stel we hebben 1%, en we gaan naar 11%. Volgens de foutieve redenatie zou dat dan een verbetering van 10% zijn. Maar iedereen kan zien dat het 11x zo snel is. (oftewel 10x snéller zoals we hieronder ook gaan aantonen).

Als we dan eerst 1% vermenigvuldigen met 100 om op 100% uit te komen, gebeurt met die 11% hetzelfde, en dat wordt 1100%. Nu is het evident, want 1100% is 1000% sneller (10x sneller) dan 100%.

[Reactie gewijzigd door A Lurker op 23 juli 2024 18:21]

Gelukkig hebben we hier taalkundig een veel eenvoudiger oplossing voor: "procent" (relatief) en "procentpunt" (absolute grootheid).

Van 69% naar 100% is een verschil van 31 procentpunt. Andersom ook.
Van 1% naar 11% is een verschil van 10 procentpunt. Andersom ook.

https://taaladvies.net/ta...1475/procent_procentpunt/

Het verschil tussen procent en procentpunt wordt vaak vergeten, dus misschien is het ook gewoon een beetje begrijpend lezen :)
Procentpunten zijn interessant, maar alleen maar nuttig als 100% een absolute betekenis heeft. Bij rente is 100% namelijk je eigen vermogen, altijd, los van of de rente nu met n procentpunten stijgt of niet.

Bij het vergelijken van grafische kaarten stel je de performance van 1 van de kaarten gelijk aan 100%. Prima, dan kun je spreken over dat de performance 31 procentpunten stijgt van kaart A en B. Maar dat zegt niks over kaart C vergeleken met D etc etc, omdat je die 100% gelijk stelt aan één specifieke kaart.

Met rente kun je juist wel alle rentes onderling vergelijken, omdat de 100% vast ligt.

Rekenvoorbeeld:

Stel kaart A doet 100 fps, kaart B doet 150 fps, kaart C doet 200 fps.
Stellen we kaart C op 100%, dan is kaart B 75% en kaart A 50%.

Dus als we kaart A en C vergelijken, stijg je 50 procentpunt, dat is 100 fps.

Maar als je kaart A en B vergelijkt, en we stellen kaart B op 100%, dan is kaart A 66%. 33 procentpunt verschil is nu ineens 50 fps ipv 66.
Volg je het zelf nog? 8)7

Wanneer je halverwege een relatieve schaal wijzigt helpt dat ook niet echt, denk ik ;)

Misschien is dat wel de reden dat je bij reviews altijd een absolute benchmark score ziet...

Goed verhaal verder, lekker kort ook ;)
Volgen ja, en leerzaam ook. Heb een beetje een wiskundeknobbel (of wiskunde-afwijking if you will) dus altijd leuk dit soort geneuzel :)
Wanneer je kaart A vergelijkt met kaart C, dan is kaart C niet 50% maar 100% sneller dan kaart A, lijkt me? Of je moet zeggen dat je gezien vanuit kaart C richting kaart A 50 procentpunten daalt in plaats van stijgt.
Wanneer je kaart A vergelijkt met kaart C, dan is kaart C niet 50% maar 100% sneller dan kaart A, lijkt me?
Klopt.

Of je moet zeggen dat je gezien vanuit kaart C richting kaart A 50 procentpunten daalt in plaats van stijgt.
Klopt ook :)

Anders verwoord:
Kaart C is 100% sneller dan kaart A.
Kaart A is 50% langzamer dan kaart C.
We zijn het kennelijk toch eens, maar in je eerste post schreef je:
Dus als we kaart A en C vergelijken, stijg je 50 procentpunt, dat is 100 fps.
En die 50 procentpunt klopt dus niet, in ieder geval niet in combinatie met het woordje stijg(ing).
Heel erg afhankelijk van wanneer je het kocht uiteraard... Ik heb op 17 juni 2017 "maar" €535,93 betaald voor de Palit GeForce GTX 1080 Jetstream 8GB. Momenteel staan de prijzen gewoon erg hoog.
Heel erg afhankelijk van wanneer je het kocht uiteraard... Ik heb op 17 juni 2017 "maar" €535,93 betaald voor de Palit GeForce GTX 1080 Jetstream 8GB. Momenteel staan de prijzen gewoon erg hoog.
Prijs van huidige 2080S zal ook nog zakken. bij net uitkomen is een GPU altijd duurder dan jaar later
Fors maar dan ook echt ford meer als je RTX functies gebruikt. Iets wat in games als Control en Modern Warfare zeker een toevoeging is grafisch zonder hevige performance downgrades.
Ach welnee. Een hele nieuwe GPU voor wat, 10-15 fps op dezelfde settings?! Dat is zinloos, temeer omdat je daarmee ook niet meteen 'soepel op 4K kan gamen' bijvoorbeeld...Baby steps - games worden ook zwaarder. Als je een 1080 of sneller hebt was Turing compleet zinloos, ja ook voor de RT. Misschien dat je nog naar een 2070S zou willen gaan... maar dat had je ten tijde van Pascal allang kunnen doen met een 1080ti. Hoger dan dat is het heel snel heel weinig perf/dollar, met andere woorden compleet weggegooid geld, zeker gezien de release cadans.

Een nieuwe generatie moet altijd de perf/dollar van de vorige flink verbeteren en Turing deed dat zeer lange tijd niet; Nvidia wilde het proberen met RT en dat bleek, gelukkig, niet voldoende om ons te overtuigen (want geen content, en we zijn niet gek). De Supers kwamen te laat om nog zinvol te zijn; want zoals je ziet staat nu een veel rappere Ampère voor de deur, met dus een aanzienlijk betere perf/dollar (ik verklapt het alvast ;))

Zoals het er nu uitziet gaat Ampere een verfijning zijn van Turing (S). Grotendeels dus dezelfde architectuur, maar vanwege 7nm meer shaders per mm2 dus met vrijwel gelijke die sizes toch een bult meer prestaties, ik verwacht 25% op elk prijspunt erbovenop tov Turing vanilla (niet de Supers). Daarmee blijven de Supers een klein beetje relevant want ze vallen in de slots 'tussen' de nieuwe Ampere kaarten. Clocks, verwacht ik niet teveel van. 2.2 Ghz boost misschien? 7nm is vooral density winst.

Een dergelijke sprong voorwaarts zou ook betekenen dat de 2080ti niet compleet overbodig wordt, totdat Nvidia besluit de 3080ti te brengen - daar verwacht ik een minimale verhoging van shader count zodat de die wat kleiner kan worden en de prijs onder de 1000 euro kan liggen, of erop, wellicht. Al met al heeft de 2080ti nu al 4300 shaders.

Basis voor deze gedachtengang is de vergelijking met de 2080 en 2070. Ongeveer 500 shaders meer en wat kleine verbeteringen in arch en je zit al gauw op de 25%, misschien 30% best-case in bepaalde titels. Meer heeft Nvidia niet nodig en Big Navi is daarmee nu alweer teruggebracht tot het aloude AMD-GPU verhaaltje van concurreren op prijs, en 'late to market'. Het begint saai te worden onderhand.

Dit wordt Pascal all over again. Ik hoop dat AMD nog 20% marktaandeel weet te behouden in 2020 - 21. Leuk he, die focus op de midrange...

Al met al verwacht ik gelijkwaardige prijspunten als de goede (dus 2060S / 2070S) Turing Supers met zo'n 10-15% meer FPS voor je centen. Verder is het nog even afwachten hoe het RT gedeelte eruit gaat zien en of ze met Tensorflow gaan schuiven.

[Reactie gewijzigd door Vayra op 23 juli 2024 18:21]

Het verschil tussen een 2080 super en 1080 is wel wat meer dan 10-15 frames... Dat gaat eerder naar de 25-50 FPS extra. En dat is een behoorlijk verschil.

Wat betreft de prijs/performace mag je inderdaad wel in de buidel tasten. Maar als je een gsync/freesync scherm hebt dan maken die 25-50 frames een wereld van verschil. Plus de bijkomende lagere frametimes wat zorgt voor een betere speelervaring.

Als je dus een 1080 had en speelt op 1440p dan is dat wellicht niet voldoende. Want een 1080 trek je 1440p niet mee vol op maximale frames. Met een 2080S kom je een heel eind.

Het is ook nog maar de vraag wat de prijzen van de 3000 gaan doen. Hopelijk valt het mee.
Het verschil tussen een 2080 super en 1080 is wel wat meer dan 10-15 frames...
Het kan zowel 10 t/m 15 frames per seconde meer zijn, of veel minder zijn of veel meer, alles is juist. Of beter gezegd alles is verkeerd. :p
Maar als je een gsync/freesync scherm hebt dan maken die 25-50 frames een wereld van verschil.
Het kan een wereld van verschil maken of het kan geen enkel verschil maken.

Je geeft namelijk telkens geen basis aan. Daarom is het onmogelijk om te zeggen hoeveel sneller iets is.

Als de basis 30 fps is en je gaat naar 60 fps, dan is het een verbetering van 100% en kun je er dus vanuit gaan dat de videokaart dubbel zo krachtig is. Heb je 120 fps en ga je naar 150 fps heb je een verbetering van 25% en is de videokaart dus waarschijnlijk 25% krachtiger. In beide gevallen is het verschil echter 30 fps...
Ach welnee. Een hele nieuwe GPU voor wat, 10-15 fps op dezelfde settings?! Dat is zinloos, temeer omdat je daarmee ook niet meteen 'soepel op 4K kan gamen' bijvoorbeeld...Baby steps - games worden ook zwaarder. Als je een 1080 of sneller hebt was Turing compleet zinloos, ja ook voor de RT. Misschien dat je nog naar een 2070S zou willen gaan... maar dat had je ten tijde van Pascal allang kunnen doen met een 1080ti. Hoger dan dat is het heel snel heel weinig perf/dollar, met andere woorden compleet weggegooid geld, zeker gezien de release cadans.

Een nieuwe generatie moet altijd de perf/dollar van de vorige flink verbeteren en Turing deed dat zeer lange tijd niet; Nvidia wilde het proberen met RT en dat bleek, gelukkig, niet voldoende om ons te overtuigen (want geen content, en we zijn niet gek). De Supers kwamen te laat om nog zinvol te zijn; want zoals je ziet staat nu een veel rappere Ampère voor de deur, met dus een aanzienlijk betere perf/dollar (ik verklapt het alvast ;))

Zoals het er nu uitziet gaat Ampere een verfijning zijn van Turing (S). Grotendeels dus dezelfde architectuur, maar vanwege 7nm meer shaders per mm2 dus met vrijwel gelijke die sizes toch een bult meer prestaties, ik verwacht 25% op elk prijspunt erbovenop tov Turing vanilla (niet de Supers). Daarmee blijven de Supers een klein beetje relevant want ze vallen in de slots 'tussen' de nieuwe Ampere kaarten. Clocks, verwacht ik niet teveel van. 2.2 Ghz boost misschien? 7nm is vooral density winst.

Een dergelijke sprong voorwaarts zou ook betekenen dat de 2080ti niet compleet overbodig wordt, totdat Nvidia besluit de 3080ti te brengen - daar verwacht ik een minimale verhoging van shader count zodat de die wat kleiner kan worden en de prijs onder de 1000 euro kan liggen, of erop, wellicht. Al met al heeft de 2080ti nu al 4300 shaders.

Basis voor deze gedachtengang is de vergelijking met de 2080 en 2070. Ongeveer 500 shaders meer en wat kleine verbeteringen in arch en je zit al gauw op de 25%, misschien 30% best-case in bepaalde titels. Meer heeft Nvidia niet nodig en Big Navi is daarmee nu alweer teruggebracht tot het aloude AMD-GPU verhaaltje van concurreren op prijs, en 'late to market'. Het begint saai te worden onderhand.

Dit wordt Pascal all over again. Ik hoop dat AMD nog 20% marktaandeel weet te behouden in 2020 - 21. Leuk he, die focus op de midrange...

Al met al verwacht ik gelijkwaardige prijspunten als de goede (dus 2060S / 2070S) Turing Supers met zo'n 10-15% meer FPS voor je centen. Verder is het nog even afwachten hoe het RT gedeelte eruit gaat zien en of ze met Tensorflow gaan schuiven.
Mooi verhaal,alleen zijn de feiten anders. Een RTX2080S is geen verbetering van 10-15ps, maar stuk hoger. Bron heb ik al eerder toegevoegd. een RTX2070S zorgt al voor 12fps(4K) tot 40fps (1080p)
Je mist het punt een beetje. Plaats de release in de tijd en ten opzichte van de komende generatie, en neem ook de perf/dollar even mee en dan wordt de 2080S een beetje een miskoop. De 2070S is/was geen heel slechte optie, net als een 1080ti; maar ook daar is de prijsverlaging over de tijd gezien bijzonder beperkt.

Je zegt het zelf, 12 FPS op 4k. Daar doe je 't niet voor. Over een jaar ben je die weer kwijt als de games weer wat zwaarder worden en dus opnieuw is die res matig speelbaar. En voor bijvoorbeeld 1440p is een 1080ti al dikke prima.

[Reactie gewijzigd door Vayra op 23 juli 2024 18:21]

Je mist het punt een beetje. Plaats de release in de tijd en ten opzichte van de komende generatie, en neem ook de perf/dollar even mee en dan wordt de 2080S een beetje een miskoop. De 2070S is/was geen heel slechte optie, net als een 1080ti; maar ook daar is de prijsverlaging over de tijd gezien bijzonder beperkt.

Je zegt het zelf, 12 FPS op 4k. Daar doe je 't niet voor. Over een jaar ben je die weer kwijt als de games weer wat zwaarder worden en dus opnieuw is die res matig speelbaar. En voor bijvoorbeeld 1440p is een 1080ti al dikke prima.
Het gaat om vergelijk van GTX1080 v RTX2080S !
De 2070 S is 12fps beter op 4K, maar wie speelt er 4K ?
Dus niet een GTX1080Ti van maken als we het hebben over GTX1080 !
Zoals ik zeg is een RTX 2070S al beter dan GTX1080, met 12fps op 4K, 22fps op 1440p, 40fps op 1080p.(Rage2) Je bent het toch wel eens dat een RTX2080S nog beter presteert dan 2070S(waar je dit verschil al mee haalt) dus nog hoger verschil met RTX2080S !

jammer dat je een mening uit z'n verband gaat halen, daar heb je niets aan. dat geeft een verkeerde beeldvorming voor de onwetende lezer hier.
Context.

Eerste alinea van waar je op reageert:

"Ach welnee. Een hele nieuwe GPU voor wat, 10-15 fps op dezelfde settings?! Dat is zinloos, temeer omdat je daarmee ook niet meteen 'soepel op 4K kan gamen' bijvoorbeeld...Baby steps - games worden ook zwaarder. Als je een 1080 of sneller hebt was Turing compleet zinloos, ja ook voor de RT. Misschien dat je nog naar een 2070S zou willen gaan... maar dat had je ten tijde van Pascal allang kunnen doen met een 1080ti. Hoger dan dat is het heel snel heel weinig perf/dollar, met andere woorden compleet weggegooid geld, zeker gezien de release cadans."

Jij haalt een 2080S erbij, terwijl die qua perf/dollar niet bepaald fantastisch is. We hebben het dan opeens over zo'n 800 eurootjes. Die heel rap minder waard gaan worden. Vergeet niet dat een 1080 MSRP een stuk lager ligt. Terwijl je al een hele poos toegang had tot tegen de 600 euro kostende 1080ti's.

Het punt is, even los van het gezanik over 10-15 FPS en waar wel of niet; een GPU upgrade kan je het beste goed timen en dat betekent niet laat in de generatie nog iets kopen tenzij de perf/dollar heel goed is. Is dat niet zo, dan is het veel effectiever om minimaal voor een 40-50% prestatie boost te gaan tussen upgrades. Anders voel je er gewoon bar weinig van.

[Reactie gewijzigd door Vayra op 23 juli 2024 18:21]

@Vayra Je haalt dingen uit zijn verband en quote de verkeerde persoon. Het 'hele verhaal' komt voort uit bewering van forumlid micnic, en daar wou jij ook even op reageren.(en anderen) Het gaat er dus om dat een upgrade van GTX1080 (geen Ti) weinig zin zou hebben met huidige RTX. dit terwijl ik duidelijk laat zien dat dat wel zo is. Een RTX2070S is al beter laat staan een 2080 Super die ik zelf gebruik. zoals ik ook al vaker heb aangegeven is dat een RTX2070S nu ideaal is voor €565,- tov een GTX1080 uit 2016 die €800,- kostte.
Degene die nu een GTX1080 hebben, zitten dus met de gebakken peren, want dat ding is niets meer waard. €800,- vergelijken met nu 2e hands. Voor €325,- koop je een nieuwe RTX2060, dus ligt de prijs daar al onder. om nog maar te zwijgen over RX5700 en RX5600XT ! Je hebt dus erg veel verlies op die GPU.

Je kon niet eerder naar een RTX2070 S, want die was nog niet uit, en toenmalig GTX1080Ti was een stuk duurder dan nu een RTX2070S. je verhaal een vage wending geven helpt niet. Dat er een daling is geweest in prijs van enkele GTX1080 TI voor een aantal dagen zegt ook niets.

Maar nogmaals zoals gezegd, is een RTX2070S al beter dan GTX1080, dus een 2080S ook. en 1e kun je voor €565,- kopen, dus zeker de moeite waard om te upgraden.

Kijk; je moet geen GTX1080Ti willen upgraden met RTX2070 of 2070S, dat slaat compleet nergens op natuurlijk. Zie je het verschil ? (GTX1080 v GTX1080Ti)

- nog even vergelijk van GTX1080 die bij uitkomen €800,- kostte en nu koop je een RTX2080 S voor dat zelfde geld.

Daarmee heb je voor het zelfde geld dus een veel betere performance van dikke 40-45%
Wil je niet zoveel geld uitgeven kijk je voor eerder benoemde 2070S. (wat de RTX3000 serie gaat kosten is nog afwachten tot rond de zomer, en wat er uit gaan komen.) als je geen haast hebt kun je daar zeker op wachten.
Goed, nog een keertje.
- Volgens mij zeg ik (en quote ik opnieuw vetgedrukt nog wel) dat een 2070S nog best een optie had kunnen zijn binnen Turing voor de 1080 bezitter. Met als kanttekening dat je dat al jaren had kunnen doen door een 1080ti te kopen want die presteert hetzelfde en de MSRP is slechts 700 dollar, terwijl een marginaal sterkere 2080 al veel meer kost. Daar is je verband.

- De 1080 kostte geen 800 euro. De MSRP was 600 dollar.
https://www.anandtech.com...0-founders-edition-review

Snap je het nu? Je baseert jezelf op compleet verkeerde info.

[Reactie gewijzigd door Vayra op 23 juli 2024 18:21]

1080 is wel wat beter dan 2060.
1080 is wel wat beter dan 2060.
scheelt elkaar maar weinig https://www.techpowerup.c...rtx-2060-gaming-z/32.html. maar je begrijpt de context toch wel. RTX 2060 en GTX1080 zijn meer gelijk(vergelijkbaar in prestaties)
Dat is inderdaad een grote upgrade, al zal het wel iets duurder kosten.
Big Navi met 60CU heeft ook 3840 cores. Navi en Turning presteren klok voor klok even goed. We weten dat Nvidia betere efficiënte heeft en dus hogere kloksnelheden haalt.
https://www.computerbase....radeon-rx-5700-xt-test/4/

Hoeveel sneller de architectuur Ampère zal zijn tegenover Turning geen idee. 7 mm gaat zeker veel betekenen. Het mag wel duidelijk zijn dat de GA103 chip hoogstwaarschijnlijk de big Navi achter zich laat.

Maar hoe snel deze chips zijn intreseert mij weinig. Ik ben vooral benieuwd naar de strategie rondom raytracing en AI door de tensorcores. Gaat Nvidia hiermee door en blijft een aanzienlijke deel van de oppervlakte hiervoor toegewezen? Of worden de consumentenchips meer puur gaming kaarten; met verhoudingsgewijs minder tensorcores/RTcores.

[Reactie gewijzigd door Maulwurfje op 23 juli 2024 18:21]

Nvidia zal zeker doorgaan met Raytracing en dit zal dus nog steeds op Ampère aanwezig zijn. Je kunt nu al zien hoeveel RT cores deze kaarten zullen hebben want het aantal RT cores is gelijk aan het aantal SMs.
De kans is groot echter dat ze tensor cores eruit flikkeren want het neemt veel ruimte op de die in beslag zonder dat de consument er echt veel aan heeft. DLSS is namelijk een ondergeschoven kindje geworden nu image sharpening is uitgebracht.
Raytracing is er blijft er. Ik was even vergeten dat er tensor cores zijn en RT cores. De industrie lijkt een andere weg in te slaan dan Nvidia. Het leunt meer op van softwarematige toepassing van raytracing. Het design van deze chips is natuurlijk al lang geleden gemaakt, dus ik verwacht niet dat we minder RT cores zien nu ik er iets beter over nadenk. Tenzij Nvidia het lukt de prestaties van de RT cores aanzienlijk te verbeteren.

En ja, nu DLSS EOL is, waar zijn die tensor cores nog goed voor hè.
Laatste leak was dat Big Navi 80CU's zou hebben, exact het dubbele van de rx 5700.
Dit zou dan wel de 2e generatie van RDNA zijn, die een grote boost in performance per watt zou moeten geven. De Xbox series X GPU zou met 56CU's zou een tdp van 180w hebben met de RDNA2 architectuur volgens leaks. Dat zou een 80Cu chip mogelijk moeten maken tussen de 250 en 300w. Dus wieweet
80 CU's; dat is flink. In een powerenvelop van 300W. Dat kan maar één ding betekenen, lagere kloksnelheden. Ik verwacht niet enorm veel progressie van RDNA 2 kwa IPC, omdat het zo dicht op Navi ligt. Ik heb er geen echte redenen voor. Wel moet de architectuur efficiënt zijn, omdat het ook gemaakt is voor de consoles.
Lijkt me een ideale upgrade voor wie van de 1080 series komt! 2de kwartaal dit jaar al? Dacht dat het nog minstens een jaar wachten zou zijn!
Ik zit mezelf ook ontzettend tegen te houden om mijn high end build af te ronden, wil zo graag een 2080ti naast mijn 9900k. Maar ja, 1000-1200-1400 euro is gewoon te veel voor een 1,5 jaar oude kaart waarvan denieuwe waarschijnlijk rond mei komt. Mijn portemonnee vind het veel leuker als ik mijn 1080 nog even laat zitten :D
2de kwartaal uitkomen werkt als volgt. In Juni worden de 3080, 3080Ti en 3070 aangekondigd. Een week of zo later komen dan de partnerkaarten. Dan worden de kaarten pas leverbaar vanaf midden juli. En dat gaat dan mondjesmaat zodat je pas eind Augustus fatsoenlijke beschikbaarheid hebt.
Ik hoop dat de nieuwe kaarten, buiten een stuk sneller dan mijn 1080, ook eindelijk HDMI 2.1 hebben.
Dat is de feature waar ik het meest op zit te wachten inderdaad. 4K120hz met variabele refresh.. ivm een LG C9 is dat de beste stap voorwaards in een lange tijd..
Ben benieuwd naar de prestaties. Denk niet dat ze sneller zijn dan de 2080ti maar wel veel goedkoper zullen zijn. De 2080ti heeft 4300 cuda cores. De 3080 3840 (als dat al klopt..). Nu zegt dat niet zoveel maar ben zeer benieuwd.

Heb onlangs een RTX2070S gekocht maar als de 3080 een beetje normale prijs heeft ga ik zeker upgraden. Wil toch graag richting de 144 fps op mijn Gsync scherm op 1440p. Dat lukt op dit moment zeker nog niet op high/ultra settings.

Een andere tip is om eerst eens te kijken naar je CPU voordat je een nieuwe GPU koopt. Ik had nog een i5 6600 waarmee ik met moeite de 60 fps kon houden in veel games. Terwijl mijn CPU hooguit 60% load had. Sinds vorige week overgestapt op een i5 9600k met OC naar 5 GHZ. Mijn performance in alle games is bijna verdubbeld...
Maar als je cpu(i5 6600) maar op 60% load zit heb je toch geen cpu bottleneck?
Dat kan nog steeds als je uit gaat van 60% overall load op de CPU.

De i5 6600 heeft 4 cores, als je daarvan maar de helft volledig gebruikt door waardeloze multithreading in je applicatie of game dan is 60% niet zo'n heel gek getal. Die 'bottleneck' heb je nog steeds met de 9600K, de winst zit hem dan met name in de toename van kloksnelheid.
Kan wel zo zijn als het spel niet alle cores van je CPU kan benutten,
Dat dacht ik dus ook... totdat ik toch maar eens ben gaan kijken naar wat benchmarks etc. Ik had wel een beetje extra performance verwacht maar ik kon op de i5 6600 borderlands 3 bijvoorbeeld net goed en wel op 60 fps spelen. Daarbij moest ik wel een aantal settings van ultra omlaag zetten.

Met de i5 9600k heb ik alles op ultra gezet en haal ik makkelijk 90-120 fps... Enige wat ik heb vervangen is mobo + cpu. SSD er weer aangehangen (dus zelfde drivers etc) en alles is gewoon veel sneller geworden.

Overigens kon ik de 6600 (non K) ook niet overclocken dus ik had mezelf daarmee een beetje gebottlenecked. Ik was in de veronderstelling dat op 1440p de cpu geen bal meer uitmaakt. Maar dat had ik een beetje verkeerd ingeschat...

[Reactie gewijzigd door biggydeen2 op 23 juli 2024 18:21]

Goed om te horen :-) Heb net mijn Ryzen 3600 binnen ter vervanging van mijn I5 6600k. Nu hopen dat in combinatie met mijn GTX 1070 de prestaties verbeteren!
De 6600k zou je nog kunnen overclocken naar 4.5 -4.6 ghz. Denk dat de Ryzen wellicht nog iets sneller is. Maar als je de 6600k op stock had draaien zul je zeker verschil zien.
Ja dat zal je sowieso merken. Rond de release van BFV was ik van een 6600k @4,5 naar een 8600k @4,8GHz overgestapt. Waarom? 6600k was een zware bottleneck en was niet in staat de volle 144fps te vullen, met de 6600k haalde ik max rond de 90fps met 100% cpu usage.

[Reactie gewijzigd door Macfreakje op 23 juli 2024 18:21]

wat zo goed als alle benchmarks niet doen, is het weergeven van gpu hardware queue. je kunt GPUView voor gebruiken en vervolgens precies zien hoeveel headroom je CPU of GPU heeft...
Dan kan 1 core nog steeds aan 100% draaien.
i5 6600 heefd geen HT even ter info ;)
Lekker dit, net een maandje nieuwe rtx in huis komen ze vervolgens binnekort alweer met een nieuwe :+
Dat blijft helaas zo maat ;)
Inderdaad dat is met heel veel dingen zo. Zo had ik ooit een nieuwe Range Rover besteld en 2 maanden later werd het nieuwe model onthuld. Ik baalde daar enorm van, maar uiteindelijk heb ik daar van geleerd dat je gewoon niet moet omkijken en lekker genieten van wat je hebt. Dat leeft echt een stuk relaxter!
Eigenlijk had je dat wel kunnen verwachten natuurlijk...
wat om geen GPU aan te schaffen dan want als het altijd zo is, kan je net zo goed niks halen...
Tenzij je een 5700(XT) haalt kan je op dit moment beter wachten.
De 5700(XT) heeft nog wel een mooie prijs prestatie verhouding. Maar andere GPU's zijn relatief overpriced of hebben verouderde hardware (Polaris kaarten van AMD en de 5500 serie is te duur voor wat je krijgt)

Afhankelijk van het segment waarin je winkelt kan je dan beter wachten tot de nieuwe generatie. Aangezien Infelicis een RTX GPU gekocht heeft shopt hij in ieder geval in het 350+ euro segment. Daar gaan dit jaar wel nieuwe GPU's komen.

AMD komt met Big Navi (ik gok daar op 500+ euro) en nVidia dan met de RTX 30x0 serie. Dus dat wordt 350+ euro (hopelijk gaan ze niet weer de prijzen van de xx60 modellen verhogen.)
Ik heb zelf ook de 5700(XT) gekocht, biedt inderdaaf veel.
Heb de Red Dragon van PowerColor voor 390,-
Nee, er zijn echt wel goede en slechte momenten om te kopen.

Het is bijvoorbeeld nu een goed moment om een CPU te kopen als je voor AMD wilt gaan. RAM en SSD is ook geen slecht idee nu. Er zijn relatief recent nieuwe AMD CPUs uitgekomen op een veel beter procede dan ervoor, en er staat niets voor de rest van het jaar op de roadmap. Voor RAM en SSDs is het ook een goed moment omdat de prijzen historisch laag staan, en de prijzen toch wel de neiging hebben om te schommelen door de jaren heen.

Qua GPU is het geen goed idee van nu te kopen in het high end segment omdat de huidige RTX serie bijna 2 jaar oud is ondertussen (er zijn nieuwere kaarten, maar het zijn dezelfde chips). De nieuwe generatie komt er binnen een aantal maanden aan. Ook AMD gaat terug iets in dit segment neerzetten. Met wat gelukt zorgt dat voor wat druk op de prijzen, zodat je meer bang/buck hebt.

Het is natuurlijk niet zo dat je meteen een slechte koop doet als je de cyclus niet goed volgt, maar je kan toch echt wel meer waar voor je geld krijgen als je de juiste timing kiest.
Neem aan dat hij er al 1 had. Hij had kunnen verwachten dat er begin dit jaar een aankondiging zal komen. Meestal zo om het jaar.
Ja er komt altijd een volgende maar over 3 maanden of 1 jaar is toch wel een groot verschil.

Ik zou nu zeker geen RTX kaart kopen als ik weet dat de volgende serie binnenkort op de markt komt.

Ik wacht de 2dehands 20180ti's wel af als de 3080 er is :)
Haha dit had je mijlenver kunnen zien aankomen. RTX is inmiddels alweer even een tijdje op de markt. Sterker nog, tussen ongeveer elke generatie zat 1 jaar, de GTX480 en 580 zelfs nog in hetzelfde jaar!! Laatste generaties zat er ongeveer 2 jaar tussen, daar zitten we precies op met tweede kwartaal van dit jaar, in ieder geval wanneer ze uitkomen.

De supers uitbrengen was hun klassieke "ti" truuk om weer chips te verkopen, er heeft nooit veel tijd tussen de ti's en nieuwe kaarten gezeten.

[Reactie gewijzigd door Xm0ur3r op 23 juli 2024 18:21]

Had je maar één jaar eerder gekocht. Inmiddels is je RTX zwaar verouderd.
"zwaar verouderd" :+ overdrijven is ook een kunst
Ik denk dat hij het sarcastisch bedoeld, omdat hij de nadruk legt op één jaar. Wat ook klopt, 1 jaar boeit natuurlijk bijna niks.
Tja de huidige RTX kaarten zijn eigenlijk net te langzaam om RTX de resolutie omlaag te zetten.
Maar goed dat wist je eigenlijk al toen ze aangekondigd werden. Dit soort nieuwe features hebben vaak 2-3 generaties nodig voor de hardware snel genoeg is. Dat was met Tesselation ook zo.

Afhankelijk van wat voor een kaart je had was upgraden niet zo nuttig. Als je een Maxwell 980/980Ti of Pascal 1070+ kaart had kon je de RTX 20x0 generatie best wel overslaan. Wil je dat niet moet je accepteren dat je er flink voor moet betalen.
Naja, van een RX580 naar een RTX 2070 S was voor mij wel een nodige upgrade, voornamelijk omdat ik recent ben begonnen met WQHD Gamen.
Dat is qua prestaties zeker een grote stap vooruit. Voor 1440P en hoger is wel wat snellers nodig dan de RX580. (mits je meer dan 60FPS wil met alles max).
De 5700 XT was ook een mooie optie geweest maar net ietsjes langzamer dan de 2070 S en geen RTX support. Maar persoonlijk vind ik RTX nog niet interessant genoeg gezien het aantal games dat het ondersteund.
ik zou sowiso geen kaart kopen voor raytracing an sich, wel voor de extra FPS ten opzichte van mijn huidige GPU.
Als je ziet wat ze zonder al kunnen (bv in Red dead redemption 2) hebben we het op dit moment nog niet nodig.
Maar als de hardware er snel genoeg voor is kan het straks zeker wat toevoegen.
waarschijnlijk voor de helft van de prijs van deze nieuwe krengen. ik denk niet dat je de hoofdprijs zou neerleggen tijdens de launch. dus ik zou niet klagen.

[Reactie gewijzigd door Farabi op 23 juli 2024 18:21]

gewoon steeds een generatie skippen tot je oude niet meer mee doet met de rest. Ik ging ook van de 660 naar de 970 en 1080.
Binnenkort? Voor die in de winkel ligt is het kerst.
Het was al maanden bekend dat het waarschijnlijk eind maart aangekondigd gaat worden de nieuwe RTX kaarten.
Zo is het altijd, ik ging in het begin van vorig jaar een nieuwe GPU kopen. Ik dacht een gtx 1060 ti te nemen (voor wat Warcraft/hearthstone/diablo 3) te spelen .. Ik heb een gtx 960 die binnenkort 4 jaar aantikt. Maar had anderhalf jaar geleden (kan ook 2 jaar zijn) ofzo geupgrade naar 1440p dell scherm (ondertussen 2). Dus een upgrade van videokaart zou niet slecht geweest zijn. Maar kon niet beslissen ... tijdje laten liggen en nu dacht ik ... het moment is aangebroken ... Nu ga ik toch even wachten om te zien als een 5600 xt wat zal worden ... Er is nu geen dringende noodzaak bij, aangezien ik komende tijd bitter weinig tijd heb. Maar ik kan blijven wachten ... en uitstellen. En als je dan lang genoeg gaat treuzelen is er weer een nieuwe generatie. Als er geen absolute noodzaak bij is kan je zoals ik wel even wachten. Ik heb ook al gedacht aan een gewone nieuwe pc ... Maar ik heb dus een i7 6700, 32gb ram, m2 960 pro, dark rock pro etc ... tikken allemaal 4 jaar aan. Maar als ik dan bekijk dat deze cpu het nog altijd goed doet ... Development, af en toe een VM. Voor wat meer multicore winst ... dat is het mij niet waard. Alleen voorlopig het videogedeelte upgraden lijkt me voldoende, de rest is meer dan snel genoeg, aangezien ik niet stream, niks met video doet etc. Het lijkt mij een beetje nutteloos voor het moment. Upgraden doe ik als het nodig is of als er echt verschil in winst is. En als je wat koopt, most likely is er binnen een maandje of 2 wel wat nieuws ... maar je kan altijd blijven wachten en dan is er wel wat nieuws, maar een weekje later is er toch nog weer wat anders
ja, en de daaropvolgende ligt alweer op de tekentafel!
Lekker dit, net een maandje nieuwe rtx in huis komen ze vervolgens binnekort alweer met een nieuwe :+
Dat heb je eenmaal als je lang wacht om die nieuwe hardware te kopen, aangezien ze al 20 September, 2018 uitkwamen de Geforce RTX kaarten.

Maar de prijzen zijn nu wel een stuk beter dan 16 maanden terug. :)
Heb een RTX Super gehaald dus hij is nog "maar" een half jaartje oud..
Ja dat is de risico van nieuwe hardware kopen, als je lang wacht koop je er een net voordat er weer een nieuwere model van is, en als je hem meteen koop betaal je weer een stuk meer dan als je 6 maanden of meer wacht.

Ik wil voor de Geforce RTX 3080 gaan, want ik vond de snelheid winst van de Geforce RTX 2080 tegenover de Geforce GTX 1080 maar minimaal, wanneer de Geforce GTX 1080 bijna 2x zo snel is dan de Geforce GTX 980, en dat is de Geforce RTX 2080 echt niet vergeleken met de Geforce GTX 1080, en dat de RT nog in de kinderschoentjes staat met de Geforce RTX 2080, en dat het een stuk volwassener is met de Geforce RTX 3080, hoop alleen dat AMD met iets goed komt rond de zelfde tijd, en als het kan net zo snel is maar goedkoper, dan koop ik een Radeon kaart in plaats van een Geforce RTX 3080.
Och dit wist je al lang van te voren dat ze komende zomer met een nieuwe lijn komen.. Dat wil niet zeggen dat je huidige kaart ineens is afgeschreven, immers zijn die nieuwe kaarten vaak bij introductie al vele malen duurder.. Ondertussen heb je nu dus al meer dan een maand van die rtx kunnen genieten en voor die nieuwe kaarten uit zijn waarschijnlijk nog eens 5-6 maanden extra..
Klopt maar ik baal ervan dat ik deze aankondiging net heb gemist... Anders had ik wel eventjes gewacht maarja eigen fout
Het is niet echt een aankondiging, de officiele aankondinging volgt pas later, maar zoals ik al zei, het was al langer bekend dat ze waarschijnlijk al einde lente/begin zomer met de opvolgers zouden komen, ik had daar al van gehoord voordat ik mijn RTX 2060 Super kocht eind november.
Eerste generatie RTX werd verscheept in september 2018. Nieuwe informatie lag in de lijn der verwachting. Heeft de OpenVR benchmark van de mysterieuze AMD Radeon kaart heeft dit misschien vervroegd? :)
De RTX 3080 zou volgens de geruchten ook gewoon de 10GB vram krijgen. De Quadro variant zou met de 20GB gaan lopen.
Heb net voor de cryptoboom een 1080 van een tweaker over mogen nemen voor 450 euro. Door de crypto gpu prijs inflatie en gebrek aan innovatie heb je nu, dik 2,5 jaar later, nog altijd niks competiefs op dat prijsniveau zitten.

Ik hoop dat intel en AMD de gpu markt het komende jaar een beetje open gaan breken. Nvidia is erg lui bezig in het hoge segment, daar hebben ze toch geen concurrentie.
Eindelijk iets om m'n 1070 mee te upgraden :P performance claims zien er goed uit, zeker nu de kaarten 7nm zijn ipv 12

Op dit item kan niet meer gereageerd worden.