Om zes uur vanavond zond Nvidia een vooraf opgenomen evenement uit, waarin CEO Jensen Huang de nieuwe Ampere-videokaarten voor gamers introduceerde. Over de GeForce RTX 3070, RTX 3080 en RTX 3090 was de afgelopen tijd al het nodige uitgelekt, maar desondanks wist Nvidia op punten te verrassen - zo blijken de nieuwe gpu’s dubbel zoveel Cuda-cores te hebben als eerder werd gesuggereerd. In deze preview lees je alles wat we tot nu toe weten over Nvidia’s gloednieuwe gamingkaarten.
Nvidia GeForce RTX 3000: Ampere + 8nm
De belangrijkste nieuwigheden in de GeForce RTX 3000-serie zijn de Ampere-architectuur, die zowel de Volta-architectuur voor servers als de Turing-architectuur voor gaming opvolgt, en het ‘in samenwerking met Nvidia ontwikkelde’ 8nm-proces van Samsung. Dit procedé is een doorontwikkeling van Samsungs 10nm-proces, wat betekent dat er nog geen euv wordt toegepast bij de productie.
De line-up: RTX 3070, RTX 3080 & RTX 3090
De line-up bestaat vooralsnog uit drie modellen, met als vlaggenschip de GeForce RTX 3090 (bijgenaamde BFGPU - bedenk zelf gerust waar dat voor staat) op basis van de GA102-gpu. In feite is dit de opvolger van de RTX 2080 Ti (of zelfs van de Titan RTX, zoals Nvidia zelf zegt), waarin de TU102-chip zat, maar om de naamgeving te versimpelen heeft men dit keer gewoon voor een hoger modelnummer gekozen. De RTX 3080 is gebaseerd op dezelfde chip, maar dan met 17% minder ingeschakelde rekeneenheden. Pas de RTX 3070 maakt gebruik van de GA104-chip - ter vergelijking, bij de vorige serie werd de TU104 al ingezet voor de RTX 2080.
RTX 3090
RTX 2080 Ti
RTX 3080
RTX 2080
RTX 3070
RTX 2070
Architectuur
8nm, GA102
12nm, TU102
8nm, GA102
12nm, TU104
8nm, GA104
12nm, TU106
Cuda-cores
'10496'
4352
'8704'
2944
'5888'
2304
Boostsnelheid
1700MHz
1635MHz
1710MHz
1800MHz
1730MHz
1710MHz
Vram
24GB gddr6x
11GB gddr6
10GB gddr6x
8GB gddr6
8GB gddr6
8GB gddr6
Geheugensnelh.
19,5GBit/s
14Gbit/s
19Gbit/s
14Gbit/s
16Gbit/s
14Gbit/s
Geheugenbus
384bit
352bit
320bit
256bit
256bit
256bit
Bandbreedte
936GB/s
616GB/s
760GB/s
448GB/s
512GB/s
448GB/s
Tgp
350W
260W
320W
225W
220W
175W
Verderop in dit artikel gaan we in op de belangrijkste nieuwe features van de Ampere-architectuur, de reeds genoemde GA102- en GA104-gpu’s en het ontwerp van Nvidia’s eigen Founders Edition. Daarbij moeten we ons volledig baseren op wat Nvidia vandaag heeft bekendgemaakt; er zijn nog geen samples in ons lab aanbeland en de uitgebreide persbriefings, waarin doorgaans dieper wordt ingegaan op de architectuur, hebben nog niet plaatsgevonden. Gelukkig ligt de eerste GeForce RTX 3000-videokaart al op 17 september in de winkels en is het dus niet al te lang wachten op alle details én natuurlijk uitgebreide, onafhankelijke benchmarks - maar dat betekent natuurlijk niet dat we jullie weerhouden van onze voorlopige analyse.
Ampere voor gamers: 10.000+ cores?
Het kloppend hart van de videokaarten uit de RTX 3000-serie is uiteraard de Ampere-architectuur. Niet geheel nieuw voor de complete gpu-markt, want we zagen Ampere al eerder in Tesla-kaarten voor servers, wel komt Ampere nu voor het eerst uit in GeForce-producten.
Verbeterde sm's, rt-cores en tensor-cores
De beloftes met de RTX 3090, 3080 en 3070 zijn groot: tot tweemaal de prestaties en 1,9 keer de efficiëntie van Turing-gpu’s. De tweede generatie RTX moet dit bereiken door de verbeteringen die een nieuwe generatie sm’s, rt-cores en tensor-cores hebben gekregen. Met technische details was Nvidia dinsdag nog spaarzaam.
Twee nieuwe gpu's: GA104 en GA102
We noemden eerder al dat de drie videokaarten die Nvidia vandaag heeft aangekondigd gebaseerd zijn op twee gpu’s: GA104 en GA102, waarbij de G en A respectievelijk staan voor GeForce en Ampere. Er is nog een grotere chip, de A100, die Nvidia vooralsnog niet in consumentenproducten toepast, maar die eerder dit jaar wel al in de Tesla A100 zat.
Als we de specificaties vergelijken, valt ten eerste op dat de GA102-gpu een stuk kleiner is dan GA100: hij bevat bijna de helft minder transistors. Dat komt enerzijds doordat hij minder streaming multiprocessors (sm’s) bevat, namelijk 82 in plaats van 108, maar ook doordat Nvidia de hbm2e-geheugencontroller heeft vervangen door een exemplaar dat met goedkoper gddr6x-geheugen werkt, waarover later meer.
GA100
GA102
GA104
TU102
Toegepast in
Tesla A100
RTX 3080, RTX 3090
RTX 3070
RTX 2080 Ti
Productieproces
7nm TSMC
8nm Samsung
8nm Samsung
12nm TSMC
Transistors
54 miljard
28 miljard
n.n.b.
18,6 miljard
Die size
826 mm²
627 mm²
n.n.b.
754 mm²
Cuda-cores
6912
5248*
2944*
4352
TGP
400W
350W
220W
260W
Geheugen
HBM2e
gddr6x
gddr6
gddr6
Tegen alle geruchten en zelfs specificaties van videokaartfabrikanten in beweert Nvidia dat de GA102- en GA104-gpu’s dubbel zoveel cuda-cores bevatten, namelijk 10496 stuks in GA102 en 5888 stuks in GA104. Op de conventionele manier is dat onmogelijk: zowel qua tdp als die size als transistors passen zo veel cuda-cores niet in de genoemde gpu’s.
De belangrijkste clue voor wat er aan de hand is, vinden we op een specificatiepagina die Nvidia na afloop van de stream online heeft gezet. Daarop staat dat de sm’s van de RTX 3000-serie elk twee fp32-rekeneenheden bevatten, ten opzichte van één bij alle voorgaande generaties.
In de documentatie van de A100-gpu vinden we een blokdiagram dat de interne structuur van een Ampere-sm toont. Voor een totaal van 64 fp32-units, vaak simpelweg shader units genoemd, zitten er vier clusters met elk zestien van die fp32-eenheden in één sm. Per cluster zijn er echter ook acht fp64-units geplaatst. Zeer waarschijnlijk heeft Nvidia die fp64-units uitgerust met de mogelijkheid om ook als dubbele fp32-unit te dienen, waardoor er effectief geen zestien maar 32 fp32-units per cluster aanwezig zijn, oftewel 128 stuks per SM.
Een Ampere-sm met 16x fp32 en 8x fp64 per cluster (links) versus een Turing-sm met alleen 16x fp32 (rechts).
Als deze hypothese klopt, beschikken de Ampere-gpu’s voor gamers over een enorme sloot fp32-rekenkracht. Een verdubbeling van de prestaties lijkt te optimistisch, aangezien andere delen van de chip (dispatcher, scheduler, caches, geheugenbandbreedte) vermoedelijk een forse bottleneck zullen opleveren, maar in potentie zouden we wel eens héél indrukwekkende gamingprestaties kunnen gaan zien.
Geheugen, pci-e 4.0 en RTX IO
Nvidia heeft in samenwerking met Micron gewerkt aan gddr6x, een doorontwikkeling van gddr6. Laatstgenoemde versie werd al gebruikt op Turing-gebaseerde videokaarten en ook op de RTX 3000-serie maakt deze een terugkeer. Op de meest high-end modellen, de RTX 3080 en 3090, wordt echter gddr6x gebruikt. Dit nieuwe type videogeheugen komen we voor het eerst officieel tegen, en levert een twee keer zo hoge doorvoersnelheid als normaal gddr6. Dit wordt mogelijk gemaakt door op gddr6x vier waarden per klokcyclus te verwerken, tegenover twee op gddr6. Je zou het bijna kunnen vergelijken met slc versus mlc bij flashgeheugen: er wordt niet langer alleen met 0 en 1 gewerkt, maar met 00, 01, 10 en 11.
Op de RTX 3080 betekent dit in combinatie met 19Gbps-geheugen gekoppeld aan een 320-bit geheugenbus een geheugenbandbreedte van maar liefst 760 GB per seconde, 70 procent meer dan bij zijn voorganger. Met de X-versie wordt eigenlijk het maximale uit gddr6 geperst, wat het verbruik en de warmteproductie weer niet ten goede komen - vermoedelijk is dit één van de redenen dat het opgegeven verbruik van Ampere-kaarten significant hoger ligt dan bij zijn voorgangers.
Pci-express 4.0
Pci-express 4.0 is een van de andere specificaties waar Nvidia kort licht op wierp tijdens de presentatie. Niet als de eerste ter wereld, dat was concurrent AMD met de introductie van de Navi-architectuur. Maar als we de prestatieclaims van Nvidia mogen geloven, zullen de high-end RTX 3000-kaarten vermoedelijk meer baat hebben bij de nieuwe standaard om de grafische geheugenbuffers zo optimaal mogelijk te kunnen benutten.
Van pci-e 4.0-ssd naar vram met RTX IO
Naast het geheugen op de videokaart zelf is volgens Nvidia een hogere doorvoersnelheid nodig tussen het vram en het systeemgeheugen om toekomstige games goed te kunnen spelen. Moderne ssd’s op pci-e 4.0 zijn hiervoor bij uitstek geschikt maar de hoeveelheid processorkracht gooit hier roet in het eten, aldus de chipontwerper. Veel processorcores zijn nodig om data van een opslagmedium door te cpu te laten verwerken en in het systeemgeheugen te plaatsen, waarna het via de pci-e bus naar de gpu en uiteindelijk het vram gestuurd wordt. Met name bij compressie - in hedendaagse games eerder regel dan uitzondering - is de benodigde processorkracht hiervoor groot.
Nvidia wil dit probleem oplossen met RTX IO, door data direct vanuit een ssd naar het vram te loodsen en in de gpu zelf lossless te decomprimeren. Dit moet een groot aantal cpu-cores bevrijden van bovenstaand werk en laadtijden drastisch verminderen. Details over hoe RTX IO exact gaat werken zijn er nog niet - op het eerste gezicht lijkt het niet mogelijk om ssd's zonder tussenkomst van de cpu met de videokaart te laten communiceren, maar daarop komen we in onze review ongetwijfeld nog terug.
Het lijkt erop dat de fabrikant met RTX IO gebruik gaat maken van een eveneens zojuist aangekondigde api van Microsoft: DirectStorage. Niet geheel verrassend zal die api ook gebruikt worden in de aankomende Xbox Series X, en een soortgelijke techniek gaan we ook in de PlayStation 5 zien. De naam doet vermoeden dat videokaarten van de Pascal-generatie en eerder RTX IO niet kunnen ondersteunen, maar het is vooralsnog onduidelijk of er daadwerkelijk rt- of tensor-cores gebruikt zullen worden bij het verplaatsen van de data.
8K, AV1 en HDMI 2.1
De eerste 8K gaming gpu. Zo zet Nvidia zijn nieuwe topmodel, de RTX 3090, in de aankondiging neer. Deze videokaart zou dusdanig snel zijn dat 8K binnen bereik moet komen in deze generatie videokaarten. Met viermaal het aantal pixels van 4K is er een hoop rekenkracht vereist om dit mogelijk te maken, maar de fabrikant demonstreerde dat dit bij een framerate van 30 beelden per seconde mogelijk moet zijn, zeker bij gebruik van dlss.
AV1-decoding, maar nog geen encoding
Ook voor het eerst zien we ondersteuning voor de AV1-videocompressiestandaard op een videokaart. De GeForce Ampere-kaarten kunnen deze standaard hardwarematig afspelen zonder daarbij aanspraak te doen op rekenkracht buiten het media block. Belangrijk is daarbij dat de fabrikant het specifiek heeft over decode, wat de indruk wekt dat encoderen met ditzelfde onderdeel niet mogelijk zal zijn - de gelijk gebleven nvenc-generatie lijkt dat te bevestigen.
Hdmi 2.1 voor 4K/144Hz en 8K/60Hz
Tenslotte werd hdmi 2.1 als specificatie genoemd. Om deze standaard is al het nodige te doen geweest, en in ons achtergrondartikel zijn we hier eerder dit jaar diep op ingegaan. Voor de RTX 3000-serie zijn de voordelen van hdmi 2.1 relevant, gezien met de hogere bandbreedte 144Hz bij een 4K-resolutie of 60Hz op 8K mogelijk wordt. Ook ondersteuning voor variabele refreshrates ligt hierbij voor de hand, wat Nvidia eerder al heeft opengesteld onder de noemer G-Sync Compatible.
Founders Edition: ontwerp en koeling
Een van de meest spraakmakende gelekte details over de nieuwe generatie Nvidia-videokaarten was toch wel de futuristische koeler van de Founders Edition, zoals de gpu-ontwerper zijn referentiemodel sedert enige generaties noemt. Nvidia belooft dubbel zo goede koeling in vergelijking met de open dual-fan-koeler die het voor de RTX 2000-serie gebruikte.
Founders Edition: futuristische koeler en ultrakort pcb
Om de GA102-gpu in de RTX 3080 en RTX 3090 te kunnen koelen - met ruim over de 300 watt zijn het geen zuinige kaartjes - heeft Nvidia een unieke koeler ontwikkeld, waarbij de twee ventilatoren aan weerszijden van het koellichaam zijn geplaatst. De buitenste fan is achterop geplaatst, maar tevens andersom geplaatst, zodat ze beide in dezelfde richting blazen. Onder elke fan zit een conventionele heatsink met koelvinnen, die met de gpu zijn verbonden via vijf heatpipes.
Doordat de printplaat (overigens voorzien van 18 stroomfasen voor de gpu) van de Founders Edition erg kort is, zuigt de achterop geplaatst buitenste fan volledig ‘door de videokaart heen’ - de lucht stroomt aan de voorzijde naar binnen, door het koelblok en vervolgens aan de achterkant weer naar buiten. In een standaard behuizing zal de warme lucht ofwel door bovenin geplaatste outtake-fans ofwel door de cpu-koeler de kast uit worden geblazen. De binnenste fan blaast op zijn beurt door het korte pcb praktisch recht op de gpu en vrm, en kan zijn warme lucht deels rechtstreeks uit de behuizing lozen.
RTX 3070 en 12-pins stroomconnector
De GeForce RTX 3070 heeft een koeler die meer lijkt op wat we gewend zijn, met twee fans aan de voorkant. Getuige de luchtuitlaat in de backplate heeft ook deze kaart een kort pcb en blaast de tweede fan dus (deels) door de kaart heen.
Alle RTX 3000 Founders Editions hebben een opvallende stroomaansluiting; de compacte 12-pins connector die eerder al opdook in geruchten. Je hoeft je echter geen zorgen te maken over compatibiliteit, want een adapter naar twee reguliere achtpins peg-stekkers wordt in de doos meegeleverd. Fabrikanten van custom videokaarten lijken vooralsnog sowieso de vertrouwde aansluitingen te gebruiken.
Afmetingen
De RTX 3090 Founders Edition is de enige triple-slot kaart, die met een breedte van 13,8 cm bovendien fors uitsteekt boven de standaardbreedte van een uitbreidingsslot. Deze videokaart is 31,3 cm lang, op het randje van wat in de meeste kasten past. De RTX 3080 en RTX 3070 zijn met 11,2 cm exact even breed als een standaard pcie-slot, slechts twee sloten hoog en met respectievelijk 28,5 en 24,2 cm ook een stuk minder lang.
Beschikbaarheid en prijzen
De Nvidia GeForce RTX 3080 is de eerste van de nieuwe kaarten die de winkels zal bereiken, namelijk op 17 september. Het topmodel RTX 3090 volgt een week later op 24 september, voor de RTX 3070 is tot slot nog geen concretere datum dan ‘in oktober’ vrijgegeven.
Inmiddels heeft Nvidia de europrijzen van zijn eigen Founders Edition-kaarten bekendgemaakt. De RTX 3070 gaat 519 euro kosten, de RTX 3080 zal voor 719 euro te bestellen zijn en voor de RTX 3090 vraagt Nvidia maar liefst 1549 euro, bijna 300 euro meer dan de RTX 2080 Ti kostte. Uiteraard bundelt Nvidia ook een game bij de RTX 3000-videokaarten, namelijk Watch Dogs: Legion.
Deze Ubisoft-game komt uit op 29 oktober en speelt zich af in een toekomstig Londen, waar de stad is veranderd in een politiestaat waarin je als burger volledig wordt gecontroleerd. Als lid van een geheime groep hackers neem je het tegen de staat op. Als je een RTX 3000-videokaart of een pc die daarmee is uitgerust aanschaft bij een deelnemende winkel, krijg je een gamecode voor Watch Dogs: Legion en een jaar lang GeForce Now, Nvidia’s cloudstreamingdienst voor games.
Prestatieclaims en eerste benchmarks
Nvidia liet tijdens zijn presentatie enkele prestatieclaims zien, doorgaans in enigszins vage termen en bovendien vaak gebaseerd op tests met real-time raytracing en dlss geactiveerd. In dergelijke scenario’s spelen de verbeterde rt- en tensorcores vermoedelijk een grote rol, waardoor ze niet representatief zijn voor het overgrote merendeel van de gameplay, nog zonder raytracing en op de native resolutie van je beeldscherm.
Nvidia's eigen claims
Toch bekijken we Nvidia’s claims alvast - het is immers één van de weinige ‘benchmarks’ waarover we tot nu toe beschikken, en iedereen wil weten hoe de nieuwe kaarten gaan presteren. In een hele reeks rtx-toepassingen is Ampere volgens Nvidia tussen de 60 en 100 procent sneller dan Turing - welke nieuwe kaart Nvidia hier met welke oude kaart vergelijkt, wordt niet duidelijk.
Verder behaalt Ampere volgens Nvidia het prestatieniveau van een Turing-kaart met een tdp van 250 watt (lees: de RTX 2080 Ti) al bij een verbruik van slechts 120 watt, waaruit een verbetering van de prestaties per watt met 90% volgt. Om de in deze grafiek pakweg 80% hogere prestaties te bereiken, is echter ook een veel hoger vermogen van 320 watt nodig. Dat laatste komt overeen met het tgp van de RTX 3080.
De eerste in-game 'benchmarks'
Eén Britse website heeft onder supervisie van Nvidia reeds een GeForce RTX 3080 kunnen benchmarken. Digital Foundry mocht daarbij niet zelf de games, resolutie en settings kiezen, dus neem de resultaten vooralsnog met een korrel zout. Gemiddeld over zes games presteerde de RTX 3080 80% beter dan de RTX 2080, waarbij opvalt dat ook de games die zonder RTX zijn getest mooie winsten laten zien.
Na de presentatie van Nvidia mogen we wel stellen dat de verwachtingen hoog zijn en dat verbeteringen en toename in prestaties niet gering lijken te zijn. Ongeacht waar concurrent AMD ook mee komt, Nvidia lijkt geen gas terug te hebben genomen met Ampere en de volgende generatie Radeons moet eveneens flinke verbeteringen zien om het groene kamp bij te kunnen blijven benen.
De eerste GeForce RTX 3000-videokaarten zijn inmiddels onderweg naar ons testlab, waar we ze uiteraard zullen onderwerpen aan onze eigen onafhankelijke benchmarks. Je leest dus spoedig meer, hier op Tweakers - dé site voor echte techliefhebbers, zelfs om elf uur 's avonds .
Ik merk dat iedereen meteen vol enthousiast is, maar ik vind het vreemd dat we nog geen benchmark gezien hebben. Daarnaast hoor ik ze vooral zeggen, dubbel zo snel met raytracing. Prima dat wil ik best geloven, maar is het dan ook zonder raytracing enhancement dubbel zo snel. Is die 3070 net zo snel als een 2080ti met raytracing, of ook zonder? Ik wil eerst benchmarks zien voordat ik conclusies trek.
Er staan toch duidelijk benchmarks in dit artikel vermeld? Al dan niet van de 3070. Borderlands 3 gebruikt geen RT en daar is de 3080 80% sneller dan de 2080 in 4k. De 3070 zal dus naar alle waarschijnlijkheid net zo snel zijn als de 2080ti zonder RT.
Daarnaast is het nog even de vraag hoe goed deze kaarten overclockbaar zijn en verwacht nog prestatie winsten in nieuwere drivers. De 3070 gaat op basis daarvan zeker net zo snel zijn als een 2080ti.
Leuk al die procentjes. zonder echter framerates erbij weet je nog niks.
Stel de game runt op 30 FPS op 4k en je hebt 80% winst. 1,8 * 30 = 54 fps. Dan heb je dus nog steeds geen 60 fps. Zelfde voorbeeld maar nu runt de game al op 60 fps. 1,8 * 60 = 108. Dat voelt vast al meer acceptabel.
Daarnaast laten ze dus alleen benchmarks zien op 4k. Dat is leuk maar de meerderheid speelt (nog) geen spelletjes op die resolutie.
Zoals anderen al zeggen. Wees sceptisch en wacht lekker de reviews af.
"Leuk al die procentjes. zonder echter framerates erbij weet je nog niks."
Is natuurlijk onzin wat je zegt:
A: Die "procentjes" worden berekend op basis van framerates, dus het vertelt misschien niet het hele verhaal maar laat wel degelijk zien wat je kan verwachten qua performance boost
B: De vergelijking wordt gemaakt met een kaart die al lang en breed uit en gereviewed is, de 2080. Je kan makkelijk zelf de even daar de FPS cijfers van opzoeken en de framerates van de 3080 zelf berekenen met die 'procentjes'.
Je zegt dat mijn je mijn comment onzin vind. Prima ieder zijn mening.
Ingaand op je opmerkingen:
A: die performance boost hangt van een groot aantal variabelen af. Om er maar een paar te noemen: gebruikte overige hardware (monitor GPU opslage geheugen), software, bestaande games, nog te release games, etc. Het scenario waarin deze procenten zijn bepaald hoeft dus niet overeen te komen met het scenario waarin de consument het product gaat gebruiken.
B: Zoals ik bij A al aangaf zijn deze procenten nog steeds vrij onzeker. Je kan dit daarom dus niet zomaar doorvertalen.
Het is natuurlijk onzin dat een consument diepgaand onderzoek moet gaan doen in de prestaties van een 2080 en dit moet omrekenen om te kijken hoe de nieuwe 3080 gaat presteren. Gelukkig hebben we straks de reviews.
[Reactie gewijzigd door cpt Iglo op 23 juli 2024 13:21]
Je claim is dat het 'niets zegt' en dat is onzin, dat is geen mening dat is een feit.
Of je hebt een hele rare definitie van 'niets'.
Daarnaast waren er zelfs in een aantal van de benchmarks gewoon FPS nummers zichtbaar, bijvoorbeeld bij Shadows of the Tomb raider bovenin.
Ook de gebruikte hardware stond gewoon in het beeld aangegeven, dus je weet precies wat er gebruikt werd.
Als we het hier puur over Nvidia slides hadden dan zou ik inderdaad zeggen, houd een slag om de arm, maar de tests van DF bieden echt wel veel meer houvast om een inschatting te maken van de performance van de kaarten. En de uiteindelijke performance zal hier echt niet veel van gaan afwijken.
Prima, niets is misschien wat te stellig geweest. Laat ik dan zeggen dat het een indicatie geeft. Test van DF heb ik nog niet gezien. Die ga ik even zoeken. Dank je wel voor de tip.
Bedankt voor de link
Interessante video. Nog geen echte harde FPS getallen maar wel een vergelijking met de voorganger. De claims van Nvidea zijn iig te reproduceren. Daarnaast vind ik zijn conclusie wel heel mooi.
Maar we weten niet of dlss gebruikt was bij de 3000 series en uit stond bij de 2000 series, bijvoorbeeld? Dit soort benchmarks, zonder enige informatie over de settings, zegt gewoon bijna niets... nu denk ik niet dat nvidia liegt ofzo, hun nieuwe kaart zal flink sneller zijn, geen twijfel. Maar dit soort zinloze benchmarks, dat irriteert me wel.
DLSS zit niet in shadow of the tomb raider, en ook niet in Doom Eternal.
Daarnaast zijn het geen benchmarks van Nvidia, maar van Digitalfoundry, en die is altijd gewoon volledig open over de settings die gebruikt worden, sterker nog, de settings die aan/uit staan staan gewoon aangegeven in het filmpje.
[Reactie gewijzigd door Rixos op 23 juli 2024 13:21]
Opzich kun je die gewoon uit de betreffende video halen. In Tomb Raider staat de FPS gewoon linksboven in beeld. Daarnaast was de FPS van de 2080 van de laatste BL3 benchmark ook zichtbaar (34 fps). Tel daar 80% bij op en je komt op de 60 fps uit. Als je echter bekend bent met BL3 weet je dat DX12 qua fps minder presteert dan DX11. Tenminste, bij mijn 2070S is dat zo. Daarnaast heeft volumetric fog zown belachelijke performance impact dat dit gewoon letterlijk 20+ fps kost. Dit kan je dus prima uitzetten.
Ook werd duidelijk vermeld in de video dat er bij sommige games vsync aan stond. Er werd dus gecapped op 60fps. De performance kan dus nog wel eens beter zijn dan die 80%.
Vrij duidelijk verhaal. Dit zijn gewoon prima benchmarks van huidige games die door veel mensen gespeeld worden. Deze 3000 serie zijn beesten met een prima prijskaartje. Hoewel 500-800 euro voor een GPU voor veel mensen best wat geld is. Maar goed, dan maar een jaartje niet op vakantie
En tja, je gaat geen RTX3000 serie kopen om op 1080p met een standaard 60hz scherm te gamen. Je heb er alleen wat aan op 1440p of 4k op minimaal 144hz g/free-sync schermen. Om het verhaal compleet te maken heb je ook een zeer recente CPU + snel geheugen (minimaal 3000mhz) nodig om geen systeem bottleneck te krijgen. Heb je een wat oudere CPU heeft upgraden geen zin en kun je beter een volledig nieuwe PC kopen.
[Reactie gewijzigd door biggydeen2 op 23 juli 2024 13:21]
Waarom niet? Het is niet zo dat de markt stilstaat en met de komst van nieuwe consoles zullen de grafische specs, ook voor 1080p, wederom flink opgerekt worden. Je bedoelt denk ik: je gaat geen RTX2080ti upgraden naar een RTX3080 als je op 1080p 60hz speelt, maar voor mensen in het midden segment of nog op oudere 10 of 9 serie GPUs zal het een prima upgrade zijn.
Omdat een RTX3000 serie voor 1080p zware overkill is. Op die paar mensen met een 240hz scherm na. Een 2080ti is ook zware overkill op 1080p en al helemaal zonde van je geld als je op 60hz speelt. Dan ben je genoodzaakt om vsync te gebruiken (dus max 60fps). Tenzij je graag met screen tearing speelt. Dan kun je beter geld besteden aan een 144hz g/freesync scherm. En de rest van je PC moet het ook kunnen trekken. Een oude CPU van 4 jaar oud (een i5 6600k b.v.) is al een flinke bottleneck, zelfs voor een 2070.
Waarom nou weer een -1? Ik noem enkel feiten..
[Reactie gewijzigd door biggydeen2 op 23 juli 2024 13:21]
Het is nu overkill, maar voor de toekomst toch niet? Iemand die niet jaarlijks upgrade, koopt hardware doorgaans met het oog op toekomstbestendigheid. Dan is een RTX3070 of een RTX2080ti (mits deze dan flink in prijs zakt) een uitstekende investering.
DIt, ik heb gewacht met RTX omdat ik al een 1080TI had, voor mij geen reden om een kleine upgrade te kopen voor de hoofd prijs. Dit is voor mij dus heel spannend
Precies hetzelfde hier, ik heb zelfs nog een GTX 970 in m'n bakkie zitten.
Erg lang gewacht met de upgrade, ik wilde eigenlijk een 2000 series kaart aanschaffen, maar had zo'n gevoel dat RTX in een baby fase zou zitten op deze kaarten, dan maar een jaartje langer wachten.
En dan nu met de 3000 series ben ik echt heel erg hyped, ik ga hoogstwaarschijnlijke ook een 3090 aanschaffen, mag toch wel hopen dat deze over 5 jaar nog steeds games een beetje redelijk aankan.
Ik koop zelf liever de midrangers zoals de RTX2060s (of RTX3060), kom zelf ook van een GTX970.
Waarom? Met een midranger kan ik nu wellicht niet alles op ultra 1440p draaien, maar deze kan ik wél 3x upgraden voor hetzelfde bedrag als een RTX3090.
Hierdoor kun je dus elke 1,5 tot 2 jaar upgraden om weer redelijk bij de specs van dat moment te zitten. Kijk bijv. naar de performance van een RTX2060s tegenover een GTX980ti (2 generaties verschil), hoe zou dan bijv. het verschil tussen een RTX5060s en een RTX3090 worden? Dan kun je voor minder geld, langer profiteren, maar dan moet je er genoegen mee nemen dat je niet altijd de hoogste settings kunt behalen van nieuwe games op het moment van aanschaf. Je kunt alleen langer op relatief dezelfde performance teren.
De RTX3090 is meer bedoeld als opvolger van de RTX titan, dus dit is niet echt te vergelijken. De grootste sprong in performance is meestal bij de 2e generatie van een architectuur zoals hier te zien is.
Ik denk dat de RTX 3070 voor 499$ juist een heel aantrekkelijke mid range kaart wordt voor mensen die 2 generaties achterlopen
Het was ook een reactie op GeneralNero die van een 970 naar een 3090 wil upgraden
Een RTX3070 van 500,- zie ik overigens ook niet echt als mid-range meer De GTX970 had een introductie prijs van $330, de RTX3070 begint op $500 (dat was vroeger bijna de prijs van een GTX980). Ik vind dat mid-range (sinds RTX) is verschoven naar de GTX1660TI / RTX2600.
Uiteindelijk ligt het natuurlijk aan je budget en moment van aankoop of je 3x een RTX60 of 2x een RTX70 wilt kopen binnen 6 jaar tijd.
Als we de slides mogen geloven, dan zou het nu zonde zijn om een nieuwe RTX2080ti te bestellen. 2e hands misschien, maar dan voor ~70% van de prijs van een nieuwe RTX3070? Ik verwacht niet dat je er daar veel van zult vinden, aangezien de RTX2080ti voor meer dan €1.000,- verkocht wordt en de RTX3070 rond de €520,- gaat kosten. €300 a €400 voor een 2080ti zou qua prestaties reëel zijn vermoed ik. Het verlies dat de (2e hands) verkoper dan heeft is meer dan de kosten voor een nieuwe RTX3070. (in sommige gevallen zelfs 2 nieuwe kaarten, ook al hebben ze geen SLI-brug meer)
Ik ben het overigens wel met je eens dat als je nu iets wilt kopen voor de toekomst, dat je dan beter een iets duurdere variant kunt kiezen dan de "bang-for-buck" kaarten. In ieder geval, dat doe ik zelf ook altijd. Als ik nu mijn kaart zou willen upgraden, zou ik persoonlijk eerder voor de RTX3080 gaan dan de RTX3070. Aan de andere kant, misschien eerst maar eens mijn oude 1080p monitor upgraden...
[Reactie gewijzigd door DiaZ_1986 op 23 juli 2024 13:21]
2e hands gaan die dingen flink zakken ja, want je zegt het zelf al:
Waarom zou je een RTX2080ti kopen als een RTX3070 meer doet voor minder? Prijzen van die kaarten zullen in een vrije val terecht komen.
Het is echter de vraag hoeveel bezitters van een 2080ti zullen verkopen, maar daarentegen, ook met verlies is het dan een stuk goedkoper om te upgraden naar een 3080/3090 (voor de echte enthusiasts).
Ben in ieder geval blij dat ik mijn RTX2060 2 maanden geleden voor een goed bedrag heb weten te slijten ^^
Zeer waarschijnlijk wel. Uiteindelijk is de upgrade niet alleen ruwe performance, maar in dit geval ook andere technieken etc. Ik zelf geef eigenlijk altijd de voorkeur voor een xx60 en vanaf nu een xx70 (1080p naar 1440p) en dan over 3 jaartjes ofzo gewoon lekker de 5070 er bij. Heb anders toch het gevoel dat ik een dikke 3090 zou hebben, maar iets mis. Daarnaast is upgraden ook gewoon leuk.
Ligt er aan wat je wilt. Een 3070 en daarboven is gewoon overkill voor 1080p dus zonde van je geld. Over een paar jaar nog steeds. Er zit verder ook geen upgrade in. Tenzij je op 240hz wilt gamen maar dat voegt amper iets toe ten opzichte van 144hz. We zijn op een punt aangekomen dat je straks niet meer hoeft te upgraden. Consoles bepalen de grafische vooruitgang. Dit staat de komende 5-7 jaar dus vast.
[Reactie gewijzigd door biggydeen2 op 23 juli 2024 13:21]
Ik heb een RTX2060S en krijg BF5 op Ultra niet boven de 100fps. Een RTX2080ti trekt BF5 (ultra, zonder dxr, 1080p) op 158fps, dan zit je 'slechts' 14fps boven het wenselijke 144hz.
1 á 2 generaties Frostbite verder en je zit ónder de 144fps (zonder DLSS2.0). Dus zo'n enorme overkill is een RTX3070 nou ook weer niet, in 2020 misschien, maar in 2021/22 als big navi en de next gen consoles er zijn? Grafisch worden games er niet lichter op.
Ben het met je eens wat betreft de 60hz 1080p gamers dan is de RTX 30xx serie voor nu eigenlijk overbodig. Mijn RTX 2080Ti vreet alle spellen in de allerhoogtse settings met RT aan zo op ...als ik voor 60fps in 1080p ga...
MAAR PERSOONLIJK Ik heb een 144hz Gsync scherm op een 1080p en vind 60hz niet meer van deze tijd, IK vind dat games op 120-144 hz een dag en nacht verschil maakt.
Wat een nòg grotere verschil maakt en nòg mooier gamed is ULMB ..een techniek die in veel Gsync monitoren verstopt zit.. dan moet je een vaste versnellingswaarde hebben van 85 fps of 120fps die absoluut niet eronder mag zitten en 0 framedrops mag hebben.. een haast onmogelijke taak voor nieuwe kaarten op de aller zwaarste nieuwste spellen... Maar makkelijk te bereiken op oudere games van een jaar of 2 of 3 of langer terug.
ULMB is echt het allermooiste wat ik ooit heb ervaren in games.Kippenvel hoe gaaf dat is.
Uit dit clip, heeft ASUS een eigen afkorting eraan gegeven... Helaas brengt dit wel blur met zich mee. Ben dan erg benieuwd naar wat voor scherm jij op doelt.
Hmmz.... een RTX3060 (of RTX3050) valt ook onder de RTX3000 serie. Voor gamers met een 1080p 144Hz - 240Hz scherm zal dit hoogstwaarschijnlijk (kaarten zijn nog niet op de markt) niet eens echte overkill zijn.
Een GTX3070 biedt waarschijnlijk een upgrade-pad naar een monitor met hogere resolutie en kan dus een goede investering zijn.
Maar voorlopig is het deponeren van stellingen op geruchten en niet op realiteit gebaseerd omdat de kaarten nog niet leverbaar zijn. Dat is een feit.
1070ti hier, ik heb nu 2,5 jaar gewacht om een upgrade te doen.
En inderdaad ik speel op 1080p, danwel 144hz maar ik voel dat de tijd nu rijp is voor een upgrade.
Mijn i5-4670k op 4,3Ghz bottlenecked nu al m'n GTX1060 6GB. In dat opzicht heeft upgraden echt geen nut, want ik heb eerst een nieuwe CPU nodig, wat een nieuw moederbord betekent, dan wil ik net zo goed ook een nieuwe NVMe SSD hebben aangezien dat op dit moederbord niet kan. Oftewel nieuwe PC.
Wat ik wilde aankaarten is dat je altijd voorzichtig moet zijn met hoe bepaalde informatie wordt gepresenteerd. Je kan dingen in % uitdrukken of absolute getallen. Goed dat je er een aantal voorbeelden bijhaalt om het wat meer in context te plaatsen.
Maargoed. Ik kijk zelf ook wel uit naar een mooie 3070/3080. Dat gaat een goede vervanging worden van mijn 1060. Nog even geduld voor de release van de overige partijen aangezien de founders geen optie voor mij is (Sandwich case).
Ja,elke user case is anders. Ik speel.nog op 970 in sli, watergekoeld. Wil dat zo langzamerhand eens vervangen voor een nieuwe kaart, dan wil ik er wel goed op voorruit gaan (want zal ook waterblok moeten aanschaffen) zonder dat ik zin heb om het mobo en cpu te vervangen (nog een 3570k). Voor de ander is het een vraag ' moet ik vorige generatie vervangen' of ' is het de extra centjes waard tovoude generatie'. Daar heb je toch echt betere benchmarks voor nodig imo.
Ik zou niet weten waarom een benchmark van borderlands 3 zonder RT of DLSS niet representatief zou zijn. Ook al zou de 3080 maar 50% sneller zijn dan de 2080 is hij nog steeds 30% sneller dan een 2080ti.
Benchmarks, spel gekozen door Nvidia, resolutie gekozen door Nvidia, verder niks. Dat zijn dus de meest ideale resultaten. Geen goed beeld denk ik zo, en ik zou ook wel uitgebreide resultaten willen zien.
Dat vraag ik mij af want er wordt duidelijk in de video genoemd dat vsync aan staat. Er wordt dus gecapped op 60fps in sommige games. Borderlands 3 gebruikt geen RT en DLSS dus lijken mij vrij valide benchmarks. Uiteraard even afwachten verder maar ziet er veel belovend uit.
Toch vaak zo met de introductie van nieuwe kaarten. De wereld beschikt alleen nog over claims van nvidia en die zijn natuurlijk heel rooskleurig, dus prima om het enthousiasme wat te temperen idd. Ik ben heel benieuwd of de dubbele fp32 rekeneenheden ook dubbel schalen. De 3070 heeft obv deze specs al 20Tflop aan rekenkracht, echt gestoord voor een “midrange” kaart. Ook als je beseft dat de next-gen consoles over resp 10-12 Tflop aan rekenkracht beschikken. Dat was vrij high-end totdat nvidia met de 3000 serie op de proppen kwam. Nu zijn tflops niet alleszeggend, maar ben benieuwd hoe de flopjes van ampere zich verhouden tot turing en of AMD met RDNA2 ook met zoiets komt.
[Reactie gewijzigd door Hulleman op 23 juli 2024 13:21]
Mja Tflops zeggen erg weinig als je twee verschillende architecturen met elkaar vergelijkt. Dat is altijd al zo geweest. In de tijd van Fiji en Vega had AMD ook veel hogere Tflops met compute maar dat zie je niet terug in games.
Als je nu kijkt naar nVidia 2080 Ti vs 3090 met 13 vs 36 tflops dan heb je het over ongeveer 2,7x zo veel tflops.
Denk maar niet dat als de 2080 Ti 60 FPS haalt de 3090 ineens 162 FPS gaat halen. Als het 70-80% hoger is mogen we denk ik al blij zijn.
Veel meer dingen zijn van belang als je die rekenkracht wilt kunnen benutten.
Bij AMD zijn de Tflops van Navi10 (RDNA1) lager dan die van Vega 20. Maar toch is Navi 10 sneller in games.
Ik denk dat het hier vergelijkbaar zal zijn. Ja de prestaties gaan veel beter zijn maar ze zullen niet 1:1 de lijn volgen die je ziet met de % toename in het aantal tflops.
Net als dat de 12tflops van de Xbox Series X niet te vergelijken zijn met Navi 10 overclocked die dan ook 12 kan halen. Dan denk ik dat de Series X door de nieuwere architectuur toch betere game prestaties neer gaat zetten. En dat zullen we met RDNA2 op de desktop straks ook gaan zien.
Tflops vergelijken is nuttiger voor compute maar ook daar kan bepaalde software veel meer uit architectuur X halen dan architectuur Y.
Het is net als Auto's met PK's vergelijken zonder rekening te houden met gewicht,stroomlijn,aandrijflijn en banden.
*de 2070 S heb ik zelf door gerekend aan de hand van wat er nu bekend is over de Ampere kaarten en wat er over de 2080 S en 2080 Ti in de presentatie zat
Dan zet nVidia vooral in op compute:
-Veel meer FP32 performance, meer dan 2x
-Veel meer Tensor performance, meer dan 2x
-Betere RT performance, +-75 hoger
Het lijkt er op dat ze flink gaan inzetten op slimme AI features en zaken zoals DLSS.
Ik ga er van uit dat de rasterization prestaties en RT prestaties wel aanzienlijk hoger zullen zijn als in 50-70%. En met RT en DLSS zie ik 100% sneller in games ook wel gebeuren. (En dan heb ik het over de 2080 Ti vs 3090)
[Reactie gewijzigd door Astennu op 23 juli 2024 13:21]
Het zijn "benchmarks" ze runnen op de 2080 en dan de 3080 en vergelijken dan de performance van de output video met elkaar. Ze mochten ook nog niet echt benchmarken, maar het laat inderdaad wel redelijk (en wat ze doen vooral eerlijk) beeld achter van een flinke preformance increase.
Maar alleen op heel specifieke games uitgezocht door Nvidia. Voordat ik een gat in de lucht spring en een 3080 ga bestellen wacht ik eerst wel even op wat andere reviews met daadwerkelijk behaalde fps in verschillende games en mogelijk andere 'issues'...
zeker, ben zelf ook erg benieuwd, natuurlijk hebben ze wel ervaringen met die games op vorige GPU's, maar een percentage increase van een opname zegt idd vrij weinig, en de kaart komt over 2 weken uit, snap niet dat nvidia niet gewoon benchmarks toe laat.
Goede kans dat dat met drivers te maken heeft. En sowieso verwacht ik dat je hier nog wel wat hotfixes op gaat zien over twee weken.
Ik zie weinig reden om aan de performance claims te twijfelen, al moet je ze wel lezen als 'best-case' natuurlijk. Trek er eens 10% vanaf en dan is het nog steeds niet verkeerd. Tussen Pascal en Turing zag je ook wat spreiding in de winst. Sommige games waren net even wat minder efficient op Turing en het merendeel deed het juist beter. Dat zal nu niet anders zijn, something's gotta give. De grote winst is dat je weer up to date bent voor een nieuwe generatie - daarop is de balans in de GPU nu afgestemd. En nieuwe games zijn juist doorgaans zwaarder, dus netto is zo'n best-case berekening op de lange termijn niet eens raar.
[Reactie gewijzigd door Vayra op 23 juli 2024 13:21]
raken ze wel aan, de video staat op hun youtube kanaal en ze leggen heel goed uit wat ze wel mogen en niet mogen, en waar nvidia wel zeggenschap in hadden en waarin niet
Het zou heel tof zijn als jullie in de review/benchmarks een paragraaf Microsoft Flightsimulator 2020 mee kunnen nemen. Een erg nieuw spel wat nu al bekend staat om erg heftige GPU requirements. Het is voor mij de reden om een 30x0 te kopen, maar gezien het enthousiasme van de duizenden posts in de forumdraad over dat spel ben ik zeker niet de enige.
Ik ben erg benieuwd naar de nieuwe best buy guides. Met de nieuwe Intel en AMD chipsets in aantocht wil ik eind dit jaar een nieuwe pc gaan bouwen. De 3090 is mij te duur, ik neem de 3080 wel. Daarvoor was mijn vakantie baan te kort om te werken 😉
Ik vraag me dit ook af. Want Als je ziet hoeveel sneller dit is dan verwacht ik ook dat de BIG Navi best snel gaat zijn. Immers verwacht ik dat ze dit vooral doen omdat ze AMD voor willen blijven.
Ik ben nu benieuwd wat AMD gaat doen na dit soort nieuws. Hopelijk komen ze met een gelijkaardige kaart.
Anders overweeg ik toch om van kleur te veranderen
MS Flightsimulator 2020 lijkt ook wel wat andere bottlenecks te hebben dan alleen GPU. Zelfs op 1080p blijft fps rond de 50 zweven met een 2080ti, maar doen veel zwakkere GPU's het bijna net zo goed. Bijvoorbeeld 45fps met een 2060S.
Ik denk dat hooibergje bedoeld, een machine waarin de GPU dicht bij de 100% benut kan worden. De rest van het systeem vormt dan geen noemenswaardige 'bottleneck' voor de GPU om zijn ding te doen.
Met een oude engine die 'maar' 4 cores benut gaat het moeilijk worden vrees ik. Ik heb geen merkbaar verschil in framerate tussen 1080p en 4k.. met een 2080ti, i9 9900K, 32gb ram en een nvme drive. Beetje frustrerend wanneer een modelbouwsim als realflight beter aerodynamica in realtime kan simuleren als MSFS.
De bottleneck is de CPU i.c.m. DX11 heb ik begrepen. Die kan maar 4 threads aan. Als de engine naar DX12 omgebouwd gaat worden, dan gaat de performance met zeer high end kaarten omhoog.
Het schijnt ook dat FlightSim 2020 een CPU bottleneck heeft. Er worden maar 4 CPU cores gebruikt ook al heb je er 12. Dit zit puur in de software..
Trouwens wel balen zeg ik heb net een nieuwe pc besteld met een RTX2080Super, die net zoveel gekost heeft als die nieuwe 3080 (afgaande op de prijzen hier)
Nu was ik toch voorlopig niet van plan om op 4k te gaan gamen (waarschijnlijk op 1440p) dus waarschijnlijk zit ik nog goed.
Dit had je kunnen weten als je het een beetje in de gaten houd wat er speelt in de markt. Eind 2020 is de tijd pas rijp om een nieuwe pc samen te stellen. Even geduld nog
Je RAM kan nog steeds maar 3700Mhz doen met Ryzen (Zonder een andere bottleneck te introduceren). dus een ram intensive applicatie / game zal altijd jouw RAM als bottleneck zien ipv GPU,
Zelfde geld voor games die veel textures gebruiken waardoor ze vanaf je disk moeten komen en dat is veel trager dan vanuit Vram.
Ik zou ook graag een test zien om de snelheid van de Tensor cores te vergelijken met de vorige generatie. Programmas die daar zeer geschikt voor zijn zijn de Ai schaakengines Fat Fritz of Leela Chess Zero waarbij je kan kijken hoeveel nodes per seconde berekend worden. Een indicatie wat de vorige generaties deden vind je hier
Ik gebruik zelf Fat Fritz en heb een RTX 2080 Ti. Dit is ook één van de hoofdredenen dat ik een RTX kaart heb.
Ik zou wel van balen als ik op dit gebied prestaties moet inleveren als ik upgrade naar een RTX 3080.
In de worst case scenario is de RTX 3080 volgens NVidia namelijk even snel als een RTX 2080 Super. In best case scenario 2x zo snel.
[Reactie gewijzigd door mm1985 op 23 juli 2024 13:21]
Dat zou wel heel zuur zijn inderdaad. Ik kan vooralsnog weinig vinden mbt tot de 30XX kaarten en Ai schaakengines. Echter deze zeer uitgebreide blogpost heeft het over Ai en deep learning icm de verschillende RTX kaarten en de A100. Lijkt me ook zeer relevant voor ons schakers. In ieder geval ziet het er niet naar uit dat je je zorgen hoeft te maken dat een 3080 minder snel is dan een 2080ti.
AFAIK is het spel from scratch opnieuw opgebouwd, om het fatsoenlijk te parallelliseren. Terwijl dat zeker gelukt is, kan ik het mis hebben. Het is dan nog steeds een goede test om te laten zien dat deze generatie kaarten voor dit spel al dan niet de moeite waard is.
Ja idd, dat zou mooi zijn. ZIt hier met 8 jaar oude 2600K met 1070 en haal ongeveer 30 frames nu. Zou erg graag naar 50 a 60 frames gaan vooral omdat wanneer straks PMDG met zijn add-on vliegtuigen gaan komen je sowieso een drop in frames gaat krijgen.
Maar een high-end CPU van of AMD of Intel samen met een GTX3080 gaat volgens mij dit toch wel leveren aangezien een 2080Ti nu ook al richting de 60 frames gaat: https://www.youtube.com/watch?v=CKVhyOZaUcU
Een vriend wil ook al een nieuwe PC voor flightsim gaan kopen dus populair is het zeker!
Ik verwacht dat je daarvoor zult moeten wachten tot de 40x0 generatie. Maar het is mooi dat er een game is dat zo zwaar is dat we het kunnen gebruiken als indicatie van de verbetering van videokaarten per generatie. Een soort van nieuwe versie van 'does it run Crysis'.
Dat belooft niet veel goeds wanneer MF2020 VR-support gaat krijgen. Heb een Reverb G2 in de pre-order en wil deze graag combineren met een 3080 en dan zou ik verwachten dat dit afdoende moet zijn, maar als deze sim in pancake-mode al moderne kaarten laat zweten voorspelt dat niet veel goeds. Afgezien van MF2020 wordt de 3080 mogelijk wel een erg goede combi voor VR waar je echt nooit genoeg performance hebt.
Voor MF2020 mogelijk wel (maar dat ga ik niet doen), al voldoet een 3080 voor al het andere waarschijnlijk. Heb de Reverb G1 geprobeerd met een 1080Ti en dat ging verrassend goed! Bijv. HL Alyx draait echt super op de G1 met dezelfde resolutie (2x 2k*2k)
Het is een crime om zo'n game te reviewen omdat je constant data van de servers van MS nodig hebt. Dat gaat geen goed scenario opleveren. Misschien als er een built-in bench van is.
[Reactie gewijzigd door Vayra op 23 juli 2024 13:21]
Je kan het ook off-line spelen. dan heb je alleen wat minder mooie dingen op het oppervlak, maar als je door een flinke partij 3D wolken vliegt, zal die kaart het echt wel stevig voor zijn kiezen krijgen.
Dan ga je gewoon ergens met dik netwerk zitten en vlieg je rondjes om Central Park, oid. 5 MB/s is tegenwoordig ook niet zo extreem hoog. Zelfs ik haal dat, en ik ben altijd vrij conservatief met mijn internetabonnement.
Wow, op papier zien het er super kaarten uit.
Ik kan niet wachten op onafhankelijke testen van de 3080.
Als de 3080 in ruwe kracht ook de 2080 Ti voorbij raced dan wordt deze de opvolger van mijn 1080Ti. De Raytracing power vind ik minder interessant dan de ruwe kracht van de kaart.
Het is natuurlijk de vraag wat iemand ervoor wil geven, je kan nog steeds 600 euro vragen voor de 2070 Super, maar goed..
Ik zat net te kijken naar V&A, de 2080 TI probeert men te verkopen voor 900+ euro terwijl de nieuwe kaarten goedkoper gaan worden met meer performance. Ik kan het ze natuurlijk niet kwalijk nemen, het is immers vraag en aanbod.
Mja, maar erg sympathiek is het niet om iemand anders willens en wetens een poot uit te draaien. Blijkbaar erg op de centen en geen bereidheid om hun verlies te nemen. Ach, dat soort mensen zijn van alle tijden. gewoon goed opletten en jezelf goed inlezen.
[Reactie gewijzigd door -Moondust- op 23 juli 2024 13:21]
We mogen ook niet vergeten hoe de 2de hands markt werkt. Ik zet ook vaak spullen duurder te koop omdat je sowieso weet dat er zal afgepingeld worden. Dus als ik zeker 700 euro ergens voor wil krijgen zal ik het startbedrag ook wel op 900 euro ofzo zetten om die buffer te hebben. En als er dan toevallig een gek langskomt die er 900 euro voor wilt geven, dan ga ik natuurlijk ook wel eventjes aan de eigen portemonnee denken
Maar dat is ook het "nadeel" van het feit dat zelfs de 10xx reeks in veel gevallen nog makkelijk mee kan in moderne games. Natuurlijk, ultra settings op 4k zal er niet inzitten, maar het blijft maar een minderheid die dat trekt. Ik denk dat de modale gamer die nu nog met een 1070 of hoger zit zelfs nu nog niet de échte nood ziet om te upgraden.
[Reactie gewijzigd door Simon Shipperd op 23 juli 2024 13:21]
Dat is met auto ook niet anders particulieren vergeten dat bij bedrijven het inkoop is. Dus maximale haal je uit tussen particulieren en wat de gek ervoor wil geven. Bij flinke vooruitgang devalueert 2hands prijs.
Markt bepaalt de prijs in dit geval. Als mensen niet kopen daalt de prijs vanzelf. Mag hopen dat als je een kaart voor 900 euro koopt je wel even inleest.
Wat denk je van de tussenhandel, €1200,- a 1500,- euro vragen voor 2080ti en dit soort kaarten worden meestal gekocht door gamers die wel degelijk de juiste info hebben
Vraag me af of de 3070 wel in alle gevallen sneller wordt dan de 2080ti. Als je op minimaal 4K ultra wil spelen is de 2080ti wellicht wel sneller, omdat ie 3gb meer vram heeft dan de 3070. Eerst de benchmarks maar eens afwachten.
Ach ik heb in me Mini Media/Console PC een Intel Xeon E3-1240L v3 en MSI GeForce GTX 1650 4GT LP OC en 8GB RAM, en ik speel grotendeels alleen platform spellen er op met mijn Steam Controller, en alle spellen spelen lekker soepel en snel op 1080P.
Heb wel gisteren de Club 3D DisplayPort 1.4 to 4K120HZ HDR Active Adapter gekocht, want ik heb net een 55" LG OLED scherm binnen gekregen, want mijn versterker Onkyo TX-NR609 kan geen 4k 60Hz doen, en alleen 4K 24Hz, en ook geen HDR en zo, dus stuur ik alleen me audio via HDMI naar me versterker en stuur ik me 4K 60Hz beelden naar me 4K OLED TV via mij DisplayPort 1.4 op me MSI GeForce GTX 1650 4GT LP OC, even kijken of ik hem kan laten draaien op 4K 100Hz, aangezien me OLED TV 100Hz is, even een Aangepaste resolutie maken op 100Hz of rond 100Hz, moest ik ook doen om 4K 24Hz op me TV te laten zien, de standaard 29 of 30Hz optie werkte niet en kreeg ik een misvormt beeld, geef liever €61,- voor die adapter dan weer €600+ voor een nieuwe versterker.
[Reactie gewijzigd door AmigaWolf op 23 juli 2024 13:21]
Voor mensen met een nog oudere kaart en niet per se het laatste en beste willen hebben is dat niet vervelend natuurlijk. Heb zelf een RX 570 die op zich prima mee komt op 1080p, maar wel vol op z'n staart getrapt moet worden om er een beetje normale FPS/graphics eruit te krijgen en het wordt wel heel aantrekkelijk om een paar honderd euro ertegenaan te gooien nu voor een iets recentere kaart.
Ja wanneer je een nieuwe 3070 koopt voor rond de € 550, die sneller is dan de huidige 2080 Ti dan weet je wel wat de tweedehands prijzen van deze kaarten gaan doen.
Dat moet eerst blijken uit de reviews die de komende week wel zullen verschijnen. Het geheugen gddr6x schijnt echt een bak sneller te zijn en dus wellicht te vergelijken met de dubbele hoeveelheid van het oude geheugen gddr6. Even afwachten.
Dat kan je met wat settings wel tweaken. Zo hard zijn die grenzen nu ook weer niet en software is slim genoeg er handig mee om te gaan. Veel games met hun ram balkje die over mijn 4GB limiet heen gaat hebben ook geen enkel probleem.
Geruchten over een RTX3070 met 30gb Vram heb ik niet voorbij zien komen, mogelijk haal je de geruchten van een rtx3080 met 20gb vram door elkaar met een rtx3070.
De buren hebben er o.a. een artikel over gepubliceerd: https://nl.hardware.info/...b-vram-en-3840-cuda-cores
Dat valt wel mee. Als je nog garantie hebt kun je er nog prima 300 euro voor krijgen. De volgende stap is een 3070 welke al 500+ gaat kosten. Over het algemeen zijn 3rd party kaarten nog duurder dus dat wordt eerder 550/600. Dat is bijna het dubbele van een 2070S. Daarnaast is de 2070S nog steeds een uitstekende GPU.
Ik denk dat het wel zal meevallen, ik verwacht eigenlijk niet dat de adviesprijs aangehouden wordt, vooral niet tijdens de release (dit was en is ook het geval bij de high end 2000 kaarten).
3 jaar terug de 1080 voor 495 gekocht, dik drie jaar al weer. Best heel veel plezier aan gehad. Wel tweedehands. Koop met liefde een nieuwe 3070 rond dat prijspunt als hij echt zo goed is als geclaimed.
Ja en wat dacht je van de 2080Ti, daar kan je straks niet meer dan 500 euro voor krijgen, want de 3070 is al sneller, dat is pas depreciation Blij dat ik het bij een 2070 super heb gehouden.
[Reactie gewijzigd door BruT@LysT op 23 juli 2024 13:21]
Wat ik mijzelf afvraag, kunnen we nog een 3080Ti verwachten gezien het enorme prijs gat tussen de 3080 en 3090? Ik vermoed dat AMD namelijk met Big Navi wel de 3080 kan be-concurreren, maar niet de 3090. Daar zou Nvidia op moeten reageren lijkt mij. Het is overduidelijk dat de 3090 gewoon de almachtige Titan blijft op eenzame hoogte.
[Reactie gewijzigd door Rabbitto op 23 juli 2024 13:21]
In de presentatie haalt de CEO aan dat de Titan gelimiteerd (in supply) was en hoog in prijs maar er wel veel vraag naar in verschillende markten. Dus hebben ze besloten om dat gat op te vullen met de 3090 voor de multi displays sim opstellingen, semi professional rendering etc. Uiteraard geschikt als ultra high end kaart. Er zijn geruchten voor een 3080 met 20GB die het gat misschien gaat opvullen op een later moment.
[Reactie gewijzigd door Elazz op 23 juli 2024 13:21]
Ik gok inderdaad precies hetzelfde, in denk dat Ti mogelijk niet meer gehanteerd zal worden, maar dat de Super reeks daarvoor in de plaats komt. Uitvoeringen die net 10-15% sneller zijn dan de non-super. Ik zou dat kwa type aanduiding wel eens fijn vinden, het is lekker duidelijk.
En vergeet de deep learning enthusiast niet. De RTX 20x0 top-end waren vaak wel snel genoeg maar hadden relatief weinig geheugen als je ze vergelijkt met echte high-end deep learning-kaarten (V100 kwam met 16 of 32GB geheugen). Fijn te zien dat we nu dus wat meer geheugen krijgen om de grotere modellen te trainen, voor enthusiast prijzen.
Heb met deze kaarten meer voeling ik weet nog dat de gtx690 vroeger de bom was en plots is die benaming verdwenen en zijn de ti kaarten ontstaan, daar uit is dan uiteindelijk de titan ontstaan. Nu had je bijna van iedere kaart een ti versie😜
En van ieder van die versies gaat MSI dan weer twintig subversies maken, die allemaal vrijwel hetzelfde zijn, om de klant zodanig te verwarren dat-ie meer koopt dan nodig heeft.
Inderdaad. In de presentatie wordt letterlijk genoemd dat de 3080 het flagship model is (lees voor de consumentenmarkt) en de 3090 meer gericht is op de professionele markt.
Best kans dat er later nog een 3080Ti of super komt.
En dat is nou net het stukje wat niet klopt in het artikel op Tweakers.
In de presentatie werdt duidelijk verteld dat de 3090 de Titan vervangt en in tegenstelling tot de Titan ook bij andere leveranciers dan Nvidia te koop zal zijn.
Als je de specificaties bekijkt is het ook echt een Titan met 24GB ipv 10GB bij de 3080.
Of een 3080ti uit zal komen? ik vermoed het wel. Alleen omdat de Titan nu 3090 genoemd is passen ze niet hun verkoopstrategie aan door later niet een TI uit te brengen voor een nieuwe boost in verkopen.
[Reactie gewijzigd door Johannezzzz op 23 juli 2024 13:21]
Jammer dat ze de Ti naam hebben laten vallen. Al vanaf de geforce 2 gebruikten ze de Ti(tanium) benaming. Aan de andere kant, ook genoeg series van nvidia die helemaal geen Ti varianten hadden toch?
Natuurlijk komt er (over een jaar ofzo) een 30xx Ti en/of Super variant, maar zo kan je wel blijven wachten, want over 2 jaar komt er weer een 40xx serie.
Het beste kan je een leuke kaart kopen die voldoet aan jouw wensen, en dan zie je later wel weer.
Tips:
Koop nooit het duurste model. Uiteindelijk komt er altijd weer iets snellers.
Wacht de benchmarks, en komst van een concurrerende kaart nu af. Eerst maar eens een vergelijking zien tussen Big Navi en deze nieuwe kaarten en dan gaan shoppen.
(Of een tweedehands 2080ti kopen die straks minder waard is dan een 3070;)
Even voor mijn beeld. Ik snap de toepassing bij bijvoorbeeld 4k gaming, VR en video bewerking. Maar voor de meeste mensen die op 1080p of 1440p gamen, waarom zou je dan (als je nu een 1070ti of nieuwer hebt) upgraden? Dat gaat prima met de oudere kaarten..
Ok fair enough zo had ik er nog niet naar gekeken. Had ook nog niet aan RayTracing gedacht. Maar met een COD Warzone, World of Tanks, etc. ja daar heb ik echt geen last van een te lage FPS. Maar als je nu de nieuwe Microsoft Flight Sim gaat installeren zal het waarschijnlijk wel een ander verhaal worden met 1440p en alles op ultra.
Ik vind het zelf wel fijn om veel fps te hebben. En in warzone moet ik wel eea sleutelen om stabiel 90+ fps te halen op 1440p. Of het de kosten waard is om daarvoor te upgraden is vers 2.
Zelf game ik ook op 1440p en 144hz en dat met een 980 Ti, wat dus vergelijkbaar is met een 1070 Ti.
De 3070 lijkt me een goede upgrade om meer fps te halen in functie van de hz.
Ik ben al n maand aan het bouwen in m'n hoofd, en ik moet heel de tijd blijven bedenken: "1080p, enkel wat nodig is" en me niet laten verleiden tot overkill.
Dus zat ik bij 1660 super of 5600xt, maar wil graag eindje toekomen, dus was ongerust in belang van dlss en raytracing. Prijjs/prestatie van de 2xxx stond me niet echt aan.
Een 3070 die een 2080ti evenaart voor 500 euro echter...kan vast lang mee, ook als er s een betere monitor komt.
Ik heb nu de GTX 1070. Die kan nog wel mee, maar loopt duidelijk toch tegen zijn limieten aan. 1440p144 is geen evidentie. Voor de esports games gaat dat natuurlijk vlot, maar als je iets van de grafische hoogvliegers wilt spelen wordt het toch even puzzelen met de settings om 60fps te halen. Ik ben bijvoorbeeld Red Dead Redemption 2 aan het spelen. Daar heb ik nu met medium-high settings 50-55fps. Op zich acceptabel, maar toch niet ideaal als je144Hz gewoon bent. Zo'n 3070 voor 520 klinkt dan wel goed. Dan draait alles gewoon vlot aan 144Hz en kunnen de settings weer helemaal naar boven.
We zullen zien waar AMD nog mee af komt. Hoe dan ook, als ik deze generatie niet upgrade, gaat het toch echt wel de volgende zijn.
Mijn GTX1080 stuurt een 1440P aan maar dan wel een Ultrawide, Ik speel WoW, Warhammer 2 en AC en in die games haal ik met high settings echt wel 60+ fps maar wanneer het druk wordt dip je daar wel es onder. Ik zou graag maximale settings willen icm een hoge stabiele fps. WoW krijgt ook raytracing en dat wil ik dan ook wel.
Dus kortom, na 3.5 jaar is het een mooie tijd om die 1080 te gaan vervangen.
Dat is ook hetgeen waar ik mee zit. Had eerst een 24 inch 1920x1080p /144Hz i.c.m. Palit GTX1080, alles draait daar op max. Maar nu ik een 32 inch 2560x1440p /165Hz heb, moet ik van meerdere games al de settings lager zetten. Merk ook wel dat de kaart veel moeite heeft. Ongeacht dat de RTX3080 een overkill is voor mijn setup wil ik de games op zijn hoogst kunnen draaien. En ik wil met de RTX3080 ook weer jaren mee gaan doen net zoals met de Palit die nu bijna 4 jaar oud is.
Dadelijk met de nextgen games kom je mogelijk te kort. Cyberpunk? Ook Flightsim is een game waar je waarschijnlijk concessies moet doen. 1070Ti is natuurlijk een zeer krachtige kaart en kan zeker nog mee komen.
Raytracing is wel echt een gave feature, biedt echt meerwaarde. Elke game engine gaat het ondersteunen. Dat kan natuurlijk de reden zijn om nu wel over te stappen.
Eindelijk eens een echte stap vooruit. Had dit totaal niet verwacht. Meestal is het 15 of 20% sneller en soms eens 30% sneller dan de vorige generatie. Nu maken we een stap van 50% en soms nog veel meer. Deze kaarten blijven natuurlijk een hoop geld, maar eindelijk hebben we er eens echt iets aan.
Ik ben ook blij met de sprong, maar telkens upgraden wanneer de volgende generatie zich aandient is ook niet altijd een noodzaak toch?
Volkomen begrijpelijk dat mensen het doen, mijn doel was mijn 970 met de 2000 generatie te vervangen, wat niet doorging vanwege de prijzen en mijns inziens de te geringe boost, maar ik heb me prima gered zelfs met een 1440p monitor. Ok, ik speel geen high FPS games, maar ben inmiddels ook wel toe aan een upgrade, en dit oogt absoluut als het moment, in tegenstelling tot de 2000 serie
Upgraden moet je doen wanneer het nodig is. Speel je op een lage resolutie en op 60Hz dan hoef je niet te upgraden als het oude nog voldoet. Ik heb hier nog een 1080Ti en heb de 2000 serie overgeslagen omdat het maar ietjes sneller was voor heel veel extra geld. Dit terwijl ik de extra kracht op mijn resolutie zeker kan gebruiken. Moet wel zeggen dat ik dit heel interessant vind. In sommige gevallen lijkt het er op dat dit 2x zo snel kan zijn dan wat ik nu heb. Dat is het geld waard en 20% sneller niet.
Ik zit hier in precies dezelfde boot, 2000 serie overgeslagen omdat ik eigenlijk altijd 1 generatie oversla omdat de performance increase vaak niet bijster veel was tegenover de TI variant. Ik denk dat die 3080 er toch gaat komen, zeker nu steeds meer games RTX gaan gebruiken zoals Cyberpunk.
Ik heb precies hetzelfde met mijn 970. Mijn plan ook met de 2000 serie te upgraden (ik skip meestal een generatie), maar die prijzen waren zo belachelijk. Ik zit nog op een 1080p monitor, maar mijn 4K OLED hangt ook aan m'n PC. Had mijn zinnen gezet op een Series X, maar die moet nu echt goedkoop zijn om mij niet te laten kiezen voor een PC upgrade.
Mensen aansporen te kiezen tussen een Series X/PS5 of een 3000 kaart lijkt ook een doel van hun timing en de prijzen. Kijkend naar de benchmark in het artikel is er + 75% performance. De grote van je chip bepaalt voor groot deel de kost prijs. Ze hadden de chips ook kleiner kunnen maken en op +40% performance kunnen gaan zitten. Met deze grote sprong is het voor games ook heel aantrekkelijk geld voor een console in hun PC te stoppen.
Het was niet alleen de performance dat mij aan het twijfelen heeft gebracht. Als de 3080 gewoon 1000,- had gekost en de 3070 700,- dan was het een stuk minder boeiend geweest. Probleem is dat ik heel m'n PC moet upgraden dan, want de rest van de hardware stampt uit 2011. Geeft ook weer aan hoe lang je eigenlijk met een PC doet.
Waarom niet een tweedehandse kopen? Denk dat je vanaf november een 2060 of 2070 kan kopen voor een leuk prijs en over een half jaar voor een lager prijs.
prestatie per watt is nog altijd een vooruitgang, dus eigenlijk heb je het mis, deze kaarten zijn weldegelijk zuiniger. Dat de maximale belasting hoger ligt is niet meer dan logisch, dat zal altijd omhoog blijven gaan. We gaan echt nog wel 1000 watt videokaarten krijgen in de toekomst, let maar op. Laten we dit eens afwachten en zien wat de norm is in 2030.
[Reactie gewijzigd door BruT@LysT op 23 juli 2024 13:21]
Juist door de extra efficiëntie bij deze nieuwere kaarten is de benodigde hoeveelheid stroom om iets te bereiken lager.
Als je alles eruit wilt halen (winter) draait ie op vol vermogen. Als je op een FPS target of lock zit kan je veel besparen (zomer).
Dat samen met een undervolt proberen zoals super succesvol op de laatste twee generaties van Nvidia. Vaak 10-30watt er af zonder prestatie verlies. Meer als je wat performance wilt inleveren.
Ik vind de claim van 8K gaming een scherpe. Dat zou met een game als World of Warcraft misschien wel kunnen, maar de nieuwste Call of Duty zal het zeker lastig gaan hebben, vooral met meer details.
Nvidia zou beter in kunnen zetten op een ‘full 4K-experience’. De 3080 en 3090 zouden alle huidige games op (bijna) maximale settings met 4K/60fps moeten kunnen draaien gezien de specs. Dat de 3090 ook 8K aankan is een leuk marketingpraatje, maar in mijn ogen totaal nutteloos.
Inderdaad. 8K is 4x 4K qua pixels. Daar is aardig wat power voor nodig om het op high detail te laten draaien. Al helemaal met RTX aan.
De nieuwe 30x0 serie is gewoon super voor 4K de komende jaren, ze kunnen de huidige games makkelijk op 4K/60 aan waarschijnlijk en met optimalisaties in de drivers zal dit de komende tijd alleen maar beter worden.
ik denk dat het idd marketing is, om het idee te geven dat ze sowieso het aller aller beste kunnen geven. Geen AMD, of juist de consoles de PS5 of Xbox One X, nee met Nvidia kan je 8k gamen.
Al helemaal niet in SFF kasten. Ontzettend jammer, zou mooi staan in mijn Ghost S1, maar totaal niet praktisch qua koeling, ook niet wat betreft de voeding die in het midden zit.
Ik ben helaas geen fan van de tophat, dus voor mij lijkt de 3070 mogelijk de enige optie. Heb nog een Mjolnir die eerdaags geleverd wordt, maar ook die laat weinig ruimte voor de 30xx serie. Moet wellicht maar eens naar een Ncase M1 or FormD-T1 kijken als alternatieve case.
Heb hier nog een 2070s dus zie mezelf niet snel upgraden, maar als bezitter van een Nouvolo Steck hoop ik ook dat de third parties em kleiner maken. Zou een ramp zijn voor SFF moest 3 slot de nieuwe norm worden.
niet gedacht dat het prestatie verschil met de 2000 reeks zo groot is, dat is toch een verschil met de 1000 versus 2000 serie, daar kwam de 1080Ti nog makkelijk mee met de 2080.
Als ze bij de volgende serie (4000) inderdaad naar 5nm gaan komt er mogelijk weer zo'n sprong, dus ik denk dat ik hooguit de 3070 of 3080 kies dit keer en niet de 3090, dan heb ik volgend jaar wat meer over voor een upgrade naar de 4080 oid.
Belangrijk om op te merken is dat de vergelijkingen nu ook vooral met de non-Ti kaarten van de 2000 serie gemaakt worden. Ook in het filmpje van Digital Foundry.
Real world benchmarks moeten nog duidelijk maken hoe de 2080 Ti zich verhoudt tegenover deze nieuwe kaarten.