Nvidia stelt GeForce RTX 3070 uit tot 29 oktober

Nvidia brengt zijn RTX 3070-videokaart op 29 oktober uit. Dat is twee weken later dan eerder was aangekondigd. De fabrikant zegt de release uit te stellen om ervoor te zorgen dat de beschikbaarheid beter is op het moment dat de videokaart te koop is.

Volgens Nvidia is de RTX 3070 volop in productie en zal het uitstel er voor zorgen dat partners wereldwijd meer videokaarten op voorraad hebben bij de release. Aantallen noemt Nvidia niet. Zowel de release van de RTX 3080 als RTX 3090 verliepen moeizaam. De vraag naar de videokaarten is veel groter dan het aanbod. Dat geldt zowel voor de Founders Edition-uitvoeringen die Nvidia zelf verkoopt, als de videokaarten van aib-partners die bij webshops te koop zijn.

Nvidia bood daarvoor zijn excuses aan en zegt dat de vraag naar RTX 30-kaarten veel groter is dan vooraf werd ingeschat. De interesse zou veel groter zijn dan bij de release van bijvoorbeeld de RTX 20-serie. Nvidia noemt echter geen concrete cijfers. Hoeveel videokaarten er zijn verkocht is niet bekend.

Wanneer er reviews verschijnen van de RTX 3070-videokaarten is nog niet bekend. Dat zou ook 15 oktober gebeuren, samen met de release. Mogelijk wordt het reviewembargo ook opgeschoven naar de nieuwe verschijningsdatum. Nvidia heeft zelf wel prestatieslides getoond, maar onafhankelijke benchmarks zijn er nog niet. De RTX 3070 is gebaseerd op de GA104-chip, een kleinere variant van de GA102 die voor de RTX 3080 en 3090 wordt gebruikt. Nvidia biedt zijn RTX 3070 Founders Edition aan voor 519 euro.

RTX 3070-benchmarks volgens Nvidia
Door Nvidia gepubliceerde RTX 3070-benchmarks
RTX 3090 RTX 2080 Ti RTX 3080 RTX 2080 RTX 3070 RTX 2070
Architectuur 8nm, GA102 12nm, TU102 8nm, GA102 12nm, TU104 8nm, GA104 12nm, TU106
Cuda-cores '10496' 4352 '8704' 2944 '5888' 2304
Boostsnelheid 1700MHz 1635MHz 1710MHz 1800MHz 1730MHz 1710MHz
Vram 24GB gddr6x 11GB gddr6 10GB gddr6x 8GB gddr6 8GB gddr6 8GB gddr6
Geheugensnelh. 19,5GBit/s 14Gbit/s 19Gbit/s 14Gbit/s 16Gbit/s 14Gbit/s
Geheugenbus 384bit 352bit 320bit 256bit 256bit 256bit
Bandbreedte 936GB/s 616GB/s 760GB/s 448GB/s 512GB/s 448GB/s
Tgp 350W 260W 320W 225W 220W 175W

Door Julian Huijbregts

Nieuwsredacteur

02-10-2020 • 09:43

276

Submitter: strider1007

Lees meer

Reacties (273)

273
254
108
12
0
117
Wijzig sortering
520 euro... voor een "mid-high range" kaart...
Het wordt er niet beter op...
De RTX 2070 FE werd voor $599 in de markt gezet. Deze RTX 3070 FE voor $499. Beter geworden is het zeker, of het goed genoeg is lijkt me een subjectieve zaak.

Overigens is de 7 serie is in mijn beleving nooit midrange geweest. Als ik zo even terug denk heb ik 295 betaald voor de 660 Ti. De GTX 670 zat toen boven de 400 euro. Dat was toen eigenlijk al veel te veel geld om nog over midrange te praten. Dat zat in mijn ervaring meer op 150-250 euro. Vergeet niet, toen had je ook nog instap kaarten van 40-60 euro. Tegenwoordig zijn we een beetje doorgeslagen door er een enthusiast segment bovenop te plakken dat de 1000 euro overstijgt ;).
De GTX680 was een midrange chip die voor een high end prijs verkocht werd.

https://www.techradar.com...x-680-an-imposter-1074235

Edit; kijk het filmpje in de post boven je maar eens. Kan je zien hoe nvidia te werk gaat, edit; ging.

[Reactie gewijzigd door Format-C op 27 juli 2024 04:52]

Of, anders beschouwd: performance die in de vorige generatie nog €1200.- kostte (2080T1) nu voor €520 ! Vooruitgang! Whoopy!!

Zonder te gaan lopen mierenneuken of dir performance nu gelijk is (weet ik, niet helemaal): het is dus maar net waar je naar kijkt. een paar generaties later is dit een entry level kaart voor €150.- of zo.
Ik vind dat het er deze generatie wel degelijk veel beter op wordt, het is lang geleden dat de performance/€ zo'n sprong maakte!
Even https://www.youtube.com/watch?v=VjOnWT9U96g bekijken. (Is geen speculatie-video.)
Auch...

Nvidia's marketing is de enige die sprongen vooruit maakt.
Onzin, dit gaat over de flagship cards, vroeger Ook wel de Ti “Total idiot” card benoemt. Hier zijn wat we ook elders gezien hebben: de 2080 Ti is een ramp wat betreft price/performance. De 3090 is minder slecht maar nog stads niets om blij van te worden. Wat je moet bekijken zijn de echte kaarten: 2080 en -super en alle spul eronder. Zelfs Nvidia zelf raadt de 3080 aan voor enthusiast gamers, niet de 3090. Vergeet de 2080 Ti en 3090, alleen interessant voor die mensen die willen zeggen de snelste te hebben. Het echte gebeuren zit eronder ... aan daar ben ik benieuwd wat AMD gaat bieden!
Edit; zo lang bestaan die Total idiot cards nog niet.

En zo heel lang kost een high end kaart nog geen 1000+ euro. Dat is iets wat nvidia kon doen omdat ze geen concurrentie hebben...


Niet al te lange tijd geleden waren high end kaarten, dus het SNELSTE wat er te koop was... maximaal 650 euro. Eerder nog richting 500. Vanaf het moment dat AMD nv niet meer kon bijbenen hebben ze (nv) de prijzen bijna verdriedubbeld voor een nieuwe flagshipcard.En dat terwijl de performance alleen maar minder wordt als je elke generatie naasst elkaar gaat leggen en gaat vergelijken qua performance jump.

Per generatie behaalt nvidia minder en minder snelheidswinst maar ze maken de prijzen wel hoger en hoger.... Ik hoop echt dat AMD zn high end (de 3080 competitor) voor 550/600 oid wegzet. Wanrt dat zijn de prijzen die we historisch gezien betaalden.... voor een high end kaart.

Daar komen de nieuwe consoles nog eens bij die zeer krachtig zijn.

Als je voor 500 een supersnelle console kan kopen lijkt het mij dat je daar niet al te veel boven moet gaan zitten wil je wat verkopen.

[Reactie gewijzigd door Format-C op 27 juli 2024 04:52]

Ti kaarten bestaan al zowat 20 jaar hoor. De Geforce 4 had er al een :)
Geforce 2 ook hoor ;)
Oh die wist ik nog niet. Nice! Thanks.
Ik had de eerste geforce kaart en die was ook 1000gulden. Dat was toen der tijd gewoon zoveel als €1000 nu uitgeven.
Volgens de inflatie calculator is 1000 gulden in 1999 gelijk aan 675 euro nu. Dat is toch een behoorlijk verschil!
Rond 20:50 wordt even over de 3080 gesproken. Na de 20xx-serie ziet die er inderdaad als zonneschijn uit, maar dat is die marketing hé. Het totale plaatje...dat is een ander verhaal. Maar goed...ik snap het, ze zijn marktleider, er is geen alternatief als je hoge prestaties wil, en samen met de stakeholders genieten ze tot in den treure van het uitmelken van de klanten. Daarom hoop ik mee dat AMD terug in de strijd kan komen.
Meer concurrentie van AMD zou zeker top zijn. De RTX 3070 draait echter alles dat nog een beetje normaal is als een zonnetje. Voor € 500 aan videokaart. 20 TFLOPS is zeker 50% boven de snelste next-gen console. Er zal vast nog wel een kaart komen met performance rond die van de next-gen consoles op een stuk lager prijspeil. Dat alles bij elkaar genomen is dit geen wereldvreemd bedrag toch in PC gaming land, waar hogere performance altijd buiten verhouding meer geld gekost heeft?
Ik vraag me ook af hoe het zit met de productiekosten. Misschien wordt het wel steeds moeilijker om meer performance uit een kaart te krijgen, en gaat daardoor de prijs omhoog. Of moet er simpelweg meer materiaal in.
Hele goeie link! Zo goed is de 3080 (en 3090 al helemaal niet) niet, qua "price performance power". ;)

Eigenlijk gaat het alleen maar bergafwaarts wat dat betreft voor / bij nV. De 3090 is de kleinste performance leap en dat voor een prijs waarvan je tranen in je ogen krijgt. En dat @ 320+W power draw. :/

Ampere is the worst increase in performance in nVidia's history.

En dat is een feit.

[Reactie gewijzigd door Format-C op 27 juli 2024 04:52]

Ja inderdaad. De GTX 1070 performt even goed als een 980 Ti en een RTX 2070 Super perrformt weer ongeveer even goed als een 1080 Ti.

Zou het dan niet volledig logisch moeten zijn dat de RTX 3070 even goed performt als de 2080 Ti? Ik snap die verhalen van ''de grootste gpu-boost ever'' niet helemaal.
Misschien richten ze specifiek op 4k gaming met hoge kwaliteit. Dat kan de RTX 2070 niet, deze wel. VR gaming idem, er zijn echt wat toepassingen waar je bepaalde framerates niet haalt en dan meteen een hele stap terugvalt in kwaliteit/beleving.

De RTX2070 kan ook de next-gen consoles echt niet bijhouden. Veel game devs zullen zich meer en meer gaan richten op next-gen console specs als je echt wat moois wilt zien. Geef ze eens ongelijk. De RTX3070 blijft nog heel wat jaartjes games prima draaien omdat ie juist beter presteert dan alle aankomende consoles. Zo'n soort verschil zit er niet tussen de GTX1070 en RTX2070.

Verder blijft het vast opgeklopte marketing, maar als je komende maand voor iets nieuws in de markt bent dan zou het voor mij gaan tussen een PS5, Xbox series X en een PC met een RTX3070 (tot AMD met iets soortgelijks komt). En die aankomende consoles met hun supersnelle opslag doen het in die vergelijking zeker niet verkeerd, zolang al je games erop draaien natuurlijk.
Bedankt voor die link, ik wilde zo'n filmpje maken maar had geen zin er daadwerkelijk onderzoek naar te doen. :-) Voor 980/2080/3080 kwam ik hier ongeveer op uit: https://www.youtube.com/watch?v=hP1g7bIFHhY
Gefeliciteerd! precies zoals leather Jensen je wilt laten geloven :+

De 2080TI is juist één van de slechtste prestatie/prijs generatie van NVIDIA. Het is dan ook niet zo moeilijk om met de opvolger betere prestatie/prijs te geven. En dan nog is Ampere niet goed met de prestatie/prijs in de geschiedenis van NVIDIA.

Geloof je het niet? Bekijk dit briljante overzicht eens:
AdoredTV: How Good...or Bad...is Ampere?
fijn dat de reacties op jouw comment precies naar voren brengen wat er mis is (zoals jij al aangaf).
en idd het wordt er niet beter op... jammer genoeg moet TRG heel veel doen om NV te verslaan. Hopelijk heeft de vooruitgang en de winst van zen goede impact op de rest van AMD en is RDNA2 ook echt goed. Dan nog de prijs, ik denk dat we daar niks aan kunnen doen, NV is te lang aan de top en kan dus de prijs bepalen.
Edit: net dit filmpje gekeken, https://youtu.be/VjOnWT9U96g, zie nu dat deze ook gelinkt is door anderen die verder durven kijken dan hun neus lang is, goed zo!

[Reactie gewijzigd door Stijn Weijters op 27 juli 2024 04:52]

Dat was bij de huidige generatie ook al.
Manmanman, die marketingmachine van nvidia gaat hard. "Niet vanwege release AMD" SURE.

"Hadden de grote vraag niet verwacht"

Nee want dat je kaarten in 1 generatie 40% goedkoper worden zal vast de vraag niet opstuwen. GTFO.

Marketing 101. Hoop dat AMD er overheen rolt met meer dan genoeg voorraad.
Wat ik niet snap is dat er nu al paniek is bij Nvidia terwijl AMD nog niets heeft laten zien. Maarja mogelijk willen ze het gras voor de voeten van AMD wegmaaien.
AMD heeft indirect al veel laten zien:

1. We weten RX5700 prestaties: 40 CU op kleine 251 mm² die. Prestatie 7% onder RTX 2070 Super massive 545 mm² die.

2. AMD heeft al laten weten dat RDNA 2 minimaal 50% betere prestatie/Watt heeft dan RDNA 1.

3. We weten XSX: 8 Zen 2 cores met 56 CU (52 CU in werking) en Watt verbruik op 325 mm² die.

4. We weten PS5 GPU clocksnelheid tot 2.23 GHz en "secret dead-give-away" RDNA 2 "cache" systeem.

5. Waarom de gehaaste NVIDIA 30xx launch, weer met massive mm² dies maar nu met krankzinnige hoge Watt verbruik?...

= (vul in hier) Nieuwe RDNA 2 kaarten. (ik hoor vele Tweakers zeggen dat het misschien 2080TI evenaart :+ )
Ik vraag me vooral af hoe jij erbij komt dat er paniek is bij Nvidia?
De enige paniek die ze hebben is productie en uitlevering op het moment denk ik.
Ze zijn familie? Wilt gij dan zo vriendelijk zijn om Wikipedia op te frissen? Want Jij weet iets wat de gehele wereld niet weet dan behalve die ene keer dat een Reddit gebruiker iets in de thread gooide over "iets van familie zijn". :+
Vergeet niet dat de vraag naar videokaarten al het hele jaar hoog is; voor logische redenen.

Dus het excuus van de grote vraag niet verwachten is pure bullshit.
Naja precies maar dat is dan oude product/voorraad, dan kunnen ze er mee wegkomen door te zeggen "Ja, wij dachten dat de markt wel weer even verzadigd was want mensen hebben net een nieuwe"

Jammer dat ze al jaren in de markt zitten en heel goed weten dat met een nieuwe generatie de nerd herd los gaat.

Naast dat je veel tongen los maakt met kunstmatige schaarste :)
Yup. Maar een hoop tongen zeggen gelukkig. "Wacht op AMD en wat ze kunnen laten zien met RDNA2."

Het is in ieder geval geen saai jaar voor hardware.
Het is een heel boeiend jaar inderdaad, ben allang blij dat marketing praatjes nog steeds fuck all zeggen en dat dat voor mensen die wel even op de handen blijven zitten betekend dat er ergens een goede deal valt te scoren :)
Voor hardware bekijken en over lezen en af en toe een discussie,zeker.

Voor hardware kopen is het vooral wachten en kijken naar Out of Stock schermpjes En dat gaat zelfs op 144 hz saai worden na enige tijd ;)
Moet je het scherm op 30hz zetten. Is het meer cinematisch :P
Kaarten zijn niet goedkoper geworden.

MSRP van de 3070 is gelijk aan de 2070 en van de 3080 is gelijk aan de 2080. Prijzen zijn dus niet gedaald. ;)
Goed strak de prijs niet maar de performance per euro was volgens de slides (KUCH HYPE) beter. Is het alleen niet.
AMD heeft indirect al veel laten zien. De uiteindes moet je natuurlijk zelf vast knopen, iets wat NVIDIA ook heeft gedaan en tot de conlusie kwam dat men AMD toch wel een beetje in de gaten moet houden.

1. We weten RX5700 prestaties: 40 CU op kleine 251 mm² die. Prestatie 7% onder RTX 2070 Super massive 545 mm² die.

2. AMD heeft al laten weten dat RDNA 2 minimaal 50% betere prestatie/Watt heeft dan RDNA 1.

3. We weten XSX: 8 Zen 2 cores met 56 CU (52 CU in werking) en Watt verbruik op 325 mm² die.

4. We weten PS5 GPU clocksnelheid tot 2.23 GHz en "secret dead-give-away" RDNA 2 "cache" systeem.

5. Waarom de gehaaste NVIDIA 30xx launch, weer met massive mm² dies maar nu met krankzinnige hoge Watt verbruik?... Je weet toch wel dat elke GPU maker niet echt blij zijn als men grote slurpende mm² dies moet maken? Dat doe je alleen als je gedwongen wordt als je iets te weten bent gekomen over je concurrent AMD.

NVIDIA is bang voor de nieuwe game consoles XSX en PS5 die allen AMD's nieuwe RDNA 2 gaan gebruiken. Een console van €499 die bijna even snel is als een €1200 2080TI is een "bad look" voor NVIDIA. Dus groene kamp klijkt wel degelijk naar AMD want een kleine RDNA 2 chip in een console met dat performance? Wat betekent dit dan voor een full BIG Navi chip voor PC's?

... Maar goed, NVIDIA hoeft niet naar AMD te kijken, al wilt NVIDIA natuurlijk graag ook hun nieuwste speeltje op de nieuwe AMD Zen 3 zien werken vóór de console launch.
Natuurlijk heb je gelijk.. Maaarrrr..

Zouden ze nog een keer het risico willen lopen dat ze niet kunnen leveren ? Bij de 80 hebben ze toch wel wat imago schade opgelopen lijkt me. Het heeft er zelfs voor gezorgd dat veel mensen toch de lancering van AMD afwachten omdat ze voorlopig (wat lijkt) geen kaart hebben.
Tuurlijk wel! Dit hebben ze bij de afgelopen releases ook gehad, de 20 serie wat minder, want eigenlijk niet zo veel vooruitgang, maar voor mensen die al even mee lopen echt helemaal niet nieuws.
Eigenlijk ook te verwachten: Nvidia had in principe 2 keuzes:
1) Nvidia brengt dat ding maart 2021 uit, na de AMD big Navi series, zodat er genoeg chips en dan even later grafische kaarten beschikbaar zijn om de vraag min of meer af te dekken.
2) Ze brengen de kaarten uit zodra de productie begonnen is en creëren dan en passant nog even een leuke hype en run op die kaarten.

Tja, als ik verantwoordelijk was bij Nvidia zou ik ook voor optie 1 gaan: niet aardig, wel winstgevender... De fans stinken er bij de 4080, 5080 ... toch weer precies even hard in!

[Reactie gewijzigd door batteries4ever op 27 juli 2024 04:52]

Wil je nu serieus voorstellen dat NVidia loodsen vol met geproduceerde 3070's gaat leggen, klaar voor uitlevering aan de consument, en dat ze die 6 maanden lang niet uitleveren? Weet je wat dan het commentaar wordt? "Ze houden de 3070's achter zodat we wel de duurdere 3080 moeten kopen".

Met dit soort logica kan NVidia het simpelweg nooit goed doen.
Sorry: ik bedoelde dat ik als Nvidia baas ook voor optie 1 zou kiezen! Foutje => gewijzigd (voor het geval dat mensen jou kommentaar lezen na mijn wijziging)!
Grappig dat vele meteen alle hoop op amd gooien, laten we maar eerst afwachten hoe hun kaarten gaan presenteren, en of de software eigenlijk een opfris beurt gaat krijgen. Op cpu gebied zijn ze goed op weg met gpu echter valt het links of rechts om toch weer tegen
Ik gooi helemaal niet alle hoop op AMD though ?
haha ja, voornamelijk drivers inderdaad
Waarschijnlijk om meer voorraad voorhanden te hebben na de AMD release?
Of net niet. Afhankelijk van het AMD event zullen ze hun productiecijfers wel aanpassen.
In één dag kunnen ze weinig aanpassen. Ben benieuwd of AMD zijn release ook gaat uitstellen, met een weekje of zo.
Als ik de performance winst zie van Nvidia op deze kaarten dan heb ik een gevoel dat ze heel goed weten wat AMD in handen heeft. Dit hebben ze jaren niet gedaan en dit was ook niet nodig om een hele mooie videokaart af te leveren.

Zonder enige verdere informatie verwacht ik at AMD een hele mooie kaart heeft, die voor 90% van de mensen een net zo'n goede keuze is als de Nvidia kaarten.
Je ziet het goed. De doorgeschoten stroomverbruik, gehaaste launch en agressieve marketing, zijn tekenen dat NVIDIA weet dat er AMD storm op komst is. Ook NVIDIA heeft de PS5’s Mark Cerny presentatie gezien waar hij recht in de camera zei dat RDNA 2 multi GHz haalt, de massieve 52 CU in XBOX Series X, alles binnen de console stroomverbruik marge.

PS5 architect Mark Cerny heeft ook dit recht in de camera gezegt dat vrijwel niemand heeft opgepikt: “RDNA 2 heeft een oplossing waar informatie zo dicht mogelijk bij de GPU processor zit”. Oftewel, RDNA 2 heeft speciaal “cache” systeem ontworpen waardoor je met minder dure bandbreedte toch genoeg je cores kunt voeden. Dit weet NVIDIA dus ook.
Ik denk het eigenlijk niet. Ik vrees voor de logistiek. Al krijg je straks bij RDNA 2x de prestatie per dollar, dan nog moet AMD wel kunnen leveren. AMD Radeon draait qua volume echt een fractie van Geforce. Op basis van de huidige afzet is het niet alleen enorm riskant om alvast enorme hoeveelheden te bestellen, het is ook vooral een enorme uitdaging. Uberhaupt is je omzet met factor 3 tot 5 verhogen altijd al een enorme uitdaging, met covid19 wordt die nog moeilijker. Worden de RDNA2 kaarten zo goed als jij verwacht dan kan het best weleens 6 tot 12 maanden duren voor AMD echt volume dat de markt dan gaat vragen echt kan gaan draaien.

Nvidia zal wat mij betreft vooral naar de consoles hebben gekeken. Terecht overigens. Als jij straks tot 120 Hz met variable refresh rate op een tv met een prima input lag kunt spelen en daarbij ook nog eens als je games op een mega snelle NVME SSD staan dan is dat echt een héle andere ervaring dan console gaming tot nu toe. Het gat met pc gaming wordt qua ervaring straks echt heel klein.

[Reactie gewijzigd door sdk1985 op 27 juli 2024 04:52]

True, AMD is in verhouding een dwerg met een fractie van de budget van NVIDIA of Intel. Maar je zult hier wel rekening moeten houden dat omzet niet alleen van de desktop GPU's komen. Want als je het dan zo bekijkt, draait AMD juist volle toeren voor de XSX en PS5 chips. En wie weet, kan AMD uit niet goed genoeg bevonden console chips hergebruiken/recyclen voor lager/mid-tier Radeons kaarten later. AMD heeft immers met opzet Navi 2 architectuur meer modulair gemaakt zoals geheugencontroller die zowel GDDR6 als ook HBM ondersteund. Net als Ryzen CPU modulair is -om juist dat gene waar je zorgen om maakt, de productiekosten- te kunnen drukken.

Één van de belangrijkste productiekostenbesparing is dat de CPU en in dit geval GPU chip/die zo klein mogelijk gehouden moet worden. Hoe groter de chip, des te minder je uit een wafer kunt halen, vraag dit maar aan NVIDIA met de mammoet RTX 3080 chips!
Het is je wellicht opgevallen dat een RX 5700XT maar 251 mm² groot is, terwijl de 7% snellere GTX 2070 Super 545 mm² groot is. Dat is ruim 2x groter dan de RX 5700. Dit betekent met dezelfde wafer yields meer dan dubbel zoveel Radeon chips uit één wafer dan RTX's!
Of AMD kan makkelijk de RX5700 2x groter maken met 80 CU dat nog steeds kleiner is dan de RTX 2070 Super, maar wel de performance van 2080 TI kan hebben. Maar voor AMD is dat wafers door het putje gooien als je voor één grote GPU chip ook 4x Ryzen CPU's van kunt maken.

Als je de geschiedenis van de chip grote tussen Radeon en NVIDIA bekijkt, zie je dat Radeon meestal de kleinere chip heeft. Minder budget hebben betekent slimmer zijn en proberen zoveel mogelijk rendement uit je ontwerp en peperdure wafers te halen. Dat is wat AMD en Radeon altijd heeft moeten toepassen.
Maar AMD is nu dankzij Ryzen succes eindelijk uit hun schulden. En men verwacht dat AMD nu wel de extra budget heeft voor dure halo producten zoals big boy XXL GPU chips :P

En dit alles is natuurlijk jaren vooraf geplanned. Ga maar vanuit dat de wafers vroegtijdig gereserveerd zijn voor de nieuwe biG BoYs! AMD is niet voor niets de grootste afnemer van TSMC's 7nm nu. En volgend jaar wordt verwacht dat AMD in algemeen de grootste afnemer wordt en daarmee Apple passeert.
True, AMD is in verhouding een dwerg met een fractie van de budget van NVIDIA of Intel. Maar je zult hier wel rekening moeten houden dat omzet niet alleen van de desktop GPU's komen. Want als je het dan zo bekijkt, draait AMD juist volle toeren voor de XSX en PS5 chips. En wie weet, kan AMD uit niet goed genoeg bevonden console chips hergebruiken/recyclen voor lager/mid-tier Radeons kaarten later. AMD heeft immers met opzet Navi 2 architectuur meer modulair gemaakt zoals geheugencontroller die zowel GDDR6 als ook HBM ondersteund. Net als Ryzen CPU modulair is -om juist dat gene waar je zorgen om maakt, de productiekosten- te kunnen drukken.
Zo ver ik weet krijgt AMD royalty's (lees een zak geld) van de semi custom avonturen en zijn ze daardoor niet persé heel nauw betrokken bij de productie en opschaling van dat proces. Ik denk niet dat AMD in een positie zit om daar tussen te springen en dan chips te gaan farmen.
AMD heeft contract met TSMC. In de gloednieuwe chips zitten bergen aan gevoelige IP's die je niet zomaar overhandigd aan iedereen, met van veel plezier er mee, maak zelf nu maar verder de chips, doei! :+ De chips produceren is een onderdeel van de product zelf. Het zit ongelooflijk complex in elkaar om een chip te ontwerpen en daadwerkelijk te maken. De afstemming tussen AMD en TSMC, gaat nogmaals, jaren vooraf tot en met de productie zelf. Omdat het gaat om een semi-custom, gaat het natuurlijk in goed overleg met de desbetreffende partijen zoals Sony en Microsoft. Kans bestaat dat zelfs AMD royalty's betaald voor bepaalde IP's in de APU door gebruik van Sony of Microsoft iodeeën. En nogmaals, dit is gissen omdat IP's met bijbehorende blauwdrukken super gevoelige informatie zijn die niet zomaar op straat komen te liggen.

Van royalty's kan best, maar in de techwereld wordt met royalty's sowieso heen en weer gegooit alsof het kwartetten is, niets bijzonders. Wat dacht je van Intel's x86 architectuur? Daar moet AMD royalty van nemen. Intel op zijn beurt neemt royalty van AMD's x64 (AMD64) architectuur. En in dit geval kun je elkaar wegstrepen. AMD mét of geen technische input van Sony of Microsoft is de maker van de APU product. TSMC is de maker van de chip zelf waar AMD er bij staat.

Of de XSX die Bluray-speler gebruikt. Dit betekent dat Microsoft roalty's aan Panasonic, Philips en Sony moet betalen. Maar misschien kwartet Microsft dit weg door Sony korting te geven voor Microsoft Azure's Cloud Computing Services. Patenten, IP's, Royalty's....etc oftewel koppijn, niet aan denken :+
Het gat met pc gaming is maar even klein,daar de consoles 5 plus jaren mee moeten gaan,wat een ëeuwigheid"is in pc land........
Het gat met pc gaming is maar even klein,daar de consoles 5 plus jaren mee moeten gaan,wat een ëeuwigheid"is in pc land........
Dat staat alles behalve vast.

In de eerste plaats hebben we gezien dat er vroegtijdig nieuwe consoles komen (PS4 Pro, Xbox X), die kwamen na +- 3 jaar.

Daarnaast is het altijd de vraag hoe groot de stappen zijn die pc gaming de komende 3 jaar gaat zetten.
Maar de release van next gen consoles speelt daarbij volgens mij ook een grote rol. Een nieuwe console zet volgens mij altijd een nieuwe grafische standaard neer. Daar zullen de fabrikanten van pc-kaarten zich dan aan moeten aanpassen.
In consoles is AMD al jaar en dag heer en meester (daar zit nooit een intel CPU of nvidia GPU in), toch hebben ze in PS4 / Xbox One periode niet die overhand gehad en stond kamp groen er toch echt ruim boven qua performance.

Of die nieuwe standaard nou echt van de console generatie komt? Raytracing is niet next gen meer, maar wel de voornaamste grote sprong in de nieuwe consoles, daar is nvidia nu oppermachtig in (op basis van beschikbare producten en hun benchmarks).

Waarom zou dit nu anders zijn? Ik hoop het van harte, net als dat AMD toch weer met betere implementaties op CPU gebied kunnen komen, hoop ik dat ze dat nu ook op GPU gebied weer gaan doen.

Wat wij als consument kunnen doen, is de reviews afwachten en dan conclusies trekken.
Dat AMD weer zal inzetten op bang-for-buck is het enige wat we echt met een grote mate van zekerheid mogen verwachten. Als hun top-kaart daarmee voor 500 euro over de toonbank gaat, hebben ze de extreme prestaties niet weten te halen, maar wel een mooie prijsvechter voor de RTX3060/3070 wellicht.
daar is nvidia nu oppermachtig in (op basis van beschikbare producten en hun benchmarks).
Beetje raar om zo'n uitspraak vak voor we überhaupt cijfers weten over de performance van AMD's ray tracing implementatie niet? beetje niks zeggend.
toch hebben ze in PS4 / Xbox One periode niet die overhand gehad en stond kamp groen er toch echt ruim boven qua performance.
De PS4 had een GCN 2.0 architectuur. De zelfde architectuur als de 290x, die wat performance prima mee kon met nvidia op dat moment voor een zacht prijsje (maar een beduidend minder zacht verbruik)

en dit is wat anand over de 290x zei
Bringing this review to a close, going into this launch AMD has been especially excited about the 290X and it’s easy to see why. Traditionally AMD has not been able to compete with NVIDIA’s big flagship GPUs
*snip*
So seeing AMD performance competitive with GTX Titan and GTX 780 with their own single-GPU card is absolutely a breath of fresh air.
https://www.anandtech.com...-radeon-r9-290x-review/20

Dus precies die launch, de launch die ze deelde met de console, was AMD competitief met nvidia's high end wat performance betreft.

[Reactie gewijzigd door Countess op 27 juli 2024 04:52]

daarom "op basis van beschikbare producten en hun benchmarks"

Pure performance met hoog gebruik zijn ze afgelopen jaren uiteindelijk hard op afgestraft.
Ook vermogensvraag is een graadmeter voor performance, want kamp groen is nu WOW omdat performance per watt ruim boven de vorige generatie uit komt.

Ik ben geen kamp groen of kamp rood, ik stel alleen hoe de vlag er nu bij hangt, en dat we alleen uit kunnen gaan van de uiteindelijke benchmarks/prijs per watt/prijs per performance, voordat we iets zinnigs kunnen zeggen. Ik spreek ook de hoop uit dat we kamp rood weer een tijdje naast kamp groen zien, in plaats van er onder.

Ik hoop wel dat als ik serieus een upgrade ga overwegen, het kamp rood is die me over de streep trekt.

[Reactie gewijzigd door EwickeD op 27 juli 2024 04:52]

Als je nu eens marketing hype naast je neer legt en objectief bekijkt dan is Ampere helemaal niet wereldschokkend WOW, integendeel zelfs. Het is juist weer meer bewijs dat NVIDIA goed in psychologische manipulatie is om nog meer geld uit jjou te kloppen.

Bekijk dit van een groter schaal zoals AdoredTV mooi uitlegt:
AdoredTV
Ik zeg ook niet dat het nu anders is t.o.v. consoles, maar het is nu wel anders t.o.v. de vorige generatie grafische kaarten dankzij de komst van nieuwe consoles. Zoals je zelf ook al opmerkt is AMD daar heer en meester. Wellicht helpt die massa ook om de nieuwe generatie pc-kaarten (want als ik dat zo lees is de architectuur niet wereldschokkend verschillend) in prijs te drukken. Dat maakt dat 'kamp groen' natuurlijk ook het achterste van zijn tong moet laten zien. Iets wat de vorige generatie nog niet zo nodig leek.
Dat AMD daar heer en meester is, komt voornamelijk door hun bang-for-buck mentaliteit. Niet doordat ze altijd de beste oplossingen hebben.
Een PS5 van 900 euro gaat gewoon niemand kopen.

Als kamp groen met de 3090 ver boven AMD blijft, en de 3080(ti) ook niet bij te benen zijn, maakt kamp groen zich voorlopig geen zorgen.

Ik hoop dat ze met RDNA2 de juiste performance gains halen, maar het blijft afwachten, want de geruchten (of zelfs officiele claim, die letterlijk gezien stand houdt "tot 2x zo snel") is kamp groen ook op afgefakkeld.
Alleen benchmark testen gaan bepalen wat er echt te halen valt in kamp rood. Mijn Ryzen 5 3600 ziet graag een rode vriend tegemoet. Gelukkig is voor hem praktisch alles een upgrade (vanaf een GTX1660ti)
Je zegt ”komt voornamelijk door hun bang-for-buck mentaliteit. Niet doordat ze altijd de beste oplossingen hebben” Je spreekt jezelf tegen in één zin

Volgens mij willen de consoles juist bang-for-buck. Oftewel beste prestatie/prijs. Daar heeft AMD juist beste oplossing voor.
Wat ik met beste oplossingen bedoelde is de allerbeste performance (ongeacht de prijs).
Maar inderdaad 'beste oplossing' kan ook gelezen worden in performance/prijs.

Excuses voor de onvolledigheid

[Reactie gewijzigd door EwickeD op 27 juli 2024 04:52]

PS3: Nvidia GPU
Xbox (1e generatie): Nvidia GPU + Intel CPU

:+

Edit: De eerste Xbox heeft natuurlijk ook een aangepaste Pentium processor :)

[Reactie gewijzigd door nigel100100 op 27 juli 2024 04:52]

Daar mag je ook nog de Switch aan toevoegen, deze gebruikt een Nvidia Tegra X1.
De Tegra X1 is technisch gezien een System On a Chip, maar inderdaad ook Nvidia Graphics/CPU :)
Jaren niet gedaan is nogal overdreven, alsof het zo enorm lang geleden is.. Alleen de vorige 1e RTX 2000 serie viel tegen qua prestatiewinst over de vorige generatie.. Die vorige generatie, de 1000 serie had echter gewoon ongeveer dezelfde prestatiewinsten over de 900 serie als nu de 3000 serie over de 2000 serie, dus dat is echt niet zo heel lang geleden allemaal.. Wel is het een van de beste generatiesprongen ooit, want dat was de 1000 serie ook, met o.a. een **70 kaart die sneller is dan het vorige Ti topmodel..
Waarschijnlijk omdat ze gewoon nog niet genoeg kunnen produceren en zich verbergen achter "och sorry we hebben het verkeerd ingeschat".
Je wil juist zoveel mogelijk de markt verzadigen vóór de AMD release. Iedereen die net een Nvidia GPU heeft gekocht, koopt geen AMD.

Dus dat Nvidia nu niet levert is dodelijk. Als ik geen RTX3090 in goede trim kan bemachtigen vóór de AMD release, en die kaarten zijn net zo goed of beter en wél direct beschikbaar? Dan stap ik zonder moeite over en is Nvidia een trouwe klant kwijt. En ik ben vast niet de enige die zo denkt.
Ja... want AMD komt met RDNA2 nieuws op de 28e... nVidia is benieuwd of de 3070 gaat floppen of niet. Veel geruchten die beweren dat RDNA2 de vloer gaat vegen met nVidia's kaarten, voor minder geld. We zullen het zien, want nVidia kon ook hun marketingbabbeltje uiteindelijk niet realiseren volgens de benchmarks in verscheidene reviews. Geen slechte kaarten, maar totaal niet wat er uiteindelijk werd verkocht aan het publiek. Ondertussen zijn de kaarten 100 euro duurder geworden (3080). Benieuwd wat AMD gaat brengen de 28e, Nvidia had anders zonder te zweten hun kaart niet hoeven uit te stellen.
De 3080RTX heeft precies gedaan wat het beloofd heeft, topt 2x zo snel als een 2080 en dat is het in verschillende games naast dat deze alsnog een heel pak sneller is dan de 2080TI welke 2x zo duur was.

Een groter probleem is dat de 3080RTX eigenlijk te snel is voor de huidige generatie CPU's wanneer het aankomt op low res gaming, De 3080RTX laat voornamelijk zijn kleuren zien op 4K resolutie.

Geruchten zijn niets meer dan geruchten.
Met een stroomverbruik en temperatuur die ook flink hoger liggen en je moet geluk hebben met je spelletje om de performance winst inderdaad hoog te krijgen.

Ze hebben bij Nvidia een vies truukje uitgehaald omdat ze de kaarten hebben verschoven. De gtx3070 verbruikt wat de oudere gtx2080 deed. De gtx3070 had wat mij betreft de 3080 moeten zijn. Idem voor de 3080 en 3090. De 3090 zou bij de vorige generatie een titan x of iets heten. Zo lijkt de sprong veel groter dan ie eigenlijk is. Je ziet dat ook aan het aantal shaders. De 3080 heeft hetzelfde aantal als de 2080. Even het twijfelachtige x2 van Nvidia wat ze deze generatie met de shaders doen buiten beschouwing gelaten.

Als je dus 3080 VS 2080 vergelijkt dan lijkt het heel wat. Maar je moet de 3080 met de 2080ti vergelijken. Dat zijn grotendeels dezelfde kaarten. En dan verbruikt de 3080 nog beduidend meer dan de 2080ti ook.

Ik ben onder de indruk van de marketing van Nvidia maar de kaarten zijn niet zo spannend eigenlijk als je er een beetje doorheen prikt.
Het stroomverbruik klopt, maar de temperatuur valt wel mee in vergelijking met oudere kaarten.

Ik wil het niet vieze trucjes noemen, men heeft gewoon gekozen om de kaarten meer prestatie te geven, het nadeel is dat dit alleen mogelijk was met een toename in energieverbruik. Dit is een keuze die men bij de ontwikkeling maakt en heeft niets met vieze trucjes te maken.
De RTX2xxx serie was voor Nvidia in principe een grote flop en absoluut niet wat men er van gehoopt had. Wanneer AMD met vergelijkbare prestaties was gekomen dan hadden we veel sneller nieuwe kaarten gezien.

Mensen die kaarten in dit high-end segment aanschaffen zullen zich niet bepaald druk maken om het extra energieverbruik. Die hebben liever het beste van het beste. Het zijn de mid-range kaarten waar men sneller naar prijs/prestatie kijkt en mogelijk naar stroomverbruik.

Ik heb vroeger altijd ATI readon (AMD) kaarten gehad, maar meestal ook altijd met driver problemen. Dit is een van de redenen dat ik de overstap gemaakt heb naar Nvidia. En sindsdien weinig tot geen problemen gehad en ik draai nog steeds de GTX 970. Hoewel ik absoluut geen fan ben van de manier waarop Nvidia zaken doet het belangrijkste voor mij is een stabiel product met een goede prijs/kwaliteit verhouding of dit nu Nvidia of AMD is zal mij worst wezen.
Met een stroomverbruik en temperatuur die ook flink hoger liggen en je moet geluk hebben met je spelletje om de performance winst inderdaad hoog te krijgen.
Je kan je kaart zodanig undervolten dat deze 90watt minder gebruikt en dan draait deze alsnog op 1800mhz. Hij komt gewoon tot op het randje overclocked out of the box in plaats van dat jij dit zelfs hoeft te doen.
Ze hebben bij Nvidia een vies truukje uitgehaald omdat ze de kaarten hebben verschoven. De gtx3070 verbruikt wat de oudere gtx2080 deed. De gtx3070 had wat mij betreft de 3080 moeten zijn. Idem voor de 3080 en 3090. De 3090 zou bij de vorige generatie een titan x of iets heten. Zo lijkt de sprong veel groter dan ie eigenlijk is. Je ziet dat ook aan het aantal shades. De 3080 heeft hetzelfde aantal als de 2080. Even het twijfelachtige x2 van Nvidia wat ze deze generatie met de shaders doen buiten beschouwing gelaten.
Lees wat ik hierboven type. Er is niks verplaatst qua verschuiving. Helemaal als je de prijs in het oog houdt.
Ik ben onder de indruk van de marketing van Nvidia maar de kaarten zijn niet zo spannend eigenlijk als je er een beetje doorheen prikt.
Je krijgt voor de helft van de prijs een GPU wat een heel stuk sneller dan een 2080TI is. De chip dies/transistor count is enorm gegroeid dankzij RTX dus je krijgt nog letterlijk een grotere chip ook.
je krijgt voor de helft van de prijs een GPU wat een heel stuk sneller dan een 2080TI is. De chip dies/transistor count is enorm gegroeid dankzij RTX dus je krijgt nog letterlijk een grotere chip ook.
Wel grappig dat mensen nooit verder terug kunnen denken dan 1 generatie terug en dan doen alsof het zo ontzettend aardig is van Nvidia dat de prijs dit jaar zo laag is!

680 $499 =>770 $399
780ti $699 => 970 $375
980ti $649 => 1070 $399

maar tja, Nvidia maakte de 2080ti $1200 en 35% sneller dan een 1080ti van $699, wat tof dat ze dit jaar de prijs teurg brengen naar $699! Nu is er uiteraard wel wat inflatie, maar het is al jaren dat we gewoon niet de beste die krijgen voor een normale prijs, maar altijd een gedowngrade chip van de titans. Consumenten lijken een beetje op goudvissen die niet verder denken dan vorig jaar (al is het feit dat goudvissen een slecht lange termijn geheugen hebben ook alweer debunked volgens mij?)
680 $499 =>770 $399
780ti $699 => 970 $375
980ti $649 => 1070 $399
-De 1070 was niet zo;n 30% sneller dan de 980ti maar vrijwel identiek.
-De 970 was vrijwel identiek qua performance als de 780ti.

De 3080RTX is dit wel, helemaal op hogere resoluties zoals je zelf al aangeeft. DUs je haalt je eigen punt al onderuit en beticht mensen van een goudvis zijn. De 20XX serie was qua rasterization performance geen grote upgrade nee, maar zodra je RTX aanzette was het vershcil natuurlijk enorm door de dedicates tensor cores wel de chip ook nog eens erg prijzig maakte om te produceren. Het aantal transistors ging namelijk enorm omhoog. Hadden wij er wat aan? Helaas wat matig qua game aanbod. Op professioneel gebied was de jump overigens vrij groot want je kon enorm snel renderen dankzij de tensor cores.

https://www.techpowerup.c...-founders-edition/34.html
Volgens mij mag je nog een keertje lezen wat ik geschreven heb en op wie je reageert :)
We kregen in het verleden gewoon om en nabij de 400 dollar een "mid range" kaart ( in 2008 met de 8800gtx was het nog "gewoon" 400 euro for de beste kaart op de markt en in 2003 was het volgens mij 250 euro en werd er in tijdschriften geschreven dat dat wel erg veel geld was voor een grafische kaart)
de 3070 heeft een msrp van 500 dollar, 520 euro voor de performance van de 2080ti. Mensen prijzen dit de hemel in omdat de 2080ti zo ontzettend duur was en dus is het een goede zaak. Kijken we echter VERDER dan 1 generatie zie je dat we gewoon alsnog 25% duurder uit zijn dan voorheen en mensen doen als nvidia de next coming of jesus zijn en zo barmhartig om voor zo goedkoop ons zoveel performance te bieden, DAT is waar ik iedereen een goudvis voor noem.
Ik lees prima je reactie en dat is het bericht wat ik er uit haalt. Nu haal je een heel ander onderwerp aan, dat je dus een high end kaart voor minder kreeg in het lerleden. Ja duh, dat is toch een gegeven, GPU's toen waren ngo geen fractie van de complexiteit dat zij nu zijn. Ondanks alle procede verkleiningen zijn de GPUs alsnog qua formaat gegroeid, dan hebben wij het nog niet over de fors duurdere geheugen modules.

De 8800GTX was een 484 mm² en 681 million transistor GPU, de 3080RTX is een 628 mm² en 28,300 million transistor GPU. Je krijgt dus extreem veel meer eigenlijk voor je geld als je het zo gaat uitkleden. Natuurlijk is het niet allemaal zo simpel. Je hebt inflatie, grondstof prijzen die de lucht in zijn gegaan, meer complexe architecturen, fors duurdere koelers op het PCB om het allemaal niet af te laten fikken.
Idd dat heb ik hier ook al veel gezegd maar ze willen het maar niet snappen. Het is ongelooflijk dat die dure prijzen van Nvidia zomaar aanvaard worden. Nvidia wordt nu de hemel ingeprezen omdat ze hun kaarten goedkoper gemaakt hebben dan de vorige generatie maar die vorige generaties en veel generaties ervoor waren al veel te duur.
Ik heb nooit iets over prijs gezegd. Het zal best zijn dat de deal beter is ten opzichte van de vorige generatie. Maar dat neemt niet weg dat het vergelijk van Nvidia gewoonweg scheef is. Het verschuiven van een generatie en het opfokken van de architectuur is grotendeels verantwoordelijk voor de performanceverbeteringen. Niet zozeer de betere techniek. Dat ze goedkoper zijn nu is mooi meegenomen, maar dat maakt de vergelijking van Nvidia niet ineens correct.

Ze hadden beter kunnen zeggen dat ze de prijzen gingen verlagen voor een kleine performanceverbetering en met hoger stroomverbruik dan doen alsof ze giga sprongen hebben gemaakt terwijl ze gewoon met de naamgeving hebben zitten schuiven.
Je krijgt voor de helft van de prijs een GPU wat een heel stuk sneller dan een 2080TI is. De chip dies/transistor count is enorm gegroeid dankzij RTX dus je krijgt nog letterlijk een grotere chip ook.
Wel meer transistoren maar zeker niet groter dan de 2080ti!

Daarnaast hoe relevant is de prijs precies tegenover de 2080TI? Hij is ook een stuk goedkoper dan een nieuwe auto, maar dat doet er ook weinig toe?

De 2080Ti is als nieuwe kaart niet aantrekkelijk (misschien wel nooit geweest ook) en als je die al hebt maakt het weer geen donder uit of die 3080 nou 1200 of 700 euro zou kosten, in beide gevallen kan je je 2080TI voor 200/150 euro minder verkopen en kan je dus voor 150/200 euro upgraden :)

[Reactie gewijzigd door watercoolertje op 27 juli 2024 04:52]

Je bent zelf ook niet vies van wat gewiekste 'marketing' zie ik want je vermijdt in je verhaal heel slim de prijsstelling van de nieuwe kaarten.
Dus omdat Nvidia de boel wat goedkoper maakt deze generatie mogen ze doen alsof ze heel grote sprongen hebben gemaakt? Mwah, ik blijf er liever wat realistisch over en vind dat de 2080 series wel extreem duur was en dat nu iets recht getrokken is.

Het gaat er mij om dat Nvidia en best wat anderen doen alsof deze generatie zo fantastisch veel beter is dan de vorige, maar dat is ie niet. Dat de prijzen beter zijn is goed. Maar Nvidia moet niet doen alsof ze 2x betere hardware hebben nu, want dat is niet zo. Het is wel zo dat je als consument nu voor een paar euro minder over betere hardware kunt beschikken. Maar dat was mijn punt niet. Als je hardware vergelijkt dan zijn de verbeteringen namelijk marginaal en dat is wat ik aan probeerde te tonen.

Dus zeker kopen, want de deal is veel beter. Maar hou jezelf niet voor de gek dat de hardware zelf veel beter is.
Precies dat.... als we alle marketing praat even laten voor wat het is, komen de prestaties/€ t.o.v. 20 series op vrijwel het dubbele uit en kun je als je wilt een hogere prestatie bereiken dan tot dusverre mogelijk was. Dat is goed nieuws, en ja wat mij betreft (prestaties/€) is deze generatie veel beter dan de vorige!
Natuurlijk zoekt Nvidia voor hun marketing geen geval uit waar het maar 3% scheelt om dan te melden "bij andere games scheelt het meer hoor!". De reviews lijken erop te duiden dat Nvidia zeker geen complete onzin verkoopt, dat het in de realiteit niet over de hele lijn zo geweldig is als Nvidia ons wil doen geloven is niet meer dan logisch.
De prijs stelling die gewoon weer terug is op het niveau van voor de belachelijke 20 serie prijzen bedoel je?
Je mag best vieze trucs met mij uithalen als de prijs value propositie daarmee een stuk gunstiger wordt.
Je moet niet naar het verbruik of de naam kijken, maar naar prijs/performance. Dan is de 3080 gewoon flink sneller dan de 2080 super, 2080 en 1080ti, die ook elk $700 waren.
En die waren zo duur omdat er geen AMD tegenhanger was. Als je gaat kijken naar hoeveel snelheidswinst ze behalen met hun nieuwe generatie chips wordt het procentueel gezien alleen maar minder en minder.

https://tweakers.net/foto...3TnCjhu5FvUtpEXsSeygF.png
Ja, het schiet niet op. Gevolg is dat ik 3,5 jaar met een 1080ti heb gezeten. Nog nooit zo lang een gpu gehouden. Ik heb nu de 3080, maar ik denk dat Nvidia het leuker had gevonden als ik elke 2 jaar een gpu koop.

DLSS 2.0 is wel een mooie uitvinding. In Control levert dat 70%(!) meer frames op zonder noemenswaardig kwaliteitsverlies: https://static.techspot.c...2109/bench/4K_Control.png

En grafisch lijkt Unreal 5 met Quixel Megascans simpelweg revolutionair te worden: https://www.unrealengine....5?sessionInvalidated=true
Aantal shaders hetzelfde tussen 2080 en 3080? Volgens mij 3000 tegen 8700 stuks
Aantal shaders gelijk tussen 2080ti en 3080. Nvidia heeft een dubbel aantal weer voor de 3000 series omdat ze, heel simpel gesteld, in 30% van de gevallen mogelijk 2x zoveel werk kunnen verzetten.
Je koopt zo'n kaart natuurlijk niet voor low res gaming, en daarbij 1440P gaming heeft nog steeds voordeel bij een RTX 3080 op beeldschermen met een hoge refresh.
En wat betreft de "verrassende" prijsstelling, vergeet niet dat AMD niet de enige concurrent is.
PC gaming, waar GeForce kaarten op zijn gericht, hebben meer concurrentie van Console gaming.
Iets dat ik bij de lancering van de RTX 20xx serie al zij, de kaarten zijn te duur.
Casual gamers hebben geen geld over voor een constante (twee jaarlijkse) upgrade van enkele honderden euro's (CPU, MB, RAM, GPU enz...).

En nu de PS5 en XBOX Series X/S voor de deur staan heeft Nvidia er een geduchte concurrent bij.
Dus Nvidia moet wel... tenminste.. ze moeten niks, maar verstandig was de zet wel...:P

-1 ?! dat modereren is echt een lachertje geworden, systeem is brak!

[Reactie gewijzigd door TheTeek op 27 juli 2024 04:52]

De schattingen zijn dat de Xbox series x gelijk aan een 2080 zou kunnen presteren. Best oké. Waarbij de ps5 daar bijna 20% onder zit, qua gpu.
De gears 5 developer zei dat ze met een port van die game waar ze slechts 2 weken aan gewerkt hadden (en ook ray traced based global illumination hebben toegevoegd) 2080 level performance kregen.

De developer zei ook dat er nog veel 'untapped performance' in de hardware zat, dus ze verwachten nog meer prestaties uit de hardware te halen.
De RTX 3080 is getest door nVidia in hele gunstige scenario's. In normale benchmarks door niet-betaalde reviewers, scoort de kaart niet altijd "tot 2x sneller", dat is gewoon enorm breed en heeft gezorgd voor een onnodige gigantische hype. Tot 2x sneller betekent net zo goed 10% sneller.

Betreffende rdna 2 geruchten, deze zijn allen grotendeels vals. De grap is dat AMD niet dom is, ze weten dat mensen door de Linux drivers heen spitten voor informatie over nieuwe kaarten. MLD heeft op veel fronten bewezen dat zijn bronnen zeer accuraat zijn, en heeft laatst een filmpje weer geplaatst over de opkomende rdna 2. Voor AMD is de 3070 niet hun doel, maar de 3080 en 3090. Maar goed, tijd zal het leren want AMD heeft heel goed hun kaken op elkaar gehouden dit keer met hun nieuwe kaarten.

[Reactie gewijzigd door Phntm op 27 juli 2024 04:52]

In normale benchmarks door niet-betaalde reviewers, scoort de kaart niet altijd "tot 2x sneller", dat is gewoon enorm breed en heeft gezorgd voor een onnodige gigantische hype. Tot 2x sneller betekent net zo goed 10% sneller.
'Tot 2x sneller' is per definitie niet altijd, maar meer een uitschieter. Je zegt het zelf eigenlijk al in je laatste zin. En als consumenten dat als altijd interpreteren is dat hun probleem, niet die van NVIDIA. IMHO is het eerlijke marketing, dat mensen daar verkeerde conclusies uit trekken, tjsa...

Overigens is '2x sneller' sowieso al niet echt een handige woordkeuze. Wat is 1x sneller dan? ;) Tot 2x zo snel is dan beter. En nee een keer(1x) zo snel is ook niet goed, want dat zou rekenkundig even snel betekenen. Maar dat maakt niet heel veel uit, we weten allemaal wat er bedoeld wordt.

[Reactie gewijzigd door MN-Power op 27 juli 2024 04:52]

scoort de kaart niet altijd "tot 2x sneller",
Dit is ook niet geclaimed, er is geclaimed "up to".
MLD heeft op veel fronten bewezen dat zijn bronnen zeer accuraat zijn
Je bedoelt hele generieke zaken wat van andere leakers is uitgekomen, de rest is speculatie.
Volgens mij snap je niet wat up to betekent... Up to betekent tot. Up to 2 times=Tot 2x. Dat is de claim, en deze claim komt uit gunstige scenario's. Ik neem geen minecraft RTX of Quake 2 RTX als leidraad om gaan zeggen "Wauw deze kaart is echt 2x sneller". Dat is allemaal kleine lettertjes verhalen.

Betreffend MLD: Als het gaat om generieke zaken, vind ik het heel bijzonder hoe hij gelijk had met o.a. de 3080 en 3090. Hij doet trouwens meer podcasts en blogs schrijven dan een filmpje plaatsen over één onderwerp op youtube. Wellicht is dat waarom het lijkt dat hij later is. Videocardz hapt ook altijd op allerlei soorten geruchten, maar MLD niet. Die komt, zodra het mogelijk is, met bevestiging van geruchten. En zoals je zegt, hij geeft ook terecht aan wat speculatie is of waarheid.
Volgens mij snap je niet wat up to betekent... Up to betekent tot. Up to 2 times=Tot 2x. Dat is de claim, en deze claim komt uit gunstige scenario's. Ik neem geen minecraft RTX of Quake 2 RTX als leidraad om gaan zeggen "Wauw deze kaart is echt 2x sneller". Dat is allemaal kleine lettertjes verhalen.
Ik denk dat jij dan niet begrijpt wat het betekent. Er zijn overigens wel wat meer games waar dit het verhaal bij is. Doom Eternal is er 1 van. Dat dit niet bij alle parameters is zou betekenen dat je eigenlijk helemaal niks ma c laimen want je kan altijd edge cases vinden.
Betreffend MLD: Als het gaat om generieke zaken, vind ik het heel bijzonder hoe hij gelijk had met o.a. de 3080 en 3090. Hij doet trouwens meer podcasts en blogs schrijven dan een filmpje plaatsen over één onderwerp op youtube. Wellicht is dat waarom het lijkt dat hij later is. Videocardz hapt ook altijd op allerlei soorten geruchten, maar MLD niet. Die komt, zodra het mogelijk is, met bevestiging van geruchten. En zoals je zegt, hij geeft ook terecht aan wat speculatie is of waarheid.
Videocardz post alles maar als jij gaat filteren op de credible bronnen heb je precies dezelfde data als MLD. MLD gooit er ene heel hoop persoonlijke speculaties en bias bij.
Je hebt het over de definitie van een combinatie van woorden. Je gaat vervolgens er helemaal op in. Ik begrijp niet wat jij nu niet snapt. Het is veel makkelijker dan je denkt:

NVidia claimt tot 2x sneller dan 2080*
*onder gunstige omstandigheden.

Duracell claimt tot 2x betere batterij duur*
*onder gunstige omstandigheden.

Oftewel: Wij van Wc eend...

Net als met autofabrikanten die het verbruik testen, is dit in uitermate bijzondere en gunstige scenario's. Als je kijkt naar de LTT filmpje over de 3090 8K gaming, die ook volledig gesponsord was door nVidia, moest hij ook bepaalde settings hanteren, en daar was hij gewoon lekker open over (anders verliest hij subs). Zo zie je dat dan wel bijvoorbeeld 60FPS werd behaald.

Je mag claimen wat je wilt, dat is niet wat ik zeg, maar om dat vervolgens te gebruiken is waarom de 3080 wel een goede kaart zou zijn vind ik persoonlijk een volledig zwak argument: Dit komt omdat de scenario's heel specifiek zijn. Day-to-day use heb je zeker een goeie videokaart, maar niet op het niveau van de claim. De nVidia event is een grote marketing campagne, en dat is helemaal goed en aardig. Maar ik zou niet mijn argumenten baseren op marketingpraatjes.

Even voor het laatst over MLD: Videocardz mag happig zijn wat ze willen, met of zonder de filter die jij opnoemt. Echter maakt dat niet uit, MLD wacht ermee tot hij wat bevestiging heeft. Zoals jij overduidelijk een nVidia bias hebt, kan hij een Bias hebben richting wat voor merk dan ook. Mij boeit het verder niet, want ik kijk er objectief naar: Ik ben nieuwsgierig wat het nieuws op dit moment is. Hij heeft regelmatig getoond dat hij wel de juiste informatie binnen krijgt. Als hij subjectief is over bepaalde zaken, dan zal dat best. Ik zit nu op dit moment niet te springen om iets aan te schaffen. Mijn 1080 houdt het nog goed vol.

[Reactie gewijzigd door Phntm op 27 juli 2024 04:52]

Zoals jij overduidelijk een nVidia bias hebt
Ik ben nie tbrand loyal, ik koop het beste wat ik kan kopen met mijn geld wat er op dat moment beschikbaar is. Nu draai ik een AMD Ryzen 7 systeem met een Geforce GPU en dat is voor mij de beste combinatie op dit moment. Over een jaar kan dat een Intel CPU zijn met een AMD GPU of whatever. Een jaar terug draaid eik nog exclusief INtel CPU's bijvoorbeeld en vroger heb ik meerdere AMD GPU's in mijn systeem gehad.
Even voor het laatst over MLD: Videocardz mag happig zijn wat ze willen, met of zonder de filter die jij opnoemt. Echter maakt dat niet uit, MLD wacht ermee tot hij wat bevestiging heeft. Zoals jij overduidelijk een nVidia bias hebt, kan hij een Bias hebben richting wat voor merk dan ook. Mij boeit het verder niet, want ik kijk er objectief naar: Ik ben nieuwsgierig wat het nieuws op dit moment is. Hij heeft regelmatig getoond dat hij wel de juiste informatie binnen krijgt. Als hij subjectief is over bepaalde zaken, dan zal dat best.
Mijn probleem met MLD is dat hij assumptions mengt met rumors. Bijvoorbeeld de claim dat Nvidia zijn MSRP alleen voor marketing gebruikt en daarom FE kaarten onder kostprijs aanbied initieel en deze daarna niet meer in stock gaan komen en dat de baord partners dan de prijs omhoog gaan gooien. De winkeliers gooien nu de prijzen omhoog vanwege de vraag. FE kaarten waren altijd duurder om te produceren maar Nvidia is dan ook de direct verkopendepartij zonder de tussenkomst van een board partner en leverancier. Oftewel meer marge. Tot op heden kan je nog de 20XX FE varianten op de Nvidia store kopen voor dezelfde prijs al sde initiele MSRP. Dit zal voor de 30XX serie niet anders zijn. Maar hij maakt er wel een heel filmpje over om te claimen dat de 3080 719 euro MSRP onzin zou zijn en Nvidia hiermee speelt.

[Reactie gewijzigd door Sn0wblind op 27 juli 2024 04:52]

Dan heb jij geen nVidia bias, excuus, maar je argumenten lieten het wel echt zo lijken.

Een verkopende partij (zij het met tussenpartij of niet) heeft in bijna alle gevallen een winst marge op wat zij verkoopt. Dit kan echter weleens helemaal 0 zijn of zelfs met verlies, zoals Sony een aantal jaar geleden met de Playstation 4. Verder over de FE kaarten: De nieuwe koeler design is erg prijzig en uniek. nVidia heeft een ontzettend kleine winst marge over de gehele 3080 FE kaart, maar wat zij ontvangen van AIB's is fors hoger. nVidia heeft een smerig spelletje gespeeld, dat aantoonbaar is, met de 3080 over het algemeen. De prijzen stijgen dankzij de "vraag". En die is er ongetwijfeld. Maar is de 3080 10GB variant dan wel de meerprijs waard als er een mogelijke 20GB variant komt bijvoorbeeld? Als je 3080 vergelijkt met de 2080 dan is de prijs zeker gunstig, maar de 3xxx over het algemeen is een prijzige serie dankzij ook de GDDR6X, die per GB duurder is dan GDDR6. De 3080 gaat zichzelf terugverdienen door een langzaam stijgende prijs. Ik kan mij nog herinneren bij de 1080 hoe de prijs langzaam omhoog kroop, toen kwam het echter omdat de 1080 goed in de smaak viel bij miners.
Ik denk juist niet dat de 3080RTX prijs gaat stijgen, alleen wel dat board partners meer gaan spelen met "unieke" ffeatures om zo meer te gaan vragen. Ik snap niet waarom di topeens een gespreks onderwerp is in vergleijking met de 20XX serie welke ook soortgelijke mooi uitgevoerde koelers had. Qua cooling oplossing traditioneler maar de materialen waren identiek.
Je hebt gelijk over de koeler prijs. Ik ging even weer Googlen en daar kwam ik inderdaad achter dat ze grofweg hetzelfde moeten kosten. Wat betreft unieke features, kan ik nu niet 1,2,3 iets bedenken eigenlijk naast fors betere koeling, zoals een hybrid of volledig waterblok. Dat soort kaarten zijn inderdaad generaties lang de duurdere opties. Helaas denk ik niet dat de prijzen zo laag blijven, excl. FE. (729~799).
De FE lijkt al in NL niet (nooit?) meer verkrijgbaar, als je kijkt op de site van NVidia wordt je doorverwezen naar partner shops die dus geen FE verkopen. Helaas.
Ik heb er 1 voo rmijzelf weten te bemachtigen en een week later eentje voor een vriend van mij. Die restocks gaan er echt wel komen. Ik had hiervoor een 2070 Super FE en deze vrij laat als stop gap kaart verkocht, er bleef voorraad bijkomen op de Nvidia site.
Ik denk dat jij dan niet begrijpt wat het betekent. Er zijn overigens wel wat meer games waar dit het verhaal bij is. Doom Eternal is er 1 van. Dat dit niet bij alle parameters is zou betekenen dat je eigenlijk helemaal niks ma c laimen want je kan altijd edge cases vinden.
Doom gaat zo'n 50-60% vooruit afhankelijk van je resolutie. En die vooruitgang is het gemiddelde. Het zijn juist de RTX games die de edge cases zijn.
Meer afhankelijk van je textures settings.
Nee hoor. Neem bijvoorbeeld de resultaten van TPU: 46/54/62% op 1080/1440/2160. Allemaal op de hoogste settings.
Hardware unboxed heeft heir een filmpje over gemaakt, er is 1 specifieke texture settings die de claim van Nvidia waarmaakt. Puur omdat de 2080 niet genoeg geheugen ervoor heeft.
Dat zegt hij toch ook, "tot 2x sneller", vertaald "up to 2x..."

Maar die bandbreedte is gewoon heel ruim, dat is van 1% tot 100% sneller...Er zijn situaties of specifieke benchmarks waar ze die 2x wel halen, maar dat zijn er slechts 1 of 2, bij de rest ligt het getal lager. (Maar naar mijn mening is het nog steeds een flinke sprong, maar dat mag ook wel na 2 jaar en bij het hogere stroomverbruik)

[Reactie gewijzigd door Navi op 27 juli 2024 04:52]

Tip, undervolt de GPU een beetje en je klokt alsnog over de 1800mhz en je verbruikt zo;n 90watt minder. De kaart komt gewoon out of the box tot op het randje geclocked.
Tip: doe dat gewoon lekker niet, zet een FPS lock gelijk aan de Hz van je scherm dan heb je altijd het beste, maar hoeft je kaart vaak niet 100% te werken als je veel meer FPS zou halen dan je Hz heb. En in het geval dat dat niet zo is wil je juist zo veel mogelijk FPS en zou ik in ieder geval niet willen terug klokken...
Undervolt is effectiever naar mijn ervaring. Zelfs meer dan de powerlimit op 90% te zetten bijvoorbeeld.

In mijn geval doe ik dit omdat ik de 3080RTX in een SFF kast heb zitten dus thermals optimaliseren is sowieso een must have voor mij.
Ik doe beide, minder verbruik door lagere fps en voltage.
Werkt prima. Het ene sluit het andere niet uit.
Ik heb nu een gtx 1700 en dacht eerst een zwaardere voeding te moeten kopen voor een upgrade maar met licht underclocken zou het dus ook gaan en kan ik nog enkele jaartjes verder met mijn pc? Welke tools heb ik dan nodig en hoeveel prestatieverlies kan ik door de underclock verwachten?
Ik gebruik een 650watt voeding (Seasonic 650 SFX 80plus gold psu), mijn CPU verbruikt ongeveer 60watt gemiddeld tijdens gmaing, m isschien in prime rond de 100watt. 3080RTX verbruikt met mijn undervolt zo;n 240watt. 3 case fans, 1 NVME ssd, moederbord en USB apparaten zal geen 200 watt zijn. Dus heb speling genoeg. Het kan lastiger worden als je een flink over-geklokte Core i7 8core hebt en dan 200watt verstookt ofzo.
De RTX 3080 is getest door nVidia in hele gunstige scenario's. In normale benchmarks door niet-betaalde reviewers, scoort de kaart niet altijd "tot 2x sneller", dat is gewoon enorm breed en heeft gezorgd voor een onnodige gigantische hype. Tot 2x sneller betekent net zo goed 10% sneller.
Wut? Het hele idee van tot 2 x sneller is toch dat het per definitie niet in alle omstandigheden de waarheid is. Dus dan is het toch vanzelfspreken dat de kaart "niet altijd tot 2x sneller scoort". Zou dat wel zo zijn dan had het vanaf 2x sneller moeten zijn ;).

Dat mensen massaal erop rekenen dat dit geen uitschieters zijn zal het enthousiasme zijn geweest dat de overhand nam van het verstand. De "normale" games Borderlands, Control, Hitman 2 en Jedi fallen order zitten overigens bijna op x2. Gemiddeld gaan ze op 4K van 58.2 FPS naar 97.2 FPS = +67%. Volgens mij is de up to 2x alleen te behalen bij gebruik van DLSS en/of ray tracing.

Tot heden is het grootste probleem, zoals onderhand bij elke launch tegenwoordig, beschikbaarheid.
Voor AMD is de 3070 niet hun doel, maar de 3080 en 3090. Maar goed, tijd zal het leren want AMD heeft heel goed hun kaken op elkaar gehouden dit keer met hun nieuwe kaarten.
Het doel zal ongetwijfeld altijd zijn om de snelste kaart te leveren. De grote vraag is welk niveau AMD kan bereiken. Momenteel komen ze niet verder dan 2070 Super prestaties. Stap 1 lijkt mij het evenaren van de 3070, alles daarboven is mooi mee genomen. Verwachten dat ze meteen sneller zijn dan een 3090 lijkt mij erg optimistisch. Maar we gaan het mee maken.

edit: rekenfout 8)7

[Reactie gewijzigd door sdk1985 op 27 juli 2024 04:52]

Haha, grapjas. Waar haalde ie die 2x performance ook alweer? Minecraft en Quake 2 RTX toch? Voor de rest is ie 70-80% sneller op 4k en nog belangrijker 50-60% sneller op 1440p. En dat ie minder goed scalet naar lage resoluties heeft niks met CPU's te maken, maar met het feit dat het geen gaming architectuur is.
Haha, grapjas. Waar haalde ie die 2x performance ook alweer? Minecraft en Quake 2 RTX toch? Voor de rest is ie 70-80% sneller op 4k en nog belangrijker 50-60% sneller op 1440p.
Ze hebben "up to" geclaimed. ZIjn wel een heel stuk meer games die dat overigens doen op 4K, dat 2x sneller zijn. NIet alle maar de jump is er wel en gaat groter worden zodra games meer RTX focused gaan worden.
En dat ie minder goed scalet naar lage resoluties heeft niks met CPU's te maken, maar met het feit dat het geen gaming architectuur is.
Daarom zie je de CPU pegged zijn op 100% op lagere resoluties.......

Ja de architectuur is ook breder maar verklaard het niet.
De 3080RTX heeft precies gedaan wat het beloofd heeft, topt 2x zo snel als een 2080 en dat is het in verschillende games naast dat deze alsnog een heel pak sneller is dan de 2080TI welke 2x zo duur was.
47% sneller dan de 2080 in QHD en en 68% sneller dan 2080 in UHD bedoel je, ipv 100% sneller? Zelfs "topt" is zeer optimistisch, want dat is echt enkel het geval in zeer specifieke scenarios.
net zoals de edge cases in de video die jij aanhaalt met titles als Flight Sim 2020 wat gigantisch CPU constrained is. Hitman welke CPU constrained is, vrijwel alle titles op dat lijstje tot en met Assassins creed odyssey zijn dus CPU constrained. Op 1440P is de laatste in de games die ik in ieder geval speel de 3080RTX gewoon geen goede pairing, staa tuit izjn neus te vreten in games als COD Warzone, BF5 etc als ik 1440P 16:9 aspect ratio resoluties selecteer. Mijn CPU daarintegen is dan aan het zweten tegen bijan 100% utilization. Het is dat ik op 32:9 super ultrawide speel wat qua pixel count bijna 4K is maar voornamelijk dan ook een bredere FOV wat meer vereist anders was de 3080RTX nauwelijks een verbetering versus mijn oude 2070RTX Super.

Maar als je dus die CPU constrained titels weghaalt is het percentage van snelheids verbeteringen toch echt een heel stuk groter opeens.

[Reactie gewijzigd door Sn0wblind op 27 juli 2024 04:52]

Maar als je dus die CPU constrained titels weghaalt is het percentage van snelheids verbeteringen toch echt een heel stuk groter opeens.
Dat is een beperking die jij erbij zet, niet één die nVidia er zelf bij heeft gezet toen ze hun uitspraak deden van 2x de prestaties van een 2080.

Natuurlijk klopt het dat titels die beperkt zijn door de CPU minder baat hebben aan een snellere GPU, maar je verzet de palen van het doel op die manier, want dat was niet het oorspronkelijke punt in de discussie.
De uitspraak dat Nvidia deed was tot 2x niet het presteerd 2x beter. edge cases izjn er in beide richtingen te vinden. Ik denk dat de prestatie jump vrij sterk is, hopenlijk zet AMD een eenzelfde jump en dan hebben we eindelijk allemaal weer mooie GPU's voor onze machines.
Ik meende mij te kunnen herinneren dat ze puur 2x2080 prestaties hadden beloofd, zonder uitzondering en zonder asterisk, maar dat vind ik niet meteen terug. Ik aanvaard je reactie zo lang ik dat niet teruggevonden krijg.
topt 2x zo snel als een 2080 en dat is het in verschillende games
En met 'verschillende games' bedoel je path traced minecraft en quake 2.

Voor alle andere games zit er toch nog wel een gat tussen wat de kaart echt doet en de claim van 2 keer zo snel. Zelfs op 4k waar de 2080 tegen een behoorlijke bottleneck aan loopt (en vaak niet sneller is als de 1080ti, terwijl hij wel veel sneller is op 1080p en 1440p) komt hij vaak niet boven de 80% uit.

Je kan dus beter zeggen dat de 3080, op 4k, zo'n 80% sneller is als de 1080ti op het zelfde prijs punt.

Het is eigenlijk vooral (de prijs van) de 20 series die de 30 serie er goed uit laat zien. De 30 serie zelf niet meer als gewoon ok.
Een groter probleem is dat de 3080RTX eigenlijk te snel is voor de huidige generatie CPU's wanneer het aankomt op low res gaming
Daar zijn de meningen nog over verdeeld. Als dat echt een CPU bottleneck zo was zou de 3090 niet veel sneller zijn geweest, maar hij is ongeveer in lijn met verwachtingen.

En dan is er nog 3090 SLI. in veel games deed SLI helemaal niks. ook niet op 4k. Van de 2 door Gamers nexus geteste games waarin het wel werkte, strange brigade en tomb raider, kon strange brigade @1440p vrolijk doorschalen in zowel vulkan als dx12, maar kwam de 3090 SLI setup niet veel hoger in tomb raider.
https://youtu.be/y4fb_R5Ogw0?t=717

Er is dus zeker niet altijd sprake van een CPU bottleneck, en soms zit de GPU daar nog heel ver vanaf.

[Reactie gewijzigd door Countess op 27 juli 2024 04:52]

Daar zijn de meningen nog over verdeeld. Als dat echt een CPU bottleneck zo was zou de 3090 niet veel sneller zijn geweest, maar hij is ongeveer in lijn met verwachtingen.
Het is geen mening als je een CPU tegen de 100% belast ziet terwijl de GPU niet op de 100% zit. Dat is gewoon een straight up klassieke CPU bottleneck. Iets waar je nogal snel tegen aan loopt zelfs met een 3080 op 1440P. Een Ryzen 7 3700 in BF5 zit gewoon bijna vol als jij je settings op een mix van hmedium/high hebt staan.
En dan is er nog 3090 SLI. in veel games deed SLI helemaal niks. ook niet op 4k. Van de 2 door Gamers nexus geteste games waarin het wel werkte, strange brigade en tomb raider, kon strange brigade @1440p vrolijk doorschalen in zowel vulkan als dx12, maar kwam de 3090 SLI setup niet veel hoger in tomb raider.
https://youtu.be/y4fb_R5Ogw0?t=717
SLI support in games is al gedropped door Nvidia en worden dus geen SLI profielen meer gemaakt. Waarom je dit dan aanhaalt als argument als Nvidia dit niet eens doet is mij een raadsel.
SLI support in games is al gedropped door Nvidia en worden dus geen SLI profielen meer gemaakt. Waarom je dit dan aanhaalt als argument als Nvidia dit niet eens doet is mij een raadsel.
Om aan te tonen dat er niet altijd spraken is van een CPU bottleneck.

(Daarbij ik had alle games waarin SLI totaal niet werkten al lang uitgesloten, als je even opgelet had bij het lezen)

Als de 3090 SLI setup veel sneller is (70%) als een enkele 3090 in een bepaalde game @ 1440p kan er dus geen sprake kan zijn van een CPU bottleneck bij een enkele 3090 (en dus ook niet met de 3080).

En toch is de stock 3080 in die zelfde game op die zelfde resolutie slechts 30% sneller als de stock 2080Ti.

Dat kan je dus met geen mogelijkheid afschuiven op een CPU bottleneck. Er is hier dus meer aan de hand waarom de 3080 zo belabberd schaalt op niet-4k resoluties.
Om aan te tonen dat er niet altijd spraken is van een CPU bottleneck.

(Daarbij ik had alle games waarin SLI totaal niet werkten al lang uitgesloten, als je even opgelet had bij het lezen)
SLI heeft al sinds inception problemen met niet altijd volledig te scalen en soms scaled het helemaal niet of is het zelfs eena chteruitgang. Hoe is dit uberhuapt een discussie punt? Er zijn engine pipelines die juist struikelen over SLI. Dat is geen aanknopings punt van wel of geen CPU bottleneck.
Als de 3090 SLI setup veel sneller is (70%) als een enkele 3090 in een bepaalde game @ 1440p kan er dus geen sprake kan zijn van een CPU bottleneck bij een enkele 3090 (en dus ook niet met de 3080).
Lees hierboven.
En toch is de stock 3080 in die zelfde game op die zelfde resolutie slechts 30% sneller als de stock 2080Ti.
Je kan een game zo instellen dat het verschil heel klein is met de 2080ti, mede door de genoemde CPU bottlenecks of render pipelines die er gewoon voor zorgen dat een 3080 under utilized is. Je kan het ook zo instellen dat je de 3080 verder zijn benen laat strekken door excessief veel load te creeeren op de CPU. Zelfs bijvoorbeeld render scale bij 1440P eens op 125% en opeens is het gat met de 2080TI groter. Je zoekt naar edge cases alleen is dit een double edged sword in de discussie.
Dat kan je dus met geen mogelijkheid afschuiven op een CPU bottleneck. Er is hier dus meer aan de hand waarom de 3080 zo belabberd schaalt op niet-4k resoluties.
Belabberd? beetje uit het verband getrokken?

CPU's onderling verschonen toch nogal vaak flinke verschillen bij lagere resoluties die spontaan verdwijnen bij 4K. Oftewel CPU bottleneck..
https://www.youtube.com/watch?v=SNMVikiHCXg
Je hebt veel dingen gelijk zoals Countess ook veel gelijk heeft. En aan Countess track-record te zien zou ik als ik jou was iets minder als een brugpupper tegen Countess blaffen aub want het maakt jou vele aangehaalde goede punten en potentiele classy discusie volledig onderuit.

Om aan jou feiten en meningen aan te haken: Ook ooit gedacht aan software-bottleneck?

Bijvoorbeeld Flight Simulator 2020 vindt ik niet echt CPU bottleneck maar software-bottleneck dingetje. En om in jou "muse-taal" te blijven, dat is dus een feit! ;) (we weten dat het geen feit is maar wel een gegronde waarheid). Als software maar één core van de 16 belast is het geen CPU bottleneck naar mijn mening.

Een ander voorbeeld:

3DMark software optimalisatie kan kiezen uit:

1. NVIDIA only optimalisatie: Preemption.
2. AMD only optimalisatie: Asynchronous Compute.
3. Zowel NVIDIA en AMD optimalisatie, iedereen blij en ook eerlijker vergelijking.

Feit is dat 3DMARK jaren lang koos voor optie 1, NVIDA's Preemption optimalisatie only. Waardoor de Radeons niet volledig ten volle Compute Units werden benut met als resultaat meer Radeons "GPU bottleneck" maar hierdoor ook de CPU kan beinvloeden. En om nog complexer te maken, soms de AMD CPU's of juist soms de Intel CPU's kan bottlenecken.

Het is jammer dat jij je zin "straight up blabla" en mening en feiten een beetje rond hutselt alsof het jouw wet is.
Je hebt veel dingen gelijk zoals Countess ook veel gelijk heeft. En aan Countess track-record te zien zou ik als ik jou was iets minder als een brugpupper tegen Countess blaffen aub want het maakt jou vele aangehaalde goede punten en potentiele classy discusie volledig onderuit.
Er is voorgeschiedenis, Countess heeft in het verleden vaker aannamens gepresenteerd als "feiten" en gooit er tussen neus en lippen door dan ook een halve belediging tussen/verkeerde toon. In mijn wereld is het nogsteeds dat als respect ontbreekt, dat je dat niet van mij hoeft te verwachten.
Om aan jou feiten en meningen aan te haken: Ook ooit gedacht aan software-bottleneck?
Aan gedacht ook in deze discussie aangehaald met name betreft SLI schaalbaarheid welke Countess aanhaalde als argumetn dat het geen CPU bottleneck zou kunnen zijn.
Bijvoorbeeld Flight Simulator 2020 vindt ik niet echt CPU bottleneck maar software-bottleneck dingetje. En om in jou "muse-taal" te blijven, dat is dus een feit! ;) (we weten dat het geen feit is maar wel een gegronde waarheid). Als software maar één core van de 16 belast is het geen CPU bottleneck naar mijn mening.
Mij zou je ook niet horen zeggen dat FS2020 niet goed geoptimaliseerd is hoor?
Het is jammer dat jij je zin "straight up blabla" en mening en feiten een beetje rond hutselt alsof het jouw wet is.
Waarom spreek jij countess hier niet op aan? Aannamens als feiten zonder enige bron vernoeming posten is problematisch. Ik zet het in harde taal neer maar binnen deze discussie post ik er wel bronnen bij. Ik haal een voorbeeld aan dat als een CPU volledig belast wordt (en dus geen edge case van dat er maar 1 core gebruikt wordt bijvoorbeeld) en dan een GPU niet volledig voor 100% belast kan worden dat dit simpelweg een CPU induced bottleneck is. Het is een reactie op Countess die heel simplistisch een discussie aan gaat en ik ga hier dan ook heel simplistisch op in. Als iemand een gedegen investering qua tijd en moeite in een post steekt dan reageer ik hierop met dezelfde insteek. Heeft de tegenpartij dat niet? Dan raffel ik mijn reply af en steek ik die 30 minuten die ik er op bespaar wel in het werken aan een projecte wat mij tenminste iets opleverd.
Volgens mij had ik al gezegd "track-record" ;) . Als er iemand hier op Tweakers is met onderbouwingen en bronnen is het "Countess" wel. En aan jou laatste berichten te zien heb ik twijfels over "jou wereld". Een beetje agressieve wereld dan, vindt je van niet?

Okee, ik wil er verder geen drama van maken. Vele zielen, vele meningen. Fijne dag gewenst!
Niet naar mijn ervaring, helemaal rondom de 3080RTX launch, foutieve claims maken dat de laatste Nvidia drivers de stabiliteits problemen op zouden lossen door te down clocken en dit als feit neerzetten terwijl dit al is aangetoond dat dit niet waar is evenals dat er uitleg is gegeven wat de drivers doen. Dan daarna nog tussen neus en lippen door te beledigen ben je bij mij aan het verkeerde adres. Ja ik ben fel in mijn reacties, vind de kwaliteit van posts de laatste tijd dan ook wel erg matig op Tweakers om eerlijk te zijn, hopenlijk trekt de nieuwe (eigenlijk oude richting) van Tweakers weer een beetje de echte hardware puristen aan die oprecht interesse hebben in technologie in plaats van het WWCF tech achtig volkje.

Jij ook een fijne dag gewenst!
Bedankt voor de belediging en naschoppen :+ . Het staat nu 1-1 in jouw wereld . Geniet nu lekker van je nieuwe RTX 30xx met je vriend. Waarom maak je zo druk om? Ga lekker gamen op 4K! Ik ben blij voor je dat je de RTX 30xx hebt kunnen bemachtigen. Ik ben zelfs harstikke jaloers op jou en je vriend! Echt, ben oprecht super jaloers. Veel plezier met de kaart!

Ik moet je wat bekennen: Man, had ik de 10GB maar. Helaas, je was me voor, Alle 30xx kaarten op. Nu moet ik noodgedwongen een weekje wachten op de over-marketing hype 16GB Navi 2x kaart, zucht wat moet ik met teveel VRAM? 10GB was echt wel de sweet spot volgens Leather Jensen. Ik heb maar een miezerige 8GB kaart uit 2016, 4 jaar geleden. Nooit gedacht dat er een dag zou komen na 4 jaar met een kaart van 10GB in 2020, holy moly! _/-\o_

Ik ga een kroeg in en mijn jaloezie en mentale pijn weg drinken. Ik zou het fijn vinden als je niet meer dit draadje vervolgt, dan doe je mij weer aan de 10GB denken, dat doet pijn! :'(
komt hij vaak niet boven de 80% uit.
Ja dat is wel matig. Totaal niet in de buurt van die geclaimde tot 2 maal sneller.

/s
Heel slim dat Nvidia de 3070 na de launch van RDNA2 uitbrengt. Dit betekent dat AMD niet in aanraking kan komen met de 3070 van Nvidia zodat ze hun kaarten ook niet precies kunnen vergelijken met die kaart. Ze hebben tot nu toe alleen de benchmark cijfers van Nvidia voor de vergelijking.
We weten niet of het een launch is van big navi die dag.
Dat weten we wel , en dat is het niet. de lauch is in november de datum en ik al weer kwijt. heeft bij hwi gestaan.
En er zijn niet honderden review modellen rondgestuurd waarvan er vast wel iemand zijn NDA niet heeft nageleefd en resultaten via via heeft doorgespeeld? De aanname dat dergelijke bedrijven niet van elkaars hardware op de hoogte zijn is heel naïef, het enige waar men mogelijk over kan vallen is prijs. Dat zou mogelijk niet (breed) intern gecommuniceerd zijn of kan zelfs makkelijk worden veranderd op het laatste moment.
En er zijn niet honderden review modellen rondgestuurd waarvan er vast wel iemand zijn NDA niet heeft nageleefd en resultaten via via heeft doorgespeeld? De aanname dat dergelijke bedrijven niet van elkaars hardware op de hoogte zijn is heel naïef, het enige waar men mogelijk over kan vallen is prijs. Dat zou mogelijk niet (breed) intern gecommuniceerd zijn of kan zelfs makkelijk worden veranderd op het laatste moment.
Nvidia heeft de pas 2 weken voor launch drivers vrijgegeven die games konden draaien. De prijs van de RTX 3070 heeft Nvidia in september al duidelijk gecommuniceerd tijdens hun launch event; $499. De Nederlandse Nvidia website geeft sindsdien 519 euro weer.

Met andere woorden; de prijs is al lang geen geheim meer, de performance hoogst waarschijnlijk wel.

[Reactie gewijzigd door sdk1985 op 27 juli 2024 04:52]

Gelukkig is het voor de 3070 makkelijker. Nvidia zegt zelf dat het gelijk is aan de 2080ti. (Grote korrel zout, zie de 3080)

Dus alles wat AMD boven de 2080ti kan laten zien verslaat volgens Nvidia's eigen woorden de 3070...
Ja, en wanneer de benchmarks komen is het; "In gevallen van RTX performance staat de 3070 gelijk aan de 2080 ti"
Want AMD heeft niet een paar 3080's kunnen bemachtigen?
Dan ga je er al vanuit dat ze met de 3080 kunnen en willen concurreren. Als ze net onder de 3080 presteren op een lager prijspunt is dat marketingtechnisch een stuk minder interessant dan betere prestaties t.o.v. de 3070 kunnen laten zien voor een bescheiden meerprijs. De meeste kopers in dit segment kijken toch in eerste instantie naar hogere FPS en niet naar de "cost per frame".
Daar ga ik zeker niet vanuit. Net onder een 3080 op een lager prijspunt kan namelijk prima hetzelfde zijn als beter dan een 3070 voor een bescheiden meerprijs. ;)
Tweakers: Zowel de release van de RTX 3080 als RTX 3090 verliepen moeizaam. De vraag naar de videokaarten is veel groter dan het aanbod. Dat geldt zowel voor de Founders Edition-uitvoeringen die Nvidia zelf verkoopt, als de videokaarten van aib-partners die bij webshops te koop zijn.

Nvidia bood daarvoor zijn excuses aan en zegt dat de vraag naar RTX 30-kaarten veel groter is dan vooraf werd ingeschat. De interesse zou veel groter zijn dan bij de release van bijvoorbeeld de RTX 20-serie. Nvidia noemt echter geen concrete cijfers. Hoeveel videokaarten er zijn verkocht is niet bekend.
Natuurlijk is lekker makkelijk, lekker te weinig kaarten maken en dat ze dus duurder woorden om ze aan te schaffen, en dan zeggen sorry we wisten (zogenaamd) niet dat ze zo goed zouden verkopen.
Dat door schaarste de prijzen omhoog gaan heeft Nvidia echt helemaal niets aan; hun Founders Editions lopen via hun eigen website en die prijzen zijn gelijk gebleven. Verder verdienen ze aan de chips die ze aan de partners leveren, maar die chips zijn al verkocht en ook daar zal de prijs niet zomaar omhoog gaan. De board partners zullen er ook weinig mee opschieten; die leveren aan winkels en die prijzen aanpassen gaat ook zomaar niet. De shops dan? Nope, ook niet tot nauwelijks. Die hebben tegen pre-order prijzen verkocht en geleverd zover ze konden. Nee, de hoge prijzen komen door degenen die de eerste batch hebben kunnen (op)kopen en die vervolgens doorverkopen aan degenen die achter het net gevist hebben en niet willen wachten.

Nee, dit soort schaarste zit Nvidia echt niet op te wachten. Negatieve media ("paper launch") en simpelweg minder verkocht dan had gekund....dus meer mensen die nu toch moeten wachten en wellicht toch voor de concurrent kiezen.
Ik denk dat AMD al lang en breed precies weet wat die 3070 gaat inhouden, die hebben al lang contact met reviewers gehad, of hebben zelf al zo'n kaart weten te bemachtigen..
Qua performance gaat RDNA2 echt niet de vloer aanvegen met Nvidia. Ze gaan met gelijkwaardige GPU´s komen. De prijs zal het verschil maken.

Kun je ook aangeven welk marketingbabbeltje je op doelt? Ze hebben altijd aangegeven "up to 2x 2080 performance". En daar is geen woord aan gelogen.

En hoezo 100 euro duurder geworden? Je kunt gewoon een 3080 FE kopen voor 719 euro.
De FE die niet op voorraad is?
Bovendien is de Nvidia event puur marketing geweest. Tot 2x de performance is notabene erg breed, want dat is hetzelfde zeggen als dat met Duracell de batterij 2x zo lang mee kan. Lees de kleine letters: altijd onder gunstige omstandigheden. De 2x is haast niet waar te maken. En het is in gebruik met ray tracing en dlss...De 3090 is ene grap voor 10-15% meer performance voor het dubbele bedrag. En ik zou rdna2 niet zo snel afschrijven. Als AMD nog punten zal scoren op prijs en energie zuinigheid, maar qua performance min of meer gelijk is, dan zie ik dat ook als vloer aanvegen. Ampère is dan voor de 3080 en 3090 heel verkeerd toegepast.

[Reactie gewijzigd door Phntm op 27 juli 2024 04:52]

De FE die niet op voorraad is?
Net als al die andere (duurdere) kaarten die niet op voorraad zijn...
Ja, dat is gewoon erg jammer. Maar de prijzen kruipen dankzij de gigantische vraag wel omhoog. En dat is precies wat nvidia wilt. Die 700 MSRP (USD) gaat nu rustig richting de 800, m.u.v. de FE die wellicht in NL niet/nooit op voorraad komt. Was een tijdje ook een artikel over de shop pagina van de FE 3080.
En dat is precies wat nvidia wilt.
Alleen als deze de FE voor meer gaan verkopen aan groothandels of de GPUs voor meer aan de leveranciers, anders schiet Nvidia er geen hout mee op. En ik weet vrij zeker dat dit niet het geval is, anders had dit allang en breed in de media gestaan. Wat er nu gebeurd is dat bepaald groothandels/winkels hier een slaatje uit slaan door meer per kaart te vragen, maar aan de andere kant schieten ze er ook niets mee op, want waarschijnlijk zouden ze meer verdienen als de kaarten volop leverbaar waren...

Dat zie je ook in andere branches als zaken structureel slecht leverbaar zijn en er veel demand is voor een product. De producent gooit zelf de prijzen niet omhoog, maar alle tussenstops wel.
De prijzen lijken nu behoorlijk stabiel te zijn, ondanks dat de vraag hoog ligt en er amper voorraad is. Neemt niet weg dat de mogelijkheid bestaat dat deze nog rustig omhoog zullen kruipen.

Dus dat slaatje is voor nu nog in de grond en is nog niet geoogst.
Je noemt dat de prijs 100 euro is gestegen. Dat staat toch los van de voorraad? De voorraad is niet heel best maar dat was te verwachten. De vraag is of AMD dat veel beter gaat doen.

Nvidia heeft meerdere malen aangegeven dat de 3090 niet zozeer geschikt is om mee te gamen in vergelijking met de 3080. Het is eigenlijk een vervanging van de Titan. Ze geven bijna letterlijk zelf aan dat je beter een 3080 kunt kopen als je alleen gaat gamen.

Voor nu is het afwachten waar AMD mee komt.
De 3090 is geen vervanging van de Titan, maar een Titan-class (aldus Mr. Jensen) kaart. Dat betekent dat er genoeg speelveld over is voor een daadwerkelijke Titan kaart. Wat de prijs wordt? Geen flauw idee. In ieder geval lijkt mij dat zo een kaart hoger geprijsd zal worden wat niets meer dan logisch is.

En even over de voorraad: Dat zaakje stinkt, maar hoop inderdaad dat AMD het veel beter doet. Hopelijk pakken ze het net zo goed aan als met de Ryzen CPUs.
Winkels gooien de prijzen omhoog als er schaarste is. Die hoeven geen prijsafspraken te maken om door te hebben dat ze hun marges (tijdelijk) kunnen verhogen.

Ik zeg niet dat dat nu aan de hand is, maar de statement dat prijzen los van voorraad staan is niet waar.
Klopt maar Phntm noemt dat de prijs 100 euro duurder is terwijl de 3080FE gewoon nog steeds 719 euro kost. Alternate hanteert ook de normale prijzen.
Volgens Moore's Law is Dead op YT gaat Big Navi 21 (AMD model vergelijkbaar met 3080) tussen de $549-699 kosten. Wat de prestaties precies zijn is helaas nog onduidelijk, als AMD in de buurt kan komen van de 3080, minder stroom verbruikt, goedkoper is en er genoeg kaarten beschikbaar zijn na release dan kan dit een grote win worden voor AMD. Ook zijn er geruchten dat de Big Navi 21 over 16GB geheugen beschikt wat een stuk meer is dan de 10GB van de huidige 3080 (er schijnt later nog een 3080 met 20GB uit te komen). Het blijft voor mij een lastige keuze tot de benchmarks van Big Navi 21 verschijnen. Ik heb nu een 1080 dus twijfel tussen de Big Navi 21 en 3080 20GB versie, de 10GB versie lijkt me niet echt future-proof.
Wat is tegenwoordig future proof? Voor de één een jaar voor de ander 5 jaar. Ik denk dat een 3080 10G prima een aantal jaren mee kan hoor. Ook afhankelijk op welke resolutie je nu speelt en eventueel wilt gaan spelen. Ik zelf switch om de 2 jaar ongeveer van kaart.
Zelf heb ik nog een 1080 dus ik update m'n videokaart wat minder regelmatig. Future-proof is natuurlijk subjectief en lastig in te schatten maar als ik €800 uitgeef dan verwacht ik daar wel 4 jaar mee vooruit te kunnen. Nu is 1440p een veel voorkomende game resolutie, in de toekomst zal dat voor veel mensen 4k worden en hiervoor is 10GB geheugen gewoon aan de lage kant. Bij de Nvidia 4k benchmarks zijn de settings zo ingesteld dat ze net op de 10GB uitkomen. Als ze voor 4k nu al settings moeten terugschroeven vanwege het geheugen dan vind ik dat niet future-proof.
De hele 10 GB discussie is erg ongenuanceerd.

De eerste nuance is dat (v)ram allocatie niet hetzelfde is als (v)ram usage. Als je MS Flight simulator @ 4k bekijkt dan zal rivatuner (msi afterburner) bijvoorbeeld 5926 MB vram aangeven, de dev tools geven dan 2426MB aan Special K geeft 2426MB aan. Dat is minder dan de helft dan je zou verwachten op basis van de getallen waar we normaal naar kijken. Logisch want tegenwoordig is het motto dat ram zoveel mogelijk gebruikt moet worden. Ook het OS cached steeds meer in het (ongebruikte) ram. Dat betekend echter niet dat je zonder dat ram performance problemen gaat krijgen. Voorbeeld: https://youtu.be/IAQHVIRjhMw?t=127

De tweede nuance is dat je bij pc gaming altijd de vrijheid hebt om je grafische instellingen aan te passen en dus ook een potentieel tekort aan vram op te lossen. De texture detail setting is de primaire bron van een hoog VRAM gebruik en heeft een veel grotere impact dan de resolutie. Daar kan je in geval van nood dus mee gaan spelen. Zo kun je anno 2020 alsnog met een kaart als de GTX 1060 3GB spelen, alleen moeten je texture details even op medium-high.

Derde nuance is dat als we over de toekomst praten het er sterk op lijkt dat we weer een nieuwe evulotie van ram gebruik gaan krijgen. Zelf gebruik ik al jaren software waarmee ik mijn IO laag voor 1GB in het ram cache, voor 100GB op een SSD en daarmee de achterliggende HDD versnel. Dit soort truuks zijn zowel AMD als Nvidia mee bezig. Daarnaast hebben we met ampere gpu accelerated storage gekregen waarmee er véél sneller data kan worden ingeladen vanaf NVME SSD's. Hierdoor kan de GPU met een kleinere memory pool gaan werken. https://www.nvidia.com/en...rated-storage-technology/ / https://techgage.com/article/a-look-at-amd-radeon-vega-hbcc/

Future proof lijkt mij bij een GPU eigenlijk altijd een non-issue. Er zijn nu al diverse games te vinden waar een 3080 op 4K 60 a 70 FPS haalt. Even los van het punt dat ik persoonlijk 90+ fps prefereer in combinatie met VRR is het dus een kwestie van tijd voor de details of resolutie omlaag moeten. De 10GB gaat niet eens het probleem vormen, de snelheidvan de kaart wordt het vermoedelijk eerste probleem (voor 4K).

[Reactie gewijzigd door sdk1985 op 27 juli 2024 04:52]

Met de nieuwste GPU wil je toch juist niet je grafische instellingen naar beneden aanpassen? Het feit dat er nu games zijn die alleen met aangepaste instellingen op 4k met 60fps draaien (games die gebouwd zijn voor de 20-serie) geeft mij al helemaal geen vertrouwen voor de toekomst. Nieuwe games vragen over het algemeen steeds meer grafische rekenkracht en met een kaart die zo snel is als de 3080 verwacht ik een redelijke hoeveelheid VRAM zodat dat geen bottleneck wordt. In dit geval wacht ik liever even op de Big Navi 21 of 3080 20GB versie voordat ik €800+ uitgeef en over 2 jaar weer moet upgraden.
Verwar je nu niet een aantal zaken? Ik heb nog geen benchmarks gezien waarbij vram omlaag moest in het geval van de RTX 3080. Ik heb wel een benchmark gezien waarbij het geprobeerd werd:
There is no change in performance with GPUs packing 10GB or more VRAM
https://static.techspot.c...fo/2099/bench/4K_Doom.png
https://static.techspot.c...9/bench/4K_Doom_Ultra.png
De uitkomst was dat het voor de 3080 geen effect had. Games die nu niet genoeg presteren vallen zo ver ik weet onder hetgeen beschreven in mijn laatste alinea. Dat staat los van de 10GB.

[Reactie gewijzigd door sdk1985 op 27 juli 2024 04:52]

Persoonlijk duim ik voor AMD, niet omdat ik een AMD videokaart wil, maar voor de concurrentie. Dat is ten gunste van ons als consumenten want prijzen gaan dan (hoop ik) omlaag. Ik heb een nog prima werkende Gsync monitor, dus ik ga dan wellicht voor de 3070 als die met een goeie prijs komt (en 16gb ipv 8gb). Hoop dan wel op een lagere prijs dankzij AMD's concurrentie.
"ik wil dat AMD goede GPUs maakt zodat ik goedkoper nvidia kan kopen"

En je maar afvragen waarom AMD geen prioriteit maakt van high end GPU's.
Vanuit een financieel oogpunt, gezien ik nu een gsync monitor heb, is nVidia dan toch wel stukken goedkoper. Ik ben geloof ik ook niet de enige persoon die er zo over zou denken. Ik kijk er niet naar uit om onnodig mijn Gsync monitor te vervangen door een Freesync alternatief+AMD Videokaart om het maximale eruit te halen...

AMD kon gewoon een lange tijd haar beloftes niet waar maken, laat staan goed mee concurreren.. Heeft niks te maken met of ze er wel of niet een prioriteit van maakten.

Als consument zelf wil je gewoon uiteindelijk meer bang for buck. AMD heeft dat erg goed opgepakt op de CPU markt. Intel had deze ook gevoeld na een hele lange tijd op eenzame hoogte te zijn.
En dit lees je op veel plekker inderdaad. Als je echt wil dat AMD een goede concurrent wordt van Nvidia zullen we toch echt ook AMD het geld moeten geven door hun videokaarten te gaan kopen.
Weet je zeker dat je scherm geen Freesync ondersteunt? Ik had ook een beeldscherm met een mooie stikker Nvidia G-sync. Maar als je dan kijkt op tweakers bij de kenmerken stond ook netjes Freesync Supported.

Veel meer beeldschermen met Freesync dan G-sync. Daarom ondersteund Nvidia het ook ineens.
Ik heb een oude ASUS PG278QR. Ik weet vrijwel zeker dat deze geen FreeSync ondersteunt. Of ik moet hartstikke blind zijn geweest. Deze functioneert nog hartstikke goed, vandaar ook mijn motivatie om deze nog niet de deur uit te doen. Lijkt mij zonde.
Klopt die heeft geen Free-sync.
En nee die zou ik ook absoluut niet de deur uit doen. :P Zelf heb ik een scherm met beide en ik wil eigenlijk upgraden. Dus ik wacht rustig voor AMD om te laten zien wat ze kunnen.
Ben niet gecharmeerd van Nvidia de laatste paar jaren om eerlijk te zijn. M'n 1080ti is een monster kaart, goed geprijsd en een leuke bump up van de vorige gen.

RTX 20 = super duur
RTX 30 = Minimale bump en veeeeel meer power nodig.

Ik hoop dat AMD de strijd met de 3080 aan kan.

[Reactie gewijzigd door EXos op 27 juli 2024 04:52]

....M'n 1080 is een monster kaart, goed geprijsd en een leuke bump up van de vorige gen.

RTX 20 = super duur
RTX 30 = Minimale bump en veeeeel meer power nodig.
Minimale bump!? Minimaal? De 3080 is maarliefst 83% sneller(edit:dan de 1080), dat noem jij minimaal?
Of begrijp ik verkeerd wat jij met bump bedoelt? (ik hoor het mensen amper zeggen dus zou oprecht zo kunnen zijn)

[Reactie gewijzigd door Xm0ur3r op 27 juli 2024 04:52]

En de 3080 is gemiddeld maar ~25% sneller dan de 2080ti. En ja de 3080 is de 2080ti vervanger, kijk naar de chip die gebruikt wordt. Als AMD niets leuks laat zien dan vervang ik m'n 1080ti (edit) waarschijnlijk wel met een 3080.

Maar, de power draw maakt me wantrouwig. Het is een duidelijk teken dat Ampere versnelt op de markt is gekomen. En ook dat ze gerekend hadden op het feit dat TSMC wel door de knieën zouden gaan voor hun qua prijs.

Ampere is een geheel nieuwe architecture, het is niet een Intel 14nm+++++++++++++ scenario. En de veranderingen die ze hebben gemaakt zijn interessant maar helaas niet voor deze generatie. De vooruitgang in prestaties hebben ze meer te danken aan meer vermogen er doorheen blazen en grotere ram bandbreedte, daar komt de betere prestaties op 4k vandaan.

Deze generatie van Nvidia is absoluut zo'n grote update als dat de marketing je wil laten geloven. Daarom ben ik niet onder de indruk.
En de 3080 is gemiddeld maar ~25% sneller dan de 2080ti.
25% voor iets minder dan de helft van de prijs van een 2080ti.(uiteraard voor de keldering) Vergeet vooral die prijs niet, het is nog steeds veel geld maar je krijgt er dus wel een 25% snellere 2080ti voor terug voor aanzienlijk minder geld.
Maar, de power draw maakt me wantrouwig. Het is een duidelijk teken dat Ampere versnelt op de markt is gekomen. En ook dat ze gerekend hadden op het feit dat TSMC wel door de knieën zouden gaan voor hun qua prijs.

Ampere is een geheel nieuwe architecture, het is niet een Intel 14nm+++++++++++++ scenario. En de veranderingen die ze hebben gemaakt zijn interessant maar helaas niet voor deze generatie. De vooruitgang in prestaties hebben ze meer te danken aan meer vermogen er doorheen blazen en grotere ram bandbreedte, daar komt de betere prestaties op 4k vandaan.
Zeker, het is overduidelijk dat Nvidia deze reeks gerushd heeft. Echter; het is slim. Ze zijn nu opnieuw eerder dan AMD en een groot aantal gamers kopen nu Nvidia want of ze geloven niet(meer) in AMD of hebben simpelweg het geduld niet.

Daarnaast betreft de power draw; hoeveel mensen interesseert dat nu werkelijk? Ik gok dat de meesten welke een 3080 kunnen betalen die paar euro per maand extra ook wel kunnen bekostigen. En dat weet Nvidia ook wel. 9/10 van de gamers geeft om de prestaties, en die zijn er nu.

Komisch genoeg kan mijn Msi 1080 ti Lightning z 350 watt trekken op de Ln2 mode, dus dan ga ik er nog 30 watt op vooruit ook als ik over zou gaan op de 3080.
Ik vergeet absoluut niet dat ze de prijs gehalveerd hebben; een generatie nadat ze het verdubbeld hebben. Dus daar scoren ze absoluut geen punten voor. Vorige generatie kregen we een 35% betere 2080ti bovenop de 1080ti voor dubbel de kosten.

Of het slim was van Nvidia of noodzaak weten we nog niet.
Het uitstellen van de 3070... Ik weet niet of ze dit deden om directe vergelijkingen in AMD marketing tegen gaan of om de aandacht weer naar hunzelf te trekken. We zullen zien.

De 3080 piekt af en toe ook naar de 350w dus ik weet niet hoeveel je er effectief op vooruit gaat. :P
Ik meer ongerust over de effecten op de kaart en computer zelf dan waar mensen last van hebben.
Nvidia raad een 850w voeding aan. Dit is om de voeding onder 80% belasting te houden. Hoeveel mensen het toch met een goedkope 650w of 700w gaan proberen en dan over een jaar ineens problemen gaan tegenkomen.

Dit is ook een reden waarom ik wat huiverig ben over een gerucht omtrent de Zen 3 chips. Dat de 5800 een 150w chip zou zijn. Ik denk dat het een typo was van 105w. Maar als het waar is zal ik net zo kritisch zijn als hier.

-edit-

Ah -1 op mijn vorige post maar geen beoordeling op de rest van ons gesprek. Kennelijk een gevoelige snaar geraakt bij iemand.

[Reactie gewijzigd door EXos op 27 juli 2024 04:52]

Ja mee eens, ik hoop ook op concurrentie want Nvidia hoeft door hun dominante positie de prijs niet te drukken. Hopelijk komt AMD met iets moois en wordt PC gamen voor iedereen wat goedkoper.
100 Euro duurder? Er zijn nog steeds vier 3080 kaarten voor 720/730 euro te koop. Niet leverbaar, maar wel voor die prijs.

https://tweakers.net/vide...sS8xRsopWMrQwNDVTiq2trQUA

[Reactie gewijzigd door lordawesome op 27 juli 2024 04:52]

Ik zie het. Valt mij ook op dat ik keek naar de TUF OC eerder vandaag, en niet de gewone TUF(Wat heel apart is dat er 2 identieke kaarten worden verkocht, met een prijsverschil.)
Ik zie als laagste prijs 780?
Vreemd, hij zou op prijs geordend moeten zijn. En de 3080 chip natuurlijk.
Misschien omdat ik vanuit BE kijk? Zou wel raar zijn als tweakers de NL webshops niet meer toont.
Zo ziet het er hier uit: https://i.imgur.com/J29FwiA.jpg

Ik zie dat de Ventus sinds vanochtend in prijs is verhoogd.
Zo is het bij mij:
https://i.imgur.com/k8NPpMM.jpg
Toch iets raars aan de hand..
Alternate vraagt in België vrolijk 800 euro voor waar ze in Nederland 720 euro vragen!

NL: https://www.alternate.nl/html/product/1673137
BE: https://www.alternate.be/html/product/1673137

Lachen met Alternate...
Scalpernate. Blijkbaar leveren ze ook eerst kaarten aan mensen die de meerprijs betalen. Iemand op reddit had de kaart op 2 dagen.. (28ste ordered 30ste delivery)
oh fijn is dat...

Enig idee of Megekko dit ook doet?
Denk ik niet, met hun transparante wachtrij zouden de klanten het wel snel door hebben.
Veel geruchten die beweren dat RDNA2 de vloer gaat vegen met nVidia's kaarten, voor minder geld.
Dat heb ik vaker gehoord, echter viel zo'n bewering tot nu toe over het algemeen nogal tegen.
Dat minder geld niet, maar dat de vloer vegen zeker wel.
Eerst zien dus, van mij mag het zeker waar zijn, maar ik geloof dergelijke beweringen niet meer zomaar.
Als we kijken naar de geschiedenis van Radeon, hebben ze heel vaak een slappe hap verhaal zitten verkopen over hoe goed hun kaart niet was, om uiteindelijk een appelflap uit te brengen die te warm is of te flauw.

Met de 5700XT zijn ze eerlijk geweest: Dit is wat je krijgt, en dat kreeg je ook. Zo goed waren de kaarten niet maar ze waren op het mid segment een welkome aanvulling. Nu is het de vraag of ze dit ook kunnen doet met de 6xxx series: Eerlijke verwachtingen. Uiteindelijk goed voor ons allen.
"Als we kijken naar de geschiedenis van Radeon, hebben ze heel vaak een slappe hap verhaal zitten verkopen over hoe goed hun kaart niet was, om uiteindelijk een appelflap uit te brengen die te warm is of te flauw."

Ok hier moest ik wel flink om lachen, +1
Dat is inderdaad een stigma gebleven. Ze zijn er al langere tijd goed mee bezig, maar de slechte driver van een jaar terug is echt in het achterhoofd gebleven van mensen.
maar de slechte driver van een jaar terug is echt in het achterhoofd gebleven van mensen.
Dat is toch altijd het geval, een tijd geleden had Nvidia zelf drivers waarbij de videokaarten kapot gingen. Blijft altijd lang hangen.

Allebei de bedrijven hebben zowel goede als slechte tijden gehad met drivers én kaarten
Ach, dat blijft ook deels kwestie van persoonlijke ervaringen. Ik heb zelf juist slechtere ervaringen met drivers van Nvidia, met zelfs één laptopkaart die zich defect heeft oververhit omdat koeling te stil wilde blijven en je dat niet zelf kon aanpassen (constant 110+ graden in games) .

Staat ervaring met een AMD-kaart tegenover die prima begon en naar verloop van tijd alleen maar beter presteerde, juist door driver optimalisaties.

En ook dat zegt weer niks over kwaliteit van 30x0-serie en BigNavi, of over huidige drivers in de praktijk, natuurlijk. Ik snap best dat dat ook maar n=2-onderzoek is, maar toch onwaarschijnlijk dat ik nog iets van Nvidia koop. Mensen hebben nou eenmaal erg de neiging eerdere eigen ervaringen extreem zwaar mee te wegen in besluitvorming :+
Totaal niet verdacht dat dit 1 dag na Big Navi reveal/release van AMD is :+
Hoop echt dat AMD dit jaar spierballen laat zien en kan mee komen met de 3080. Is alleen maar winst voor ons als consument. Je ziet nu ook dat Intel aan de bak moet hopelijk geldt dat dadelijk ook voor NViDiA. Worden de producten alleen maar beter door.
Ik ben zelf niet echt in de markt voor een 3080. Speel nog altijd op een 1080p 144Hz scherm wat voor mij nog prima voldoet, echter trekt mijn RX580 niet alles >60fps (op medium). Had daarom al wel graag willen zien hoe 'goed' de 3070 nou echt gaat zijn gezien het hele 3080 verhaal. Maar was toch al van plan ook op Big Navi te wachten. Als AMD met een mooie kaart voor ~400$ wordt het afwegen hoe future proof ik wil zijn. Heb al wel een jaartje een 3700x CPU die nu nauwelijks boven 50% load komt 8)7
Of je het van plan was of niet: wachten tot BIG navi is iets waar de meerderheid toe gedwongen is. Ik denk dat dat voor de 3070 niet anders geweest zal zijn.
1 dag na? Big Navi release is toch op de 28e? :S
Leren lezen... en onthouden...

[Reactie gewijzigd door Tuumke op 27 juli 2024 04:52]

Nvidia stelt GeForce RTX 3070 uit tot 29 oktober

de 29e komt toch na de 28e? :9
Jaja, heb nu me eerste koffie van de dag :P

[Reactie gewijzigd door Tuumke op 27 juli 2024 04:52]

Vind ik juist niet.

Als je aandacht wil trekken, doe je het 1 dag ervoor. Intel melkt vaak een lullige non-update breed uit via de pers, de dag voordat AMD met iets nieuws komt.

Juist door te wachten tot de dag erna, zal de 3070 weinig aandacht krijgen; omdat iedereen het over Big Navi gaat hebben.

Het was alleen verdacht, als de prijs pas bekend gemaakt wordt de dag nadat AMD & partners prijzen bekend maken van Big Navi; maar vziw is de prijs van de 3070 al bekend, is het niet?
Het zal te zien zijn hoe beschikbaar de AMD kaarten zullen zijn.
Als ze 10fps minder snel zijn, maar wel makkelijker verkrijgbaar, dan denk ik dat AMD een goeie zaak kan maken. Maar ik vermoed dat ze met dezelfde leveringsproblemen te maken gaan hebben.

Spijtig dat het zo loopt, een goeie prijzen en snelheidsoorlog tussen AMD en Nvidia had voor ons consumers ideaal geweest :)
Dit helaas.

De laatste AMD die ik kocht was de quasi-legendarische 5870, dat was echt een beest van een kaart voor relatief weinig geld.

Besteld in september 2009 net na de aankondiging. Ik had hem in maart 2010.

En als de nieuwe reeks van AMD gebouwd is op een nieuw procedé, dan vrees ik het ergste.

Ik moet wel zeggen: die 5870 doet het na 10 jaar nog altijd :-)
Is gewoon 7nm hoor, met misschien wat verbeteringen. Yields zouden dus (zeer) goed moeten zijn.
Dus, Big navi op de 28e. Navi22 “coming soon” ? Hier kan AMD toch veel te makkelijk op in spelen?
Voor de leek. wat is het exacte model van nvidia 3080 naar AMD ? en ook voor de 3070 ?

Ik wacht nu op de 3070, maar doe alleen maar flight sim ermee, als AMD better is neem ik AMD.

newmamoman
Weten we nog niet :) Introductie moet nog komen.
Op zich een logische verklaring van Nvidia, maar ik denk dat de vraag alsnog het aanbod flink zal overstijgen en dat die 2 weken extra productie niet veel zal uitmaken voor het voorlopig niet verkrijgbaar zijn van allerlei modellen.. Maargoed, alle beetjes helpen, we gaan het wel zien..

Saillant detail is ook dat AMD een dag eerder z'n nieuwe Radeon videokaarten bekend maakt.. Maar zou mij verbazen als dat de hoofdreden zou zijn, want aan de specs en prijs van de 3070 verandert niks, al kan de prijs altijd nog aangepast worden op het laatste moment en nu dan zonder mensen die er al een gekocht hebben voor de schenen te schoppen..
Anoniem: 111246 2 oktober 2020 09:55
Ik zie liever een 3080 met meer memory uitkomen.
De 3090 is echt veel te duur om die te kopen voor 24GB memory. De 3080 lijkt me ideaal, maar FS2020 wil graag meer memory dan wat die momenteel heeft.
3070 is geen upgrade voor mij (nu een 2080).
FS2020 alloceerd meer geheugen, betekent niet dat dit niet nodig is.
Toch jammer dat dit soort berichten continue verspreid worden op tweakers. 10GB vram is ruim voldoende voor welke game dan ook op 4k. Zelfs 8 GB vram is voldoende voor FS2020 op 4k ultra settings. Dat kun je gewoon terug zien in elke review welke je online kunt vinden. Een 2080 super presteert relatief niet opeens een stuk minder dan een 2080ti of 3080. Dat zou wel het geval zijn als vram een bottleneck was.
“Toch jammer dat dit soort berichten continue verspreid worden op tweakers. 10GB vram is ruim voldoende voor welke game dan ook op 4k”

Behalve Doom Eternal op bepaalde setting die niet gebruikt mocht worden tijdens benchmarks, Ook Battlefield mocht met bepaalde grafische setting niet gebruikt worden bij de officiële benchmarks want dan bleek 10GB de bottleneck te zijn. Ook praten wij hier niet over de GTX 970 met de 3.5GB. Ook niet over de GTX 1060 met 3GB die nu waardeloos is door gebrek aan geheugen…..etc.).

“Zelfs 8 GB vram is voldoende voor FS2020 op 4k ultra settings. Dat kun je gewoon terug zien in elke review welke je online kunt vinden. Een 2080 super presteert relatief niet opeens een stuk minder dan een 2080ti of 3080. Dat zou wel het geval zijn als vram een bottleneck was”

Zie boven, Veel games hebben genoeg aan 8-10GB….voor nu. Maar geven mensen €700-900 uit voor alleen nu? En waarom kondigt NVIDIA nu al kaarten aan met meer geheugen terwijl de 10GB versies nog niet eens fatsoenlijk in de schappen liggen? Hebben we onze koppen allemaal in NVIDIA’s marketing achterwerk? 3 passen terug doen en dan nog eens alles overzichtelijk bekijken is geen slecht idee.
Heb je daar een bron voor ? Battlefield 5 draait gewoon op 4k ultra settings met RTX en verbruikt geen 8GB vram. En Doom Eternal ook niet. Beiden draaien prima op kaarten met maar 8Gb vram en doen relatief niks onder tov de 2080ti of 3080. Oftewel geen enkele vram bottleneck.

Wat in je in laatste alinea noemt dan trap je juist in het marketing trucje. 10GB is helemaal niet te weinig, alleen laat "men" je denken van wel. Met als gevolg dat mensen duurdere kaarten met meer geheugen gaan kopen. Want reken maar niet dat je de 20GB versie voor dezelfde prijs gaat aanschaffen.

Daarnaast vergeet je ook dat het geheugen op de 3080 een stuk sneller is dan wat er op eerdere GPU's zat.

De nieuwe consoles hebben niet voor niks maar 10GB vram. Wat ook nog eens 25% trager is dan wat er op de 3080 zit. 10GB vram is gewoon ruim en ruim voldoende voor welke game dan ook de komende jaren.
Zullen we hier over 3-4 jaar op terug komen?

Heel heel lang geleden werd er precies hetzelfde aangehaald omdat NVIDIA dat zei: dat GTX 1060 3GB (met toendertijd ook verbeterde geheugencompressie) meer dan genoeg was omdat blabla -nogmaals NVIDIA dat riep (eigenlijk te krenterig was) en RX 480/580 met 8GB marketing blabla was. Volgens de benches van nu ziet het niet heel fijn uit met GTX 1060 3GB puur door gebrek aan VRAM.

En laat mijn bek niet over de GTX 970's 3.5GB meer-dan-genoeg vallen. :+

Maar ik snap jwat je bedoelt. Er is altijd wel een punt dat genoeg VRAM ook daadwerkelijk genoeg is. Maar als je een kaart van €700 uitbesteedt wil ik ook voor minimaal 5 jaar vooruit. En ik denk dat over 3-4 jaar 10GB voor full 4K aan te krappe kant is voor de moderne games. Maar als je na elk 2 jaar van kaart verwisseld dan ja, who cares, game nu en zorgen zijn voor later.
Volgens de geruchten komt er na dat AMD zijn kaarten heeft aangekondigd een 3080 met 20 GB.
ben je daar zeker van? Allocation !=usage.

Als ik me niet vergis worden benchmarks van Flight simulator voornamelijk gelimiteerd door ruwe CPU power? want zelfs met de 3090 zijn de resultaten 'beperkt'

[Reactie gewijzigd door Alibambam op 27 juli 2024 04:52]

Anoniem: 111246 @Alibambam2 oktober 2020 12:27
Fs2020 staat 100% te stampen op mijn 2080gtx. De cpu wordt niet ten volste benut.

Op dit item kan niet meer gereageerd worden.