Nvidia stelt release Founders Edition van RTX 2080 Ti opnieuw met een week uit

Nvidia laat klanten die de GeForce RTX 2080 Ti hebben besteld, weten dat deze tussen 5 en 10 oktober wordt verzonden. Daarmee is opnieuw sprake van uitstel. Het bedrijf stelde eerder de leverdatum van 20 september uit tot 27 september.

Uit e-mails die kopers van de GeForce RTX 2080 Ti hebben gekregen en op Reddit hebben gepubliceerd, is op te maken dat het bedrijf in de VS een leverdatum van 5 oktober aanhoudt, terwijl in het Verenigd Koninkrijk de periode van 5 tot en met 9 oktober wordt genoemd. Ook in Duitsland hanteert Nvidia de periode van 5 tot en met 9 oktober voor de verzending van de kaart, blijkt uit een e-mail die door Computerbase is gepubliceerd. In Australië noemt het bedrijf 10 oktober als leverdatum.

Daarmee lijkt het erop dat Nvidia het idee van een vaste leverdatum wereldwijd heeft losgelaten. In een update op zijn forum verwijst Nvidia klanten dan ook naar de e-mails die verstuurd zijn. Niet duidelijk is wat de reden van het uitstel is. Aanvankelijk zou de kaart op 20 september uitkomen, maar half september maakte de fabrikant bekend dat dit een week later zou worden.

RTX 2080 en 2080 Ti

Door Olaf van Miltenburg

Nieuwscoördinator

26-09-2018 • 13:30

110

Reacties (110)

110
107
55
6
0
23
Wijzig sortering
Mijn vermoeden is dat ze oorspronkelijk Turing op 7nm hadden willen produceren, maar de yields niet op tijd hoog genoeg waren. Daarom zitten we nu met van de gigantische plakken silicium van 445, 545 en 754 mm2 (afbeelding). Op 7nm waren die zeker 2,5 maal zo klein geweest, dus 178mm2 voor RTX 2070, 218 mm2 voor RTX 2080 en 302mm2 voor RTX 2080 Ti (nu zo'n 25 miljoen transistoren per mm2, op 7nm is dat meer dan 60 miljoen, bron).

Turing is de grootste verandering sinds CUDA en de Tesla-architectuur in 2007. En dat is goed, dat betekend dat we een nieuw tijdperk ingaan qua graphics. Ik geloof echt dat Ray Tracing en neurale netwerken wat toe kunnen voegen aan graphics. Maar dat betekend ook dat Turing eigenlijk gewoon een eerste generatie product is, en meestal zijn dat niet de producten die je wilt hebben.

Daarom sla ik deze generatie zelf over en wacht nog een jaartje. Volgend jaar:
  • Worden GPU's op 7nm gebakken, met 2,5x zoveel transistoren per mm2 en flinke stroombesparingen
  • Heeft Nvidia zijn Ray Tracing-hardware geoptimaliseerd en verbeterd, zijn de API's, game-engines en eerste games erop aangepast en is het ecosysteem een stuk volwassener
  • Biedt AMD hopelijk weer wat concurrentie met nieuwe chips
  • Zijn de geheugenprijzen hopelijk naar een acceptabel niveau gedaald
  • Wordt HDMI 2.1 met 42,66 Gb/s aan effectieve bandbreedte een veel nieuwe features ondersteund
  • Is er als het goed is een nieuwe DisplayPort-standaard
  • Kunnen we AV1-video's (gedeeltelijk) hardwarematig decoderen
Ondertussen denk ik dat de engineers van Nvidia enorm trots mogen zijn op wat ze met Turing neer hebben gezet. Alleen het is duidelijk een eerste generatie product wat nog moet uitkristalliseren, samen met pech vanwege geheugenprijzen en 7nm.

[Reactie gewijzigd door Balance op 27 juli 2024 09:22]

Mijn vermoeden is dat ze oorspronkelijk Turing op 7nm hadden willen produceren, maar de yields niet op tijd hoog genoeg waren.
Volgens een Asus medewerker had Turing op het 10nm procedé van Samsung moeten verschijnen, maar liepen ze tegen vertragingen aan. Vandaar dat ze noodgedwongen voor 12nm FFN gekozen hebben.

TSMC 7nm lijkt mij nog niet rendabel voor high-end consumenten GPU's. Eerst zullen low-volume. high-margin chips zoals AMD's Instinct en Nvidia's Tesla verschijnen, en ergens in 2019 pas de Geforce en Radeon kaarten.

[Reactie gewijzigd door ColinZ op 27 juli 2024 09:22]

Mijn vermoeden is dat ze oorspronkelijk Turing op 7nm hadden willen produceren, maar de yields niet op tijd hoog genoeg waren. Daarom zitten we nu met van de gigantische plakken silicium van 445, 545 en 754 mm2 (afbeelding). Op 7nm waren die zeker 2,5 maal zo klein geweest, dus 178mm2 voor RTX 2070, 218 mm2 voor RTX 2080 en 302mm2 voor RTX 2080 Ti (nu zo'n 25 miljoen transistoren per mm2, op 7nm is dat meer dan 60 miljoen, bron).
Nu ben je alleen wel zaken aan het vergelijken die niet te vergelijken zijn. Een enkele FinFET transistor zoals TSMC deze definieert, kan niet genoeg vermogen leveren om een effectieve 1/0 operatie te doen. TSMC gebruikt daarom groepen van FinFets welke in de bovenliggende architectuur gezien worden als één 'transistor'. Nu heb ik de exacte aantallen zo niet in mijn hoofd, maar 2,5 keer zo veel FinFETs, betekent niet 2,5 keer zo veel effectieve cellen. Het oppervlakte van de chip kan dus absoluut niet met een factor 2,5 verlaagd worden zodra Nvidia overstapt op 7nm.

Daar komt nog eens bij dat Nvidia mogelijk gelimiteerd wordt door het aantal interconnects die ze kunnen plaatsen, maar dat is weer een apart verhaal.

Edit: getallen opgezocht van Global Foundries. De cell-height van GF gaat van ~360nm (10nm FinFET) naar ~270nm (7nm FinFET), dus een reductie van ~25%. De cell-width verandert bijna niet. In het geval van perfecte schaling en zonder enige interconnect limitaties, betekent dat dus een oppervlakte vermindering van maximaal 25%.
Bron:
https://www.semiwiki.com/...7nm-what-we-know-now.html

[Reactie gewijzigd door roelst1 op 27 juli 2024 09:22]

En niet geheel onbelangrijk, AMD zal in 2019 ook zijn 7nm Navi gaming videokaarten (Eind 2018 komen de kaarten voor professionele doeleinden) uitbrengen waardoor er ook concurrentie zal zijn. Nvidia zal dan niet meer doodleuk moordprijzen voor hun kaarten kunnen vragen want dan gaat de consument kaarten van team Red kopen. Nu vragen ze namelijk echt knotsgekke prijzen voor hun Turing kaarten.

[Reactie gewijzigd door Tim2010 op 27 juli 2024 09:22]

Aangenomen dat Navi uberhaupt gaat concurreren. Vega kon het gevecht met de jaar-oude 10xx generatie van Nvidia amper aan, en Navi zal nog steeds op GCN zijn.
Ikzelf zit ook te wachten op concurrentie. Ben al jaren trouwen gebruiker van NVIDIA, nadat AMD mij erg teleurstelde, maar dat was 10 jaar geleden ongeveer.

IK ga er vanuit dat AMD ondertussen beter is, vooral kwa drivers. Ben benieuwd en hoop dat AMD kan matchen met NVIDIA in performance of nog sneller zal zijn.
Nou, eerst maar eens afwachten wat de perfomance van die Navi kaarten gaat zijn..
Die knotsgekke prijzen is echt iets voor de gamers onder ons, het maakt niet uit wat een leverancier verkoopt als het pas nieuw is en iedereen wilt het graag hebben dan zul je ervoor moeten betalen.
Enne dat ze alles uitstellen is een leuke marketing truc van Nvidia.
De r&d kosten moeten er ook nog uit, en op die manier om alles peperduur te maken lossen ze ook dat r&d probleem op, de consument betaald alles.
Mijn vermoeden is dat ze oorspronkelijk Turing op 7nm hadden willen produceren, maar de yields niet op tijd hoog genoeg waren
Dat zou zomaar kunnen, maar wat heeft dat te maken met de release die iedere keer weer een beetje uitgesteld wordt? Daarachter zou ik bijvoorbeeld eerder firmware/driver problemen dan productieproblemen zoeken.
Anoniem: 1071831 26 september 2018 13:38
Dat mensen überhaupt gaan preorderen. 8)7

Een **80 TI versie hoort rond de €500/550 te zitten en geen €1200+.
Wat volgens mij veel mensen vergeten is dat de opbrengst per wafer momenteel een stuk lager is wegens de complexiteit van de RTX serie. Ik heb her en der gelezen dat de 1000 gemidddeld 120 stuks per wafer haalde en de nieuwe RTX zit ongeveer op de 70. En dat is als er nog geen defects tussen zitten en dat is dus ook nog aannemelijk. Het is niet dat de RTX serie een rebrand is van de vorige modellen.
Wat volgens mij veel mensen vergeten is dat de opbrengst per wafer momenteel een stuk lager is wegens de complexiteit van de RTX serie. Ik heb her en der gelezen dat de 1000 gemidddeld 120 stuks per wafer haalde en de nieuwe RTX zit ongeveer op de 70. En dat is als er nog geen defects tussen zitten en dat is dus ook nog aannemelijk. Het is niet dat de RTX serie een rebrand is van de vorige modellen.
Het gaat er niet om wat het product kost maar om wat je kunt vragen. Rond 2005 zat Nvidia op een gross margin van 40%, in 2010 werd dat 45%, in 2012 werd dat 50%, in 2013 werd dat 55%, in 2016 werd dat 59% en afgelopen april is het record van 64% behaald. Natuurlijk wil nvidia die hoge marge graag behouden, maar voor de winstgevendheid van het bedrijf is dat niet nodig.

Met de GTX 970 is Nvidia er in geslaagd de mainstream massaal $329 te laten uitgeven. Bij Pascal is dit geconsolideerd door de GTX 1060 ineens op $249-$299 (daar waar de 960 nog op $199 zat). Vervolgens kwamen de tekorten en bleek de consument nog wel wat meer te willen betalen. Resultaat zijn de nieuwe prijzen.

Al zou Nvidia morgen ineens 500% meer chips uit een wafer kunnen halen, de prijzen zullen niet veranderen. Hoeveel chips Nvidia uit een wafer kan halen is al tijden niet meer relevant. Het gaat om wat de markt wil betalen.

[Reactie gewijzigd door sdk1985 op 27 juli 2024 09:22]

Ik denk dat je daar ook het juiste punt te pakken hebt. Winst marge is natuurlijk torenhoog, maar als de markt dat wilt betalen waarom niet (vanuit bedrijf gezien). Volgens mij doet Apple het niet heel anders en het heeft ze geen wind eieren gelegd.
De cryptoboom van vorig jaar heeft dit nog een flinke stap erger gemaakt. Toen zijn de prijzen door inderdaad tekorten omhoog gegaan en echt omlaag zijn ze niet meer gegaan.
Wie zegt dat de markt dit wil betalen? Wij willen dit namelijk niet betalen maar als je een high-end gpu wilt kan je nu eenmaal alleen maar bij Nvidia terecht omdat AMD geen concurrentie meer is. Je kan dus niet anders dan Nvidia kopen en Nvidia weet dat waardoor ze hun prijs zo hoog kunnen stellen. Monopolie noemen ze dat.
Wat volgens mij veel mensen vergeten is dat de prijs niet het probleem van de consument is, maar de producent. Als Nivida geen goedkope chip kan bakken omdat ze geen betere performance uit een kleinere die size kunnen halen, is dat niet de kopers hun probleem. Als jouw favoriete automerk ineens 50% meer vraagt dan 5 jaren geleden voor dezelfde klasse wagen onder het motto "maar het kost ons ook veel geld hoor, aluminium is duur !" dan kijk je ook elders. Maar dat gebeurt niet in die sector, want er is concurrentie en dan wordt er moeite gedaan om de klanten niet weg te jagen.

De enige reden waarom Nvidia dit doet is omdat er geen concurrentie is. Bij Intel zag je de cores ook uit de hoed getoverd worden toen AMD met 6 en 8 core processors kwam voor de prijs van Intels 4 core processors.

[Reactie gewijzigd door marcop82 op 27 juli 2024 09:22]

Je hebt zeker een punt, maaaaarr, wij hoeven die chips niet te kopen..
Waarom gaat Nvidia er gemakshalve vanuit dat wij als consument die high end 20 serie kaarten "willen" hebben??
Heeft Nvidia een glazen bol waaruit ze kunnen concluderen dat wij massaal met gierende banden naar de hardware store racen om zo'n ding te bemachtigen? Ik niet iig met deze prijzen.. Of leeft nvidia alleen van de niet nadenkende mens??

Als je nu een high end kaart hebt rond de GTX 980(Ti) of de 1060-1070(Ti)-1080(Ti) is er niet echt nood aan de man om massaal voor een high end 20 serie te gaan.. Die dingen zijn nog rap zat.. Ik hoef niet persee 100+fps te halen op high/ultra settings@3440x1440 als het met 50fps ook prima te spelen is. Of is de vraag naar hoge fps op 4K met alle eye candy open echt mainstream?

Ik ben van mening dat we Nvidia moeten laten voelen dat we er niet mee eens zijn...
Ik ben van mening dat we Nvidia moeten laten voelen dat we er niet mee eens zijn...

Ik ook, maar blijkbaar zijn er genoeg idioten die de nieuwe kaarten aan deze belacheljik hoge prijzen graag kopen. Is het echt zo moeilijk om een maandje te wachten totdat de prijzen wat gedaald zijn?
Volgens mij onderschat je zwaar hoeveel mensen er zijn die zonder enige moeite €1300 voor een GPU willen betalen. Natuurlijk sluit Nvidea een heel deel uit met deze prijs (ook ik ben genezen terwijl ik voor de snelste wilde gaan deze gen), maar als het echt een probleem wordt dan verlagen ze simpelweg de prijzen tot het weer gaat lopen en je de volgende groep te pakken hebt.

Dat kan je nu eenmaal maken zonder echte concurrentie. Als ze nu een gouden editie uitbrengen van €50000 dan verkopen ze die ook. Er is altijd iemand gek genoeg.

[Reactie gewijzigd door Beakzz op 27 juli 2024 09:22]

Zo, Nvidea, doen we dat nog steeds? Het is geen Nivea, maar Nvidia.
+ er kwamen directe pricedrops van I5 en I7's vlak voor de release van Ryzen 1st gen.
En die pricedrops waren niet mild respectievelijk rond de €$150
https://hothardware.com/n...cutting-prices-on-core-i7
https://www.digitaltrends...prices-drop-ryzen-launch/

En niet veel later de aankondiging van Core I9's als nieuwe enthusiast line (die waarschijnlijk onbedoeld en nooit gepland waren als AMD hun Ryzens niet zo competetief waren).

Waar concurrentie al niet goed voor kan zijn....

[Reactie gewijzigd door Turismo op 27 juli 2024 09:22]

Het is juist niet het probleem van de producent, maar van de consument. Nvidia weet wat ze kunnen vragen aangezien ze een enorme lijst van pre-orders al hebben. Zoals ik eerder heb aangegeven in een andere reactie, Apple doet het zelfde en maakt er mooie winsten mee.

Ik ben het verder wel met je eens dat de voornaamste reden voor de torenhoge prijzen afwezigheid van concurrentie is.
Wat volgens mij veel mensen vergeten is dat de prijs niet het probleem van de consument is, maar de producent. Als Nivida geen goedkope chip kan bakken omdat ze geen betere performance uit een kleinere die size kunnen halen, is dat niet de kopers hun probleem. Als jouw favoriete automerk ineens 50% meer vraagt dan 5 jaren geleden voor dezelfde klasse wagen onder het motto "maar het kost ons ook veel geld hoor, aluminium is duur !" dan kijk je ook elders. Maar dat gebeurt niet in die sector, want er is concurrentie en dan wordt er moeite gedaan om de klanten niet weg te jagen.
Deze vergelijking voegt weinig toe. Los van het probleem dat een gezinsauto de laatste jaren van +- 20K naar 26K is gestegen (+25%) praten we nu over 'exclusieve' founders edition kaarten waarvan we weten dat het alleen bedoelt is voor de enthousiasteling. De 2xx serie zal ongetwijfeld een volledige lineup krijgen met kaarten tussen de $100 en $1000 dollar. Wil je vergelijken met auto's dan kun je beter een topmodel in beperkte oplage aanhalen.
De enige reden waarom Nvidia dit doet is omdat er geen concurrentie is. Bij Intel zag je de cores ook uit de hoed getoverd worden toen AMD met 6 en 8 core processors kwam voor de prijs van Intels 4 core processors.
Hoe meer cores des te duurder het wordt, zeker voor het monolitisch ontwerp van Intel (1 chip, grotere kans op defecten, minder per wafer). Intel heeft het in 2010 geprobeerd met een 6 core cpu voor een euro of duizend (pricewatch: Intel Core i7 980X Boxed ) maar toen was de markt niet bereid dat ervoor te betalen. Terecht overigens. Vandaag de dag zijn er nog steeds akelig veel toepassing waarbij ik 2 cores kan uitschakelen en dezelfde prestaties rapporteer. Maar dat AMD reus Intel heeft doen bewegen is zeker waar.

[Reactie gewijzigd door sdk1985 op 27 juli 2024 09:22]

Ik vind de prijzen inderdaad echt absurd worden. Waar je vroeger met een nieuwe generatie een 2x zo snelle chip kreeg voor dezelfde prijs, verdubbelen ze nu de prestaties en de prijs.
Correctie, 30% performance verhoging voor 70% prijs verhoging

100% sneller voor 100% duurder was nog enigszins interessant geweest, nvidia trekt prijs/performance compleet omlaag, waar dit traditioneel omhoog gaat elke generatie
30% performance verhoging als 75% van de nieuwe transistors niet gebruikt wordt.

De chip van de 2080TI is bijna drie keer zo groot als die van de 1080TI, hiervan is een klein deel gestoken in extra shader units, wat de 30% performance verklaart. De rest wordt opgenomen door RTX en CUDA units. Deze worden nog niet gebruikt in games (met nadruk op nog).

Natuurlijk betekend nog niet, ook nu niet. Maar de tijd zal het leren. Men kan natuurlijk ook een paar maanden afwachten en dan bepalen of de prijs het waard is.

Ter info: zie het transistor count tabelletje van de nieuwe chips t.o.v. de oude hier: https://www.anandtech.com...0-founders-edition-review
Het is verre van x3, de 1080ti heeft 12 miljard transistoren en de 2080ti heeft er 18 miljard. 33% meer dus, niet 200%. En heeft 21% meer cudacores.

https://www.anandtech.com...eforce-gtx-1080-ti-review

De 1080 heeft er bijna 9 miljard en de 2080 net iets meer dan 10 miljard, ongeveer 15% meer transitoren en toevallig ook 15% meer cudacores...

De 1080 heeft er 7.2 miljard en de 2080 heeft er 13.6 miljard, ongeveer 88% meer transitoren met 15% meer cudacores...

edit aan de hand van @roy-t zijn opmerking, samen komen we er wel uit :Y) De 2080 heeft er volgens Anandtech nu 13.6 miljard, dus denk dat dat in de tussentijd is aangepast, de 2070 heeft er 10.8 miljard

[Reactie gewijzigd door watercoolertje op 27 juli 2024 09:22]

Ah wat stom, in die tabel staat alleen de niet TI versie! Dan klopt mijn verhaal niet. Overigens heeft volgens die tabel de 1080 er 7.2 miljard en de 2080 er 10.8 miljard, dat maakt het verschil wat groter dan in jouw verhaal, maar is inderdaad bij lange na niet bijna 3x.
Het is zelfs minder als 30%, het is 28% dus het is nog slechter wat ze doen..
prestaties zijn verre weg van verdubbeling.. was het maar zo, dan was er misschien nog een reden voor de hogere prijzen.
Ik zie de RTX technologie zoals ik ook de eerste 3dfx VooDoo kaarten zag. Hebben enorm veel potentie, maar het duurt even voordat games dat ook gaan benutten. In oktober komt Microsoft met de DXR update zodat games via DirectX raytracing kunnen gaan gebruiken. Ook zal er dan via de geforce drivers meer DLSS profielen meekomen en vooral DLSS kan de performance flink omhoog krijgen, terwijl het beeld ook nog scherper wordt. DLSS is verzonnen om de vertraging van raytracing deels op te vangen.

Ik zou begin december nog eens naar de specs kijken. Dan zullen er echt wel goede benchmarks van onder andere BattleField 5 te vinden zijn voor de RTX kaarten waarbij verschillende onderdelen aan en uitgezet worden en een vergelijking met de GTX1080ti.
die 3dfx vergelijking zou werken als RTX nu de eerste 3d technologie was (dat was 3dfx toen het uitkwam). Wat ik tot nu toe gezien hebt is dat graphics er ietsje mooier eruit zien. Bij 3dfx was het dag/nacht verschil, dat gaat bij RTX niet gebeuren.
DLSS verlaagt de beeldkwaliteit. Games krijgen een waterverf effect met bijbehorende blurry textures. Niet echt iets waar je bij een dure kaart op zit te wachten.

Raytracing lijkt tot nu toe te langzaam voor 1440p en 4k.
Dat je mensen hebt dat volop premium willen betalen voor de snelste van de snelste kan me eigenlijk niet schelen. Zie de mensen dat iPhones kopen wanneer je voor de helft een even goede Android phone kan hebben.

Maar het feit dat Nvidia de prijs van de 2070 / 2080 ook zo omhoog blijft smijten, dat stoort me enorm.

2080: 849 euro (FE)
2070: 639 euro (FE

640 Euro voor wat eigenlijk een verdoken 1070TI is met sneller geheugen??? Jongens toch ..

Vroeger had je rond de 350 euro een 970. Dat ging omhoog naar 450 euro voor de 1070, en nu zitten we introductie prijs aan 640 voor de 2070. Totaal ZOT! En de performance sprong van een 970 naar 1070 was veel groter, dan 1070 naar 2070.

En ergste van al is, dat je zotten hebt dat kaarten kopen aan die prijzen. Met als gevolg dat Nvidia enkel maar gesterkt word dat de markt die prijzen aanvaard en dat dit de nieuwe standaard word.

Eigenlijk het gevolg dat Nvidia te weinig concurrentie heeft. AMD hun architectuur loopt te vaak achter en moet te vaak brute force/hoge stroom/hoger geluid gaan voor hun top modellen en hun prijzen zijn vaak niet zo veel verschillende op de hogere class met Nvidia.

We hebben nu al lang met die verduivelde mining toestanden moeten toezien hoe de prijzen zot geworden zijn, gans het DDR geheugen waar de prijzen gewoon zot zijn en harddisk prijzen dat jaren vastgezeten hebben. En als het niet voor AMD was, zaten we nu nog altijd met 4 Core Intel CPUs.

Denk echt dat men de PC markt met opzet wilt kapot krijgen. Want zo een prijzen en beperkte prestatie winsten maakt het dat veel mensen gewoon niet upgraden. 😒
De AIB's zouden €100 onder de FE moeten zitten maar die zitten(buiten Inno3D) aan dezelfde prijs of er boven. Dat klopt er niet aan. En idd de idioten die deze kaarten kopen houden de prijs hoog.
Ik volg je helemaal. Vind echter de Android Apple vergelijking fruit gerelateerd.
Maar nVidia vind dat het afgelopen generatie 800 was en deze generatie dus 1250 :)
En zolang veel mensen het er voor neer tellen kunnen we de volgende generatie rustig 1400 euro neer gaan tellen.
Idd complete idioten die die kaarten kopen. Veel en veel te duur. |:(
Ik vind LTT hier straight on point met zijn vid: https://www.youtube.com/watch?v=o1DoG6uTYBg

Why the rush? Ze staan al bovenaan met hun top range GPU's... waarom proberen ze dan nu zo te rushen met de nieuwste serie, terwijl alles er overduidelijk nog niet klaar voor is... De features kunnen niet getest worden, want geen enkele game ondersteund het nog... de drivers lijken nog niet goed te zijn en ga zo maar door... En dan nu ook nog de shipment date verplaatsen... De hele launch van deze reeks kaarten is een lachertje
En toch zal het als warme broodjes over de toonbank gaan. De vraag is eerder waarom niet?
Omdat ze Pascal nog best een paar maandjes langer zouden kunnen uitmelken terwijl ze de puntjes op de i zetten bij Turing?

Ik kan zo twee redenen bedenken:
- vanwege de samenwerking met EA voor BFV MOET Turing hardware beschikbaar zijn bij launch van het spel
- Ze zijn bang voor een move van AMD (die wij met zn allen nu niet zien aankomen), en proberen dat zo ver mogelijk voor te zijn, en zoveel mogelijk marktaandeel te pakken nu het nog kan.
Maar ze kunnen toch veel meer vragen voor de nieuwe generatie kaarten?
Klopt, maar die demand zou er over twee maanden ook nog wel zijn.
Hahaha, move van AMD gaat niet gebeuren, ze lopen mijlenver achter met hun high-end gpu's. AMD komt ten vroegste begin 2019 met iets nieuws.
De features kunnen niet getest worden, want geen enkele game ondersteund het
En er kunnen geen games uitgebracht worden die het wel ondersteunen want er is geen hardware...

Dit is natuurlijk altijd zo met een nieuwe techniek. Maar nVidia gooit dit niet zomaar over de balk om dan te kijken wat gamedevelopers er van vinden. nVidia is waarschijnlijk al twee jaar bezig met een selecte groep developers om te kijken hoe deze technieken het beste geïmplementeerd kunnen worden. En ook intern zijn er een hoop mensen bezig geweest om demo's te maken en de software APIs te verfijnen. Dit soort producten ontstaat niet in een maand of twee. :).

Ondertussen is de ontvangst van deze kaarten bij gamers lauw (omdat er nu nog niet veel winst te halen is). Maar onder de developers die ik volg is er veel enthusiasm. Zo laat een developer van een populaire text/glyph rendering library weten dat met wat tweaks zijn code 80% sneller draait op een RTX 2080 dan op een GTX 1080.

Ook de nieuwe AA techniek is super interessant, en hybrid ray tracing maakt sommige effecten zoveel makkelijker (en mooier) om te maken. Ook is het zo dat de RT cores gebruikt kunnen worden in parallel met de gewone shader cores. Dus als we reflecties op de RT cores uitrekenen is er op de shader cores ineens plek om een hogere FPS te halen, of iets anders beter uit te rekenen.

Spannende tijden!
Dat is zeker gaaf. Ik wil hiermee ook niet nieuwe technologie de kop in drukken, maar de timing van alles is gewoon wat vreemd. Waarom launch je de kaart al, terwijl het publiek er nog niet volledig gebruik van kan maken. Ze konden toch ook dit schatje achter de hand houden tot dat er een launch van een game aan zit te komen die hier maximaal gebruik van maakt en je vervolgens met harde cijfers kunt laten zien wat dit schatje kan. Ze hadden op die manier nog lekker even door kunnen cashen op de 10xx serie en met de 20xx echt iets vernieuwends kunnen laten zien.
Men spuugt nu een beetje op de 20xx terwijl het misschien wel een pracht van een kaart is.

[Reactie gewijzigd door hoi3344 op 27 juli 2024 09:22]

Waarom launch je een game al, terwijl het publiek er nog niet volledig gebruik van kan maken?
De volgende games zijn uit of komen binnen kort uit (zover ik weet) met RTX support. Ik snap dat men graag meteen de nieuwe techniek wil zien als je zo'n dure kaart koopt. Maar ook de game ontwikkelaars hebben tijd nodig. (En hardware die heel erg lijkt op het eind product om op te kunnen ontwikkelen).

Onder andere Shadow of the Tomb Raider is al uit en bevat RTX support :).

Ik denk dat nVidia echt iets vernieuwends heeft gemaakt met de RTX kaarten en ik vind het jammer dat een kaart met 18.6B transistors op dit moment alleen afgerekend wordt op de +- 10B transistors die het zelfde kunnen als die ook op de vorige kaarten zaten. Maar We zullen zien of nVidia zich kan bewijzen :).
Assetto Corsa Competizione
Atomic Heart
Battlefield V
Control
Enlisted
Justice
JX3
MechWarrior 5: Mercenaries
Metro Exodus
ProjectDH
Shadow of the Tomb Raider
Ze konden toch ook dit schatje achter de hand houden tot
Dan krijg je mensen die jammeren dat ze (nV) wel snellere chips hebben maar ze niet releasen om de huidige generatie uit te melken..
Ik vind LTT hier straight on point met zijn vid: https://www.youtube.com/watch?v=o1DoG6uTYBg

Why the rush? Ze staan al bovenaan met hun top range GPU's... waarom proberen ze dan nu zo te rushen met de nieuwste serie, terwijl alles er overduidelijk nog niet klaar voor is... De features kunnen niet getest worden, want geen enkele game ondersteund het nog... de drivers lijken nog niet goed te zijn en ga zo maar door... En dan nu ook nog de shipment date verplaatsen... De hele launch van deze reeks kaarten is een lachertje
Stel jij bent een distributeur en jij hebt al 100.000 van die dingen liggen, wat denk je dat dit kost? We praten dan over minstens 50 miljoen aan inventory. Nvidia levert miljoenen gpu's per kwartaal (Immers 3 miljard delen door 500 dollar per gpu is al 6 miljoen kaarten. dat is nog een voorzichtige schatting want de gemiddelde prijs zal flink lager liggen). Verder lijkt het er sterk op dat deze launch al een paar maanden is uitgesteld. Daarover zijn vanuit de AIBs wat dingen gelekt, waaronder dat ze de productie lijnen terug moesten schakelen naar Pascal. Op een gegeven moment staat ook Nvidia onder druk om te leveren.

[Reactie gewijzigd door sdk1985 op 27 juli 2024 09:22]

.oisyn Moderator Devschuur® @hoi334426 september 2018 14:06
want geen enkele game ondersteund het nog
Er zijn wel enkele games die het ondersteunen en die allang uit zijn. Shadow of the Tomb Raider bijvoorbeeld.
Ray tracing wordt later middels een patch toegevoegd aan SotTR. Ondersteuning zit er dus nog niet in.
NVidia is een beursgenoteerd bedrijf. Daar zal het wel mee te maken hebben. En de launch is bagger, omdat ze geen goede concurrentie meer hebben. Anders was daar wel wat meer aandacht aan besteed.
Anoniem: 1071831 @Comp_Lex26 september 2018 13:48
Dat is niet te zeggen, alleen Nvidia heeft nu nieuwe kaarten uit gebracht dus kan je niet spreken van het niet hebben van concurrentie.

Deze nieuwe kaarten van Nvidia moet je niet vergelijken met de huldige kaarten van de concurent maar met de nieuwe kaarten die straks komen. Het is al jaren en jaren zo dat Nvidia en AMD niet gelijktijdig hun kaarten lanceren.
Hoezo is dat niet te zeggen? De vorige reeks had ook geen concurrentie. AMD kon niet op tegen 1080/1080Ti.
De Vega 64 custom kaarten zitten toch in veel situaties op GTX1080 niveau of erboven, maar ja, dat is mosterd na de maaltijd. Die launch was zo mogelijk nog slechter. Die reference kaarten waren R9 290X all over again.
Ik weet niet precies wat je met custom bedoelt, maar de 1080 heeft natuurlijk ook "OC" versies e.d. van Asus/MSI. Beide referentiekaarten naast elkaar gezet wint de 1080 op performance, dus het zal daarna liggen aan de aftermarket. De Vega64 consumeert meer power dan zelfs een 1080Ti, en is ook warmer, wat met een mini-ITX setup best wat kan uitmaken. Dus een slimme koper zou wat mij betreft voor een 1080 kiezen. Daar heb je natuurlijk ook de voordelen van Nvidia Gameworks.

En als je naar de cijfers 1080 vs Vega64 kijkt... ze waren niet echt degelijke concurrentie.

[Reactie gewijzigd door Verwijderd op 27 juli 2024 09:22]

Ik weet niet precies wat je met custom bedoelt
Non-reference
Qua prestaties misschien, qua stroomverbruik allerminst.
Alleen de GTX 1080TI had geen concurrentie maar dat is een niche markt, het geld zit in de mid-rang (sup) high-end.
Deze nieuwe kaarten van Nvidia moet je niet vergelijken met de huldige kaarten van de concurent maar met de nieuwe kaarten die straks komen.
En als de nieuwe AMD kaarten komen moet je die vergelijken met de dan aankomende nvidia kaarten?

Je vergelijkt wat er nu op de markt is.
Anoniem: 1071831 @Zer026 september 2018 14:02
Dat heb je als twee bedrijven niet gelijktijdig hun producten uitbrengen, dan zit er een gat tussen.
Waarom zou ik iets dat nu verkrijgbaar is niet kunnen vergelijken met iets anders dat nu verkrijgbaar is? :?
Je eerste zin begrijp ik niet. Ik zeg trouwens niet dat ze helemaal geen concurrentie hebben, maar dat het (in ieder geval voor nu) niet goed is. AMD heeft bijvoorbeeld niet iets wat tegen deze kaarten op kan boksen. In het geval van de 1080 TI had AMD dat sowieso al niet echt. Als je wilt dat nVidia het goed doet, dan is dat wel nodig.
Okay, je zou er maar op zitten te wachten.
Waarom word deze uitgesteld? om alles in 1x te leveren of is de productie snelheid nog niet hoog genoeg?
Problemen met productie of word er meer getest?

Vraag me altijd af waarom ze eerst dachten dat ze de deadline van nu 1 week geleden wel konden halen en nu niet meer.
Ik gok op software matige problemen met games. Misschien de developers een weekje extra tijd geven om raytracing goed te implementeren.
terwijl de 2080 al wel te koop is? Het gaat hier puur om de Ti, ik gok eerder op abominabel slechte yields op de full die
Wordt de 2080 al geleverd ja? Gaat hard zo.
Was een beetje bluf van mijn kant (had t niet gecheckt), maar een simpele pricewatch check leert mij dat je bijvoorbeeld voor een luttele €929 de pricewatch: Gigabyte GeForce RTX 2080 Gaming OC morgen op je deurmat kan laten ploffen
Dergelijke problemen kunnen het op deze korte termijn niet meer zijn... dit zijn logistieke of software problemen. Als ze nu nog niet voldoende yields hebben om te produceren dan werkt het wel een stukje langer uitgesteld.
Maar waarom is de 2080 dan wel te koop?

Enige verschil tussen die twee kaarten is dat de ene een volledige Turing die nodig heeft, de ander niet...
Tja, wie zal het zeggen... maar er kan toch wel met enige zekerheid worden gezegd dat als het echt productieproblemen zouden zijn dat ze het niet op een dergelijke korte termijn kunnen oplossen. Logistieke problemen of software/driver problemen zijn dan een meer logische verklaring. Logistiek kan heel breed zijn overigens... van niet genoeg verpakking beschikbaar tot een simpel stekkertje oid wat nog in de doos moet en grote problemen als niet genoeg capaciteit bij vervoerders etc.
Ik beweer ook niet dat de yields onacceptabel slecht zijn, maar bijvoorbeeld zodanig twijfelachtig dat ze een paar weken extra nodig hebben om genoeg full-dies te hebben om aan de vraag te kunnen voldoen.
Je had het over 'abominabel slechte yields' ;) In een dergelijk geval zouden ze zeer wss de beschikbare kaarten wel al uitleveren... er is nu iets waardoor ze helemaal niet uitleveren.
Ik verwacht dat Nvidia dit doet om de zaken op logistiek niveau wat beter op orde te krijgen. Als er nu nog geproduceerd en getest moet worden zullen de wachttijden wel langer dan een week worden uitgesteld :)
Er zijn problemen met de drivers waarschijnlijk, en mss werkt raytracing überhaupt nog niet (zijn immers geen games).
Ze willen voorkomen dat er een paar gigantische bugs inzitten die het publiek te zien krijgt en dus vertragen ze het maar.
Er zijn problemen met de drivers waarschijnlijk,
Onzin, als dat het geval zou zijn hadden we dat al gehoord, de 2080 Ti FE is immers al in handen van diverse reviewers.
Ehm? Dat is ook verteld, ze kregen de drivers pas heel laat en ook meerdere.
Ik heb anders niks gehoord over game-breaking bugs in die drivers.
Het zal mij niks verbazen als ze ervoor gezorgd hebben dat op bepaalde games de drivers gewoon werken, de benchmark games en veel andere games volledig onderuit gaan. Dat de reviewers niks mochten zeggen over wat ze wel en niet mochten testen.
Ook dat had dan ondertussen wel naar buiten gekomen, en daarnaast, de 2080 is al in handen van "gewone" gebruikers zonder NDA, en functioneel verschil zit er niet in de 2080 en de 2080 Ti
Denk eerder ddat het wel werkt maar minder?
Firmware Finetuning is immers makkelijker te doen en te updaten als alles in house blijft.
Software en driver updates zijn makkelijker te pushen.
Wellicht willen ze nog wat RTX2080 exemplaren slijten voordat ze de TI versie op de markt brengen. Ze hebben immers geen concurrentie dus komen er makkelijk mee weg.
Na heel lang gewacht te hebben op de nieuwe serie heb ik toch maar besloten geen nier, of een van mijn kinderen, te verkopen voor de aanschaf van een GPU. In plaats daarvan heb ik voor een redelijke prijs een 1070 Ti overgenomen van iemand en hoe meer ik lees over de RTX kaarten hoe blijer ik ben met mijn keuze.

De 1070 Ti draait prima en daarmee hou ik het nog wel even uit tot volgend jaar. Ik hoop dat AMD dan ook een serieuze GPU heeft uitgebracht die mee kan met de prestaties van Nvidia. Zo niet dan hoop ik dat de RTX wat volwassener is geworden en ook de prijzen wat minder belachelijk zodat ik het voor mezelf kan verantwoorden om (alsnog) een flinke smak geld uit te geven voor een top kaart.
Na heel lang gewacht te hebben op de nieuwe serie heb ik toch maar besloten geen nier, of een van mijn kinderen, te verkopen voor de aanschaf van een GPU. In plaats daarvan heb ik voor een redelijke prijs een 1070 Ti overgenomen van iemand en hoe meer ik lees over de RTX kaarten hoe blijer ik ben met mijn keuze.

De 1070 Ti draait prima en daarmee hou ik het nog wel even uit tot volgend jaar. Ik hoop dat AMD dan ook een serieuze GPU heeft uitgebracht die mee kan met de prestaties van Nvidia. Zo niet dan hoop ik dat de RTX wat volwassener is geworden en ook de prijzen wat minder belachelijk zodat ik het voor mezelf kan verantwoorden om (alsnog) een flinke smak geld uit te geven voor een top kaart.
Het is nog te vroeg voor dit soort oordelen. De producten liggen nog niet in de winkel. Een week of 6-8 vanaf het moment dat de eerste shops voorraad hebben kunnen we pas echt zien wat er gaat gebeuren. Dat was bij Pascal niet anders. Mijn GTX 1070 zat eind juli 2016 op 465 euro. De prijzen in de weken daarvoor lagen een stuk hoger. (Overigens blijkt uit de MSRP al wel dat de kaarten die nu zijn aangekondigd duur zijn...).
Als ik iemand met een pre-order was geweest had ik hem nu lekker gecancelled en lekker voor een MSI/ASUS gegaan met betere koeling en power opties. Performance verschillen zijn niet zo groot, maar bespaart je een hoop lawaai :)
Zou het gewoon niet mogelijk zijn dat ze meer bestellingen verwachten en dat doel willen behalen en dus de levering uitstellen? En dan aan het eind alles uitleveren. RT is ook nergens live meegemaakt in een engine. Linus had iemand willen uitnodigen en dat werd ook tegengehouden.
Even ter verduidelijking, dit gaat dus om Nvidia’s Founder edition en niet de 2080ti van de partners?
misschien hebben ze gewoon nog steeds problemen met de drivers....dat lijkt me plausibel!
1399 eur voor een kaart en dan nog niet op tijd leveren....
dit is echt de trouwe klanten uitzuigen en te kijk zetten.
Als NVIDIA fan hoop ik echt dat AMD terug concurrent wordt met een heel goede kaart.
Intel bedoel je. Heb zelf ook nnvidia ATM. Intel mag het wel kapot maken.

[Reactie gewijzigd door A87 op 27 juli 2024 09:22]

Op dit item kan niet meer gereageerd worden.