Fabrikanten kondigen GeForce RTX 20-kaarten aan

In navolging van de aankondiging door Nvidia van de RTX 2080 Ti, de 2080 en de 2070, maandagavond, hebben partners van de gpu-maker hun versies van de videokaarten aangekondigd.

Asus brengt maar liefst zeven versies uit van de GeForce RTX 2080 Ti en evenzoveel vergelijkbare varianten van de RTX 2080. RTX 2070-modellen kondigt het bedrijf nog niet aan. Van de RTX 2080 en Ti-varianten verschijnen Turbo-, Dual- en RoG Strix-modellen, met achtereenvolgens een enkele, twee en drie ventilators. Van de Dual- en RoG Strix-kaarten verschijnen bovendien OC-versies, al maakt Asus de kloksnelheden nog niet bekend, iets dat de overige fabrikanten overigens ook nog niet hebben gedaan. Alle kaarten beschikken over usb-c. De RoG Strix-kaarten krijgen daarnaast twee keer hdmi 2.0b en twee keer displayport 1.4. De Dual-modellen moeten het doen met een enkele hdmi 2.0b maar drie displayport 1.4-interfaces. De Turbo-kaarten, ten slotte, moet het doen met een keer hdmi 2.0b en twee displayport-aansluitingen.

Asus RTX 20-serieAsus RTX 20-serieAsus RTX 20-serie

MSI toont een overzicht van zijn komende RTX-kaarten, zonder in detail te treden. Het bedrijf komt met watergekoelde Sea Hawk-videokaarten, Trio- en Duke-modellen met drie ventilators en Ventus-kaarten met twee fans. De waarschijnlijk goedkoopste modellen worden de Aero-kaarten met een enkele ventilator.

MSI GeForce RTX 20

Gigabyte brengt in eerste instantie vijf kaarten in de RTX 20-serie op de markt, later volgen meer modellen, waaronder watergekoelde kaarten in de Aorus-lijn. Van de RTX 2080 Ti, 2080 en 2070 verschijnen Gaming OC-modellen. Van de RTX 2080 Ti en 2080 komen daarnaast kaarten met Windforce-koelers uit.

Gigabyte RTX 20-serieGigabyte RTX 20-serieGigabyte RTX 20-serieGigabyte RTX 20-serie

EVGA maakt acht varianten van zowel de RTX 2080 Ti als de 2080 beschikbaar. De interessantste modellen zijn de versies met EVGA's nieuwe iCX2-koeler, waarvan de twee FTW3-varianten drie ventilators hebben. De iCX2-kaarten nemen met hun dikte 2,75 slots in beslag. De ventilators hebben fluid-dynamic bearing, wat de werking stiller maakt. EVGA komt daarnaast met drie kaarten met traditionelere dualfan-koeling en een enkel 2080 Ti- en 2080-model met enkele ventilator.

EVGA RTX 20-serieEVGA RTX 20-serieEVGA RTX 20-serie

Zotac brengt overgeklokte AMP!-edities uit van de RTX 2080 en de RTX 2080 Ti. Deze kaarten hebben drie ventilators met acht heatpipes, een groot koelblok met aluminium vinnen en een metalen backplate. Van de RTX 2080 komt daarnaast een versie met een enkele ventilator, terwijl van de 2080 Ti nog een non-AMP!-model met drie ventilators verschijnt. Net als de overige fabrikanten meldt Zotac nog niet de Boost-kloksnelheden.

Zotac RTX 20-serieZotac RTX 20-serie

Nvidia kondigde de eerste videokaarten in zijn nieuwe RTX-serie maandagavond aan. De videokaarten zijn opgetrokken rond de Turing-gpu en moeten zich naast de nieuwe architectuur onderscheiden met RT-cores voor ray tracing. De nieuwe generatie is vanaf 20 september te koop. Sommige fabrikanten nemen pre-orders aan voor bepaalde modellen, hoewel over de gameprestaties van de nieuwe generatie nog weinig bekend is. Nvidia rekent 1249, 849 en 639 euro voor zijn eigen Founders Editions van respectievelijk de RTX 2080 Ti, 2080 en 2070. De vanafprijzen van kaarten van derde partijen zouden achtereenvolgens 999, 699 en 499 dollar zijn, maar europrijzen hiervoor zijn nog niet bekend. In webwinkels worden echter prijzen van 1300 tot 1400 euro genoemd voor de RTX 2080 Ti-modellen.

Door Olaf van Miltenburg

Nieuwscoördinator

21-08-2018 • 12:04

244

Lees meer

Reacties (244)

244
239
135
15
0
82
Wijzig sortering
De presentatie was wel leuk een aardig (hopelijk wordt het geen PhysX 2.0) maar dan komt het belangrijkste kenmerk: de prijs. Die is wel echt te belachelijk voor woorden. GTX 1080TI voor in de 800 euro dan denk je nog van oke, dit is dan tegen de max qua prijs en heb je wel echt het top model. Nu is het niet 800 voor de RTX 2080TI, nee 1300+ euro. En dan krijgt vervolgens de RTX 2080, dat de prijs van de 1080TI versie is.... waar je dus eerder met dezelfde prijs het beste model had, heb je dat nu ineens niet meer. Daar bovenop is er ook helemaal niks vertoont qua benchmarks 10XX gen vs 20XX gen zonder raytracing. Leuk dat ie laat zien hoeveel beter de RTX 2070 is tov de 1080TI met raytracing, maar daar hebben we niets aan aangezien we zeker nog lang niet zo ver zijn dat elk spel daar ondersteuning voor biedt. Nu is uiteindelijk maar de vraag of de RTX 2070 wel echt beter is dan de vorige generatie zonder raytracing, waarschijnlijk scheelt dat dus heel weinig anders hadden ze dit wel laten zien van oh jongens hijs wel 50% sneller. De RTX 2080 zit nu gewoon in de prijzen van de 1000 euro, een GTX 1080TI daarentegen kan je al voor minder dan die prijs halen.
Ik ben het op 2 punten niet met je eens: € 800 voor een 1080TI is NIET een oke prijs. De 10xx generatie hebben al belachelijke prijzen, maar de prijzen van de nieuwe generatie gaan al helemaal nergens meer over. Overigens zijn deze prijzen goed te verklaren. Het is al tijden bekend dat Nvidia nog een behoorlijke voorraad 10xx GPU's heeft. Deze verkopen dus voor geen meter meer als ze de nieuwe generatie voor dezelfde prijs gaan verkopen.

Het tweede punt is de presentatie. Het was een langdradig verhaal over hoe schaduw in games werkt en waarom RTX dit beter kan dan de oude GTX kaarten, lekker belangrijk. Het was een groot marketing verhaal om gamers proberen over te halen waarom je Raytracing zou willen hebben. Ja, het is de toekomst om alles nog een stap dichter bij levensecht te krijgen. Nee, het is het niet waard om zo veel geld neer te leggen voor deze kleine verandering. Daarnaast vond ik bv de Tomb Raider footages erg schokkerig en ook geen FPS counter. Ik heb sterk het vermoeden dat zelfs met de nieuwste dikste kaarten het nog niet soepel loopt.
Nou, 'kleine verandering'? Het is een totaal andere manier van belichting. Dit is hoe dan ook de toekomst van gaming. Real-time ray-tracing is zo'n beetje de Holy Grail op graphics gebied. Het staat nu allemaal nog in kinderschoenen, maar dit is wel echt het begin van een nieuw tijdperk hoor. Absoluut geen kleine verandering.
Iets wat over 10 jaar normaal is ga je niet vandaag in investeren.

Bij het gifje moest ik 5 keer kijken om het "verschil" te zien. Op een 64 player server heb je geen tijd om die reflectie in de ogen van je tegenstander te zien, waarop je zult anticiperen door je om te draaien en aanvaller van achter zult doden..... :)

Ik denk ook niet dat die over 63 player rekening gaan houden met het feit dat ik meer tijd nodig heb om spiegelbeelden te zien en daarop te anticiperen :(

Maar even serieus denk je niet dat niet relevante marketing verhaal opvallend is terwijl je ook gewoon kan zeggen dat in sommige situaties kaart 4 keer sneller is dan voorganger.... Want dat is wel nieuws en door iedereen te begrijpen.

Ik vermoed net als anderen dat prestaties tegenvallen en dat ze alles doen om verwachtingen te temperen om teleurstelling te voorkomen.

Ik hoop ergens dat dit onderdeel is van marketingcommunicatie door veel buzz te creëren en straks in benchmarks wel een kaart heeft die paar keer sneller is en daarmee elke discussie over prijs (en markt dominantie en gebrek aan concurrentie) zal verdwijnen.
reflecties, maar ook schaduwen. Reflectie glare van een loop/lens/helm/mes...

En het gaat niet zozeer om het 'zien' ervan. Het gaat om het onbewuste - zeker voor VR is dit een toevoeging omdat het minste dat er niet 'klopt' in belichting oid genoeg is om je uit de immersion te trekken.

Het is natuurlijk weer een gevalletje "ik ik ik gebruik het niet dus boeieh waarom doen dan?". Als bedrijven die mentaliteit zouden volgen dan hadden zaten we nog naar letterlijke stippen op een CRT scherm te kijken. Maar goed dat een nVidia dan maar het voortouw neemt. Als ze niet iedereen mee over de streep wouden trekken, hadden ze raytracing wel voorbehouden voor de 2080Ti of RTX 'Titan' (die komt nog wel hoor) en de rest moest het zonder.

En 'wat over 10 jaar normaal is' daar ga je vandaag net WEL in investeren.
Had jij al een DVD speler in 1995? Behoefte aan? Nee? Blijkbaar hadden niet veel mensen behoefte aan 9 GB (nou goed, 8.5GB) aan (heel) draagbare opslag in de jaren 90.... En toch heeft Philips erin geinvesteerd....

Had jij 8 jaar geleden 100 euro geinvesteerd in bitcoin....
VR ziet er niet uit.

Tegen de tijd dat we 8K / 144hz per oog hebben met draadloze VR bril met oogtracking zijn deze NVIDIA kaarten allang niet meer relevant.
Oh en jij verwacht dat we even van 0 naar 100 gaan in 1 generatie?
Grapjas.
VR is maar 20 oud.

En ik.hoop.dat er over 20.jaar wel zijn zodat ik voor me pensioen van echte niet irritante VR gebruik kan maken.

Wat levensecht claims maakte men 20 jaar geleden al... en nu weer en over 20 jaar is het eindelijk zover.
"levensecht" - Alsof het gros zich wat aantrekt van 'fotorealisme'.

Beat Saber is hier zowat het beste voorbeeld van. Retro feel all over, graphics/renders zijn als je van dichtbij kijkt echt niet van de hoogste kwaliteit... Maar met afstand zowat het populairste VR spel tot nu toe .
https://steamspy.com/app/620980

VR doe je voor de immersion, graphics gaan nooit significant verschillen van non-VR games van dezelfde generatie. En daar hoeft het ook niet voor.
En voor immersion moet alles 'kloppen'. Dingen moeten 'vallen' zoals je verwacht in de echte wereld, licht moet breken als het een stuk glas doorgaat, ... Een voetstap die niet 'juist' echo't door de gang.

Daarbij is VR van 20 jaar geleden is in geen enkel opzicht te vergelijken met VR nu. Als er nu, met de huidige technologie (USB3.1/USB-c, HDMI, WiGig, ....) nog maar '2160×1200@90Hz' mogelijk is en zelfs DAT op het randje van 'tolereerbaar' is, hoe denk jij in godsnaam dat zoiets 20 jaar geleden had moeten verlopen?

Met dingen als AxonVR/HaptX, en de vooruitgang van de tech (draadloos, hogere resoluties, full body controllers) is VR echt wel in een fameuze stroomversnelling gekomen. Waar ik het een jaartje of 2 zelf nog afdeed als 'een gimmick', heb ik na aanschaf van een Vive mijn mening drastisch herzien. VR is de toekomst.

[Reactie gewijzigd door Tokkes op 28 juli 2024 05:23]

Ik had 20 jaar geleden al veel plezier met VR.

Vergeet niet dat enige "hoge" resolutie hercules was dat was zwartwit of amber afhankelijk van monitor.

Maar CGA en later EGA hebben resoluties die eerste Nokia's smartphones hadden.
Absoluut geen kleine verandering.
Technisch is het een grote verandering, maar visueel is het verschil subtiel en zal met name in actie games voor het merendeel niet opvallen.
Technisch inderdaad een HELE grote stap. Maar praktisch, voor een gamer, die zijn settings zo tweakt om de meest stabiele hoge frramerate te halen in competative games als Battlefield, heeft het gewoon geen meerwaarde.

Vandaar ook dat de hele presentatie meer ging over waarom we RayTracing nodig hebben als gamers, dan over de kaarten, FPS en vergelijkingen met de oude generatie (zonder RT dan).

Ik wacht wel op wat benchmarks en de eerste reviews, maar ik ben bang dat zonder RayTracing deze kaarten niet veel brengen wat de oude niet ook al doen.
Klopt, zojuist op een duitse website (PCGameshardware.de) hands-on gezien, FPS tussen 30-50 bij Tomb Raider...
Ben het met je eens hoor. ik zat net te kijken wat ik in totaal voor mijn huidige PC betaald heb. Dat ding is nu ook wel weer 4 of 5 jaar oud volgens mij. (heb het niet echt bijgehouden) Ik heb voor die kast met alles erin (t was zelfbouw btw) hetzelfde betaald als voor die ene 2080Ti.

Kijk dat prijzen stijgen heb ik dan nog iets van okay er zal een reden zijn. Maar het is niet meer geloofwaardig als je voor 1 onderdeel net zoveel betaald als dat je voor het hele apparaat gewend was te betalen.
"Overigens zijn deze prijzen goed te verklaren. Het is al tijden bekend dat Nvidia nog een behoorlijke voorraad 10xx GPU's heeft. Deze verkopen dus voor geen meter meer als ze de nieuwe generatie voor dezelfde prijs gaan verkopen."

Dan hadden ze (Nvidia) niet 'FUCK YOU' tegen gamers moeten zeggen en munt slaan uit de inflatie door miners? Eigen risico, maar fanboys snappen zelf niet dat ze het zichzelf en anderen duurder maken. Een '"Nieuwe generatie" (eigenlijk het oude met wat extra ray tracing erbij) moet nu kosten wat een volledige PC ongeveer 3-5 jaar geleden had moeten kosten?
Helaas is precies gebeurd waar ik al bang voor was. De prestatie-stap is minimaal en de prijs-stap zo'n beetje maximaal. 2080 kan +/- wat 1080ti kan, dus krijgt de 2080 ook lekker dat prijskaartje. Nvidia logica. Ze betreden nu een prijsladder waarmee zij zichzelf heel snel uit de markt gaan drukken.

Jammer dat ze niet gewoon in prijssegment blijven zitten van type kaart, ipv het te spiegelen aan prestaties van vorige generatie. Hopen dat de consument met zijn portemonnee stemt en iig de 2080ti massaal negeert zolang het de verwachte prijskaartje krijgt.

Heb zelf op het moment de 1070, maar sinds paar maanden op 1440p 144+hz, en kan wel een upgrade gebruiken. Als je puur naar specificaties kijkt, is alleen de 1080ti of 2080ti een échte upgrade, in mijn ogen. Maar ik ga echt geen 1000,-+ voor een GPU neerleggen. Zal dus waarschijnlijk de 1080ti gaan worden nu, al wacht ik de benchmarks en prijzen nog af. Maar ben zeker teleurgesteld in Nvidias prijsontwikkeling.
Ergens heb ik het gevoel dat ze het trucje uit de smartphone markt kopieren. Ze rekken de hele prijsrange op zodat mensen makkelijker de 'voorheen topprijzen' , makkelijker betalen omdat het in verhouding met de nieuwe top 'wel meevallen'
Anoniem: 310408 @DyroB21 augustus 2018 15:48
Ze betreden nu een prijsladder waarmee zij zichzelf heel snel uit de markt gaan drukken.
Wat zijn ze dom he?

Ik denk dat er absoluut voldoende klanten zijn voor een dergelijke introductieprijs. En omdat er nog geen goede prestatietests zijn lijkt me jouw redenatie op zijn minst voorbarig. Dat jij er het geld niet voor hebt en wel graag een snellere kaart wilt hebben moet je niet veralgemeniseren. De duurste videokaarten hebben altijd prima verkocht in de eerste 6 maanden. Daarna zie je de prijs dalen (aangenomen dat er geen verstorende factoren zijn als digicoin miners) en komt er weer ruimte boven. Met de toegenomen kosten (dit is werkelijk een meer complexe kaart) zie je de kosten van de topmodellen ook stijgen. Iets wat normaal is voor elke ontwikkeling.

Wees blij, de 1080 kaart die je graag wilt hebben zal over een jaar zeker goedkoper zijn!
Vind je reactie beetje denigrerend overkomen. Ik mag geen mening hebben?

En mijn redenatie voorbarig? Ik zeg nog expres, dat ik het afwacht.
Ik kan het niet betalen? Nu ben jij voorbarig. Ik kan het wel betalen hoor, heb het er alleen niet voor over, om 1000+ voor een GPU neer te leggen.

En voor de duidelijkheid, ik beweer nergens dat Nvidia zich nu direct uit de markt prijst. Maar als deze trend blijft doorzetten gebeurd dat wel, en Nvidia is nou net zo'n bedrijf die lekker tot het randje of er net met een halve voet overheen gaat. Krijgen we straks de 3080 voor de prijs van 2080ti, later weer 4080 voor de prijs van 3080ti?

Ik zag de 80ti kaarten voor de gamer die fanatiek was maar het nog nét binnen de perken houdt, voor de diehards heb je nog een kaartje erboven, geld dat ik persoonlijk dus niet over heb voor een GPU. Maar de 80ti gaat nu ook de ''diehard'' kant op.

En als een PC-hardware fanaat ga ik stiekem het liefst mee met de nieuwste generatie wanneer ik iets ga upgrade. Maar als het prijs/kwaliteit verhouding te minimaal is, houd het voor mij op.
Ik zit in precies hetzelfde schuitje, heb een 1070, maar ben 2k gaan gamen op 144hz. Daar is deze net te langzaam voor.
Heb heel lang gewacht en getwijfeld om een 1080ti aan te schaffen, maar toen ik over de nieuwe serie hoorde heb ik daar eerst opgewacht. En ben ik blij dat ik nu nog niet eerder een Ti heb gehaald.

Die nieuwe serie is veel te duur. Maar hopelijk gaat de prijs van de 1080ti wel iets omlaag. Dan schaf ik deze namelijk wel aan.
Dat zijn de prijzen tegenwoordig. En zolang de consument het ervoor betaald blijven de fabrikanten de marge oprekken. Ik denk dat ze het voorbeeld hebben gezien van de iPhone X van EURO 1.330,45 (256 GB). Ik bedoel, waar hebben we het nog over. De prijzen zijn gewoon helemaal los geslagen van de werkelijkheid. Dit gaat niet meer over R&D kosten of Productie kosten. Dit is gewoon de marge oprekken tot het punt dat de consument het niet meer betaald.
Zeker als je bedenkt dat de lonen al 10 jaar lang bijna niet bewegen. Dus ze kunnen moeilijk zeggen dat de R&D kosten stijgen.

[Reactie gewijzigd door hidde86 op 28 juli 2024 05:23]

Nvidia is neem ik aan een beursgenoteerd bedrijf en ze hebben de afgelopen tijd natuurlijk een enorme winst gemaakt. Zo'n bedrijf ziet afname van winst als verlies in de boeken en zal dat niet toelaten. Al helemaal niet als de markt niet terugvecht.

Als voorbeeld, kijk naar telecom bedrijven, die hebben met de komst van mobiel internet toch ook geen genoegen genomen met dalingen in winst omdat de standaard dienst veel minder gebruikt wordt. Die laten je nu flink betalen voor een dienst (mobiel internet) die vele malen goedkoper zou moeten zijn.

Wat vooral jammer is aan dit soort praktijken is dat de ontwikkeling van producten die afhankelijk zijn van zulke diensten hiermee worden tegengehouden. Ik kan me voorstellen dat een Netflix op de telefoon veel populairder zou zijn als een ongelimiteerd abbo veel goedkoper was. In feite lopen zij dus business mis door de capriolen van de telecom bedrijven. Zo zullen games minder snel grafisch vooruitgaan als iedereen toch maar een 1070 kiest omdat het qua prijs anders te gek wordt.
Er zal toch een maximum aan komen, de inkomen van gamers gaan niet automatisch omhoog als Nvidia de prijzen omhoog doet, op een gegeven moment kan zelfs een bovengemiddeld inkomen niet zomaar meer ff een RTX 2080 meer betalen en zullen de verkopen dalen. Het is een beetje raar want Nvidia heeft naar eigen zeggen nog miljoenen 1080 Ti chips op voorraad. Ik haal dus binnenkort dan liever een 1080 Ti als de prijzen de grond in zakken want de meeste gamers willen het nieuwste hebben. Ik heb al bijna 4 jaar een GTX 970, en hij doet het nog goed.

[Reactie gewijzigd door MrFax op 28 juli 2024 05:23]

Nou dan geef je daar een extra reden om de nieuwe generatie hoger te prijzen. Als er nog zoveel pascal kaarten in stock zijn, zullen ze de klant daar nog naar toe willen sturen. In dit geval door de prijzen van de nieuwe generatie te verhogen. Ze kunnen altijd nog bijstellen mocht het niet lopen maar ik denk persoonlijk dat men het wel zal slikken en gewoon de portomonee opentrekt.
Telecomproviders hebben flinke concurrentie en moeten daarnaast flink betalen voor de frequenties in Nederland. Ik weet niet in hoeverre we teveel betalen. 20gb en onbeperkt bellen voor 18 euro vind ik een prima prijs.

Verder is de gpumarkt niet verstoord door de vraagprijs van fabrikanten, maar het gebrek aan concurrentie plus de cryptogekte.
Het gaat voor een gedeelte wel over de productiekosten. De die van de RTX 2080ti is 775mm2 groot een stuk groter dus dan de die van de 1080ti/Titan XP die 471 mm2 groot is. Verder heb je natuurlijk gelijk Nvidia verdient er bakken met geld mee. Omdat er geen concurrentie is. Maar ook omdat mensen de AMD kaarten ook in het segment van de markt waar er wel concurrentie is zoals de AMD rx 470 of 570 gewoon niet willen kopen.
Volgens AdoredTV:

Let op, dit is dus een leak van voor de release, geen garanties.
RTX2080: 8% sneller dan GTX1080TI, 50% sneller dan GTX1080.
RTX2070: 17% sneller dan GTX1080, 40% sneller dan GTX1070
RTX2060 (komt nog): 7% trager dan GTX1070, 27% sneller dan GTX1060

De prijzen zijn hoog omdat Nvidia weet dat ze geen concurrentie hebben en dus een veel dikkere winstmarge pakken. Nvidia heeft nog nooit zoveel winst gemaakt.

[Reactie gewijzigd door Grotbewoner op 28 juli 2024 05:23]

Als niemand ze gaat kopen vanwege veel te duur gaat Nvidia nul de botten winst maken.

[Reactie gewijzigd door Fredi op 28 juli 2024 05:23]

Nvidia heeft de laatste 3 maanden meer winst gemaakt op GPU's dan AMD in de laatste 10 jaar. Ik denk dat ze gewoon lekker achterover gaan zitten en wachten tot het geld binnenstroomt. Anders kopen mensen wel iets van deze generatie. Waarschijnlijk Nvidia.
Fanboys snappen zelf niet dat ze het zichzelf en anderen duurder maken.
Helaas kopen toch heel veel mensen het en kunnen ze gewoon lekker doorgaan met verhogen tot .......... |:(
Mee eens . Ik wacht nog wel een generatie met 4K ;)
Idd ben ook al een tijd aan het wachten om over te stappen op 4K maar met deze prijzen..... En het is nog maar de vraag of je met Turing vlot 4K-games gaat kunnen spelen. Nog even de benchmarks afwachten.
Het word weleens tijd dat "wij", de consument een statement maken. Gewoon niet kopen tegen die belachelijke prijzen. Eens kijken hoelang het dan duurt eer Nvidia eieren voor zijn geld kiest...
Volledig mee eens. Never nooit niet dat ik een videokaart van boven de €500 koop. Ik heb mijn 1070Ti gekocht tijdens de Black Friday Sales aan €480, anders was het ook niets geworden want daarna zat die kaart weer boven de €500.
Precies, sinds die cryptomarkt op gang is gekomen slaan die prijzen nergens meer op (al is de crpytomarkt niet de enige oorzaak). Het bedrijf kent inderdaad (haast) geen concurrentie, dan had ik het ook wel geweten als CEO..
Ja ben er ook benieuwd naar. Prijsverschil tussen een full hd pc en 4K is mij nog veel te groot. Je praat meteen over duizenden euro's.
Aangezien ze ook behóórlijk mis zitten qua prijs zou ik de rest van de cijfers ook met een flinke korrel zout nemen.
Ben het wel met je eens hoor.

Maar denk dat de hoge prijs door paar dingen komt:
  • De 2080 Ti die size is veel groter dan de 1080 Ti die size
  • Duur GDDR 6 geheugen
  • Naar verluidt betere, zwaardere en dus duurdere stroomvoorziening nodig
  • Veel te weinig competitie
De eerste drie punten zijn gewoon recht lullen wat krom is. Zowel Nvidia als AMD hebben in het verleden grotere chips, met nieuwer geheugen, die meer stroom verbruikten, geintroduceerd voor 'normale' high-end gpu-prijzen. Het verschil toen was dat er fatsoenlijke concurrentie op de markt was.

[Reactie gewijzigd door DCK op 28 juli 2024 05:23]

Ik ben het met je eens dat er minder concurrentie nu is. Dat is niet alleen op GPU-nivo, overigens. Er zijn ook steeds minder aanbieders van GDDR; voor GDDR6 moet je bij Samsung of Micron zijn. Dat helpt evenmin om de prijzen voor complete kaarten omlaag te krijgen.

De parallele ontwikkeling van HBM naast GDDR is ook niet bevorderlijk voor prijsdalingen; die R&D moet ook betaald worden.
Ramprijzen zijn inderdaad hoog, maar niet zo hoog om deze prijsverhogingen te verdedigen. 8GB GDDR6 kost ongeveer 180 euro* en 11GB kost 247 euro. Dus respectievelijk 21% en 20% van prijs van de 2080 en 2080ti kaarten.

* https://www.reddit.com/r/...prices_compared_to_gddr5/

Nvidia als bedrijf maakt heeft een winstmarge van 60%: https://nvidianews.nvidia...h-quarter-and-fiscal-2018

[Reactie gewijzigd door lordawesome op 28 juli 2024 05:23]

60% netto is naar mijn smaak echt aan de hoge kant.
Ben ik ff blij dat ik niet perse zo'n kaart wil.
3 Mining kwartalen op rij... niet heel representatief voor wat ze normaal binnenharken ;)
Nee, die 60% is niet de winst. Kijkt maar naar hetzelfde document wat je aanhaalt: 9.7 miljard omzet, 3 milard winst. Dat is geen 60%, maar 30%. Die 60% is de bruto marge, zeg maar opbrengst minus productiekosten. Vaste kosten zoals personeel en gebouwen negeer je dan.

60% is ook geen bijzonder hoge bruto marge. Voor software kan dat oplopen tot 99%.
Zou de aarde te klein zijn voor meer dan 2 high end gpu bakkers?

En zo ja, zou dat fenomeen van dermate extreme specialisatie waardoor er eigenlijk geen concurrentie meer mogelijk is naast een eenmaal dominante partij, vaker optreden? Ben benieuwd naar je gedachten hierover.
Nog een puntje: Er schijnen nog een miljoen Pascal chips klaar te liggen dus als nVidia de nieuwe generatie duurder maakt dan blijft de vorige generatie aardig verkopen als "low end". Een beetje zoals Apple ook elk jaar doet tegenwoordig (elk nieuwe model 100 euro duurder maken en het oude ook blijven verkopen).
De prijs is gewoon puur winst van Nvidia. Waarom zouden ze ineens een veel duurdere videokaart in elkaar zetten? Op een moment dat je qua performance niemand hoeft te verslaan? Natuurlijk niet. Het enige antwoord is gewoon winstmaximalisatie. Ze weten dat we geen alternatieven hebben, dus we kopen dit of niks.
Dat is dus niet het enige antwoord. De argumenten heb ik al gegeven.
Hun kosten zijn c.p. gewoon hoger. Een chip van 471mm of 754mm maakt nogal verschil. Etc.

Als ze hun winstmarge minimaal gelijk willen houden zal de prijs dus omhoog moeten.

Natuurlijk gaat nvidia niet nog jaren de pascal verkopen omdat er nog geen concurrentie is want stilstand is achteruitgang.

Verder vind ik de prijzen ook veel te hoog maar goed nvidia probeert het gewoon.
Ik zie je punt, maar ik denk dat je het effect overschat en het winstbejag van Nvidia onderschat. Prioriteit 1 van Nvidia is geld verdienen, niet betere tech ontwikkelen. Dus stilstand = dik geld verdienen zolang er geen concurrentie is. Tuurlijk, in de marketing klinkt het allemaal geweldig wordt elke generatie de GPU opnieuwe uitgevonden, maar ik verwacht dus geen wereldschokkende benchmarks vergeleken met de vorige generatie.

En als ze wel al veel verder zijn in tech bewaren ze dat op de plank zodat ze een antwoord hebt voor een mogelijke concurrent, terwijl ze de prijzen van de kaarten die ze wel verkopen flink opschroeven.

Daarnaast, als je kijkt naar de laatste 4 generaties zie je dat de introductieprijzen vrijwel hetzelfde zijn, ongeacht technologische vooruitgang. Dat vind ik ook wel veel bewijs voor mijn stelling.

[Reactie gewijzigd door Grotbewoner op 28 juli 2024 05:23]

Ik onderschat nvidia niet, integendeel. Geef alleen aan dat de hoge prijzen ook komen doordat de kosten gestegen zijn. Geen enkel normaal bedrijf gaat vrijwillig zijn winstmarge verlagen. Een normaal bedrijf wil de winstmarge vergroten en daarvoor moet je minimaal de gestegen kosten doorrekenen.

Stilstand is niet slim want daarme vergroot je de kans dat je competitie langszij kan komen.

nvidia had ook alleen extra cuda cores op de chip kunnen zetten maar gaat blijkbaar liever nieuwe technologie introduceren waarmee ze hopen het gat verder te vergroten. O.a. door het hele raytracing eco systeem al naar hun hand te zetten.
Een chip van 471mm of 754mm maakt nogal verschil.
Hoe komt het dan dat opeenvolgende high-end consumenten cpu's (steeds grotere chips) door de jaren heen voor min of meer dezelfde prijs over de toonbank gaan?
Die size van een HEDT i9-7900x is "maar" 308mm^2, terwijl deze die op ~775mm^2 zit.
Een q6600 (ja oud) zit op 286mm^2 en de die van de 8800GTX uit dezelfde periode zat toen op 480mm^2. Multi die cpus tellen niet mee.
Een groter oppervlak silicium belichten zonder of met weinig fouten kost meer moeite vergeleken met een kleiner oppervlak.
De prijs is gewoon puur winst van Nvidia. Waarom zouden ze ineens een veel duurdere videokaart in elkaar zetten? Op een moment dat je qua performance niemand hoeft te verslaan? Natuurlijk niet. Het enige antwoord is gewoon winstmaximalisatie. Ze weten dat we geen alternatieven hebben, dus we kopen dit of niks.
Ik lees vaak het argument "ze hebben al de snelste dus ze hoeven niks nieuws meer uit te brengen," maar stilstand is achteruitgang, voor ieder bedrijf. Het gaat niet gebeuren dat Nvidia, omdat ze met de 1080Ti de snelste consumentenkaart hebben, met z'n allen maar besluiten van, joh, we houden er maar even mee op want we zijn toch al de snelste dus het hoeft allemaal niet zo nodig, dus beentjes op het bureau en chillen maar. Zie je het al voor je?
Natuurlijk ontwikkelt Nvidia wel verder. Maar verkopen ze die ontwikkelingen ook door aan ons? Of blijven ze er nog wat langer op zitten zodat ze een joker hebben voor een mogelijke concurrent. Je ziet vaak in deze markten dat bij marktoverheersing de technologische sprongen vertragen. Waarom zouden ze hun kruit verschieten door de beste techniek door te verkopen en zo te openbaren voor hun concurrenten? Daarom voorspel ik dat de krachtsprongen niet erg groot zullen zijn omdat er maar net genoeg nieuwe performance/techniek in moet zodat mensen met veel geld nog steeds zo'n kaart kopen.

Wat ik niet begrijp is hoe naïef sommige mensen over Nvidia dat zich nu in de ultieme positie bevind zijn. We gaan allemaal de hoofdprijs betalen voor videokaarten en dat heeft niks met magisch hogere kosten te maken, alles met winstmarges en monopoliepositie. Zij hebben niemand nodig om hen te verdedigen, ze gaan zwemmen in het geld. Kijk anders even naar de geschiedenis van Nvidia.
Ik denk vooral het laatste puntje ;)
Vergeet ook niet dat liefhebbers van multi-GPU opstellingen nu pas kunnen instappen vanaf de RTX 2080. (Bron) Nvidia had bij de GTX 10-Series al de SLI aansluitingen vanaf de GTX 1060 opgedoekt. Nu moet de xx70 er ook aan geloven. Bovendien werken je oude SLI bridges noch de HB-SLI-bridges niet meer, want jawel die zijn vervangen door RTX NVLINK BRIDGE voor "slechts" €84,99.
Ze zijn hier in Nederland €84,99 (https://www.nvidia.com/nl...L_20181001_TURING_GFHOME_) Onder tabje NVLINK. Ik snap ook niet waarom ze hier dan 2x zo duur zijn 8)7
800 euro zou voor mij wel een 'instant buy' geweest zijn.
1000 euro zou ik zelfs willen voor betalen.
1300+ euro voor waarschijnlijk een 7 - 15% verbetering? (tenzij je DLSS of Raytracing gebruik die amper bestaat). Uh, nee dank je.
klopt, en de prijs zal zakken, maar zou toch niet slim van ze zijn om de 2080 goedkoper te maken dan de 1080ti terwijl de 2080 net wat sneller is (en als ik NU moet kiezen tussen een 1080ti of een 2080, dan geef ik die 49 euro (rechtstreeks bij nvidia de 2080FE is 849 euro, das inc btw/verzendkosten) extra wel uit, want de 2080 heeft nieuwere functionaliteiten en is waarschijnlijk nog stiller en zuiniger ook).
Koop gewoon een Vega64, die is veel goedkoper.
Vanwege dit gedoe heb ik serieus eens gekeken hoeveel een Vega64 kost en oplevert. Performance die bij veel spellen vergelijkbaar is met een GTX1070 (en ja, dat zijn recente benchmarks met recente drivers), en bij andere hooguit in de buurt komt van een GTX1080. Nu is dat op zichzelf niet heel slecht, maar vervolgens had diezelfde site een probleem: Dat ding trok zoveel stroom dat het niet stabiel werkte via een enkele PCI power kabel met dubbele connector, en het via twee aparte kabels moest gaan. Natuurlijk, dat kan je wel weer oplossen met undervolten, maar onder de streep is het nou niet echt een uitblinker. Daarom overweeg ik dan toch een 1080TI tweedehands te scoren, ook al verlies ik dan helaas Freesync.
Natuurlijk moet je twee pci-e kabels gebruiken, een kabel trekt het niet omdat er te veel stroom door moet omdat de Vega64 een stroomvreter is. Heel normaal dus dat het systeem instabiel is met een kabel.
Als die kabel standaard bij een 1000W voeding wordt geleverd zal dat blijkbaar bij de meeste kaarten prima gaan. Ik heb zelf een goede 550W voeding (RM550x). Die heeft ook gewoon één kabel voor PCI power connectoren, waar dan dus twee connectoren op zitten. Daar draait nu een R9 Fury, niet bepaald een kaart die prijzen wint voor laag energieverbruik onder load, prima op.

Oftewel het is helemaal niet normaal dat een systeem instabiel is met zo'n kabel. Los daarvan: Mijn huidige systeem is stabiel, ik heb alle vertrouwen erin dat een 1080TI ook stabiel ermee is. Maar als ik een Vega64 zou kopen moet ik dus ook nog eens een nieuwe voeding kopen. Dan is die optie nou niet bepaald goedkoop meer.
Onze voedingsexpert @-The_Mask- zegt dat je altijd beter twee kabels ipv een gebruikt, dus heb ik zijn raad maar opgevolgd.
Dat je beter twee PEG kabels kunt gebruiken bij een aantal videokaarten heeft niet te maken met de videokaart, maar met de voeding. Sommige fabrikanten besparen nogal op de kabels, connectors en beveiliging van de voeding.
Nou ja, uiteraard is het een combinatie, en als de kabel dik genoeg is en er genoeg stroom op die output door de voeding kan worden geleverd moet er geen probleem zijn. Maar of het werkt of niet zal ervan afhangen hoeveel stroom door die kabel wordt getrokken. Als je zelf schrijft is het bij een aantal videokaarten relevant is, dan verbruiken die dus significant meer dan andere. Lijkt mij dus erg kort door de bocht om te stellen dat het niks met de kaart te maken heeft.
Vega64 gaat niet over de 150W continue per 8 pins PEG connector heen en blijft dus binnen de specificaties. Alleen als een voedingsfabrikant dan twee van die connectors op één modulaire connector zet die niet geschikt is voor die 300W continue, of iets meer bij een overklok, dan ligt dit probleem toch echt bij de voedingsfabrikant. Als voedingsfabrikant moet je natuurlijk rekeninghouden met de videokaarten die er zijn en dat wordt regelmatig vergeten.
uhhh, ding is duurder dan een 1080 op het moment... dus 'veel goedkoper'? Zie dat de prijzen volgensmij ineens redelijk gezakt zijn, 1080 voor 475-550, 1070 voor 389-475, maarja, toch nog best hoog. Ik wacht nog wel even, moet sowieso dan nog eens kijken of mijn huidige voeding het wel aan kan.
Goedkoper dan een 2080 bedoelde ik.
Uhh, waarom meer betalen voor een kaart die vergelijkbaar is met de 1080, dus als ik dan moest kiezen zou ik een 1080 kopen en de vega64 negeren.
Dit was een belachelijke presentatie, gigarays 8)7
Er is geen concurrentie maar het is totaal ander product dat een nog veel hogere prijs zou rechtvaardigen.

Zolang miners niet gaan investeren omdat het allemaal niet zo goed gaat is er een kans dat ze prijzen moeten verlagen omdat verkoop gaat tegenvallen.

Trekt crypto wel aan dan hebben ze geen reden omdat te doen. In dat geval zal men massaal 1080ti gaan dumpen en vervangen voor 2080 ti.

https://www.techradar.com...hics-card-is-best-for-you
Ik vond 800 euro ook niet okee voor een GFX card maar goed, veel mensen nemen het voor lief want er is niet echt een alternatief. Nvidia weet dit en kan nu lekker de prijzen flink op drijven. Het is nou eenmaal een kapitalistische onderneming. Intel deed precies hetzelfde, totdat ze op heterdaad betrapt werden door AMD die bijna dezelfde performance biedt voor een flink lagere prijs.

Ik ben het absoluut niet eens met deze prijzen, het is dan wel een hobby maar het moet ook leuk blijven. Als het nu de norm is om elke 2 jaar 1300 euro neer te leggen om alles op Max te kunnen blijven spelen dan haak ik af. Dan ondersteun ik liever AMD en neem ik genoegen met High of Medium in de hoop dat de concurrentie weer terug keert. Na Navi zien we wel weer hoe de kaarten geschud worden.
Tja die kaarten zijn voor mensen met geld...eigenlijk zou iedereen niks meer moeten kopen{ net als mobiele telefoons en dit zijn over de top euro's }.

Ik vind het echt duur worden of wij moeten salaris verhoging krijgen van 50%
Anoniem: 310408 @noway21 augustus 2018 15:51
Tja die kaarten zijn voor mensen met geld...eigenlijk zou iedereen niks meer moeten kopen{ net als mobiele telefoons en dit zijn over de top euro's }.
Dus jij wilt liever dat er geen nieuwe ontwikkelingen worden gedaan en dat we alleen maar moeten werken aan het goedkoper maken van wat er nu is?
Anoniem: 669957 21 augustus 2018 12:05
Ik vind het best verdacht dat Nvidia geen benchmarks heeft laten zien, terwijl dat normaal hun marketing focus is. Ik wacht de benchmarks af.
Een 1080Ti voor € 739 bij Coolblue is dan een betere optie dan een 2080 voor € 699.
De meeste 1080 Ti staan bij Coolblue veel duurder dan 739. Alleen deze staat voor 739 https://www.coolblue.nl/p...080-ti-gaming-oc-11g.html
Ik zie het, maar 1 is genoeg :)
De 2080 staat voor € 949 in de pricewatch. De 2080 moet namelijk wel langzamer zijn (obv specs) dan de 1080Ti voor meer geld. Helemaal de weg kwijt daar bij nVidia 8)7

[Reactie gewijzigd door Hulleman op 28 juli 2024 05:23]

De specs die tot nu toe bekend zijn zeggen echt niet alles. Is een nieuwe architectuur en kan dus mogelijk (mag ik zelfs hopen) meer performance leveren per core en/of clockspeed.

Eerst de benchmarks maar afwachten
Zoveel is de architectuur niet gewijzigd, er is alleen iets toegevoegd (Ray Tracing). Alleen wordt RT voorlopig practisch nog nergens toegepast. Met andere woorden wordt de huidige architectuur nog gewoon gebruikt.
Dit is een nieuwe core waar inderdaad niet een volledig nieuwe architectuur is, maar wel een nieuwe core met allerlei verbeteringen (daar heb je geen helemaal nieuwe architectuur voor nodig). Het kan natuurlijk zo zijn dat er niks verbeterd is behalve RT cores, maar ik geloof niet dat NVidia na 2 jaar een nieuwe serie kaarten uitbrengt en alleen maar RT cores toevoegd en voor de rest niks sneller en beter maakt. Sceptisch zijn is goed, maar een beetje common sense gebruiken kan ook geen kwaad.
Waarom is dat raar? Als ze de nieuwe serie goedkoper wegzetten, dan zal niemand nog de oude voorraden van de oude serie kopen (of tegen een lagere tarief dan nu). Om die reden moeten mensen die de nieuwe serie willen, de volle pond voor betalen ookal gaan ze mogelijk op papier achterruit in de benchmarks (die er nog niet zijn). En in de toekomst, weet Nvidia dat gamers bereid zijn om €1200/€1400,- uit te geven voor een videokaart.
Meer betalen voor minder... ik weet niet in welke wereld jij leeft.
Meer betalen voor minder... ik weet niet in welke wereld jij leeft.
Heb je nu alleen maar de eerste 4 woorden gelezen of wat?
uhh, de 2080 is sneller dan de 1080Ti, dus dan is de 2080 toch echt een betere optie (zelfs al zou die dezelfde snelheid hebben).
Maar het is geen 699 euro, het is 699 dollar (ex btw, invoerrechten etc), en dan gaat het dus niet over de FE, maar over de normale edition (die overigens niet altijd trager hoeft te zijn).

[Reactie gewijzigd door SuperDre op 28 juli 2024 05:23]

uhh, de 2080 is sneller dan de 1080Ti,
Heb je een link naar de benchmarks waar dat uit bljkt? Ben erg nieuwsgierig naar de prestaties namelijk :P
Alsof je de komende maanden een 2080 voor 699 kan kopen
Komende jaren vast wel ;) over 5 jaar is ie echt wel gezakt in prijs hoor
Een 1080Ti voor € 739 bij Coolblue is dan een betere optie dan een 2080 voor € 699.
Ahhh die logica begrijp ik niet, de Geforce GTX 2080 is hoogstwaarschijnlijk +/- 30% sneller dan de Geforce GTX 1080 Ti, net als de Geforce GTX 980 sneller is dan de GeForce GTX 780 Ti, en de Geforce GTX 1080 sneller is dan de Geforce GTX 980 Ti.

Dus waarom zou je dan gaan voor de Geforce GTX 1080 Ti die vanaf €734,- te koop is, wanneer de Geforce GTX 2080 vanaf de €700,- te koop is en dan ongeveer net zo duur is?

[Reactie gewijzigd door AmigaWolf op 28 juli 2024 05:23]

[...]
Geforce GTX 2080 is hoogstwaarschijnlijk +/- 30% sneller dan de Geforce GTX 1080 Ti
Waar is dat op gebaseerd? Ik zie elders heel andere voorspellingen:

RTX2080: 8% sneller dan GTX1080TI, 50% sneller dan GTX1080.
https://www.youtube.com/w...pA&feature=youtu.be&t=705
Omdat het bij die andere wel zo was, in ieder geval is de Geforce GTX 1080 +/- 30% sneller dan de Geforce GTX 980 Ti, dus ja dan ga ik vanuit dat de Geforce GTX 2080 ongeveer 30% sneller is dan de Geforce GTX 1080 Ti.


En het stond op Tweakers:

nieuws: Nvidia GeForce GTX 1080 is ongeveer 30 procent sneller dan 'stock' 98...

En ook hier:

https://wccftech.com/nviidia-gtx-1080-review-roundup/

En hier:

https://www.pcgamer.com/gtx-1080-review/

[Reactie gewijzigd door AmigaWolf op 28 juli 2024 05:23]

Wat een vorige generatie het geval was zegt niet veel over de huidige generatie. Zeker niet nu de halfgeleiderindustrie al geruime tijd tegen limieten vd wat van Moore aan begint te lopen.
Vind ik ook
Het is besproken, door Linus Tech Tips in de laatste WANShow dat de kaarten misschien wel het zelfde zijn als de 1000 serie, maar met Raytracing/Tensorcores er aan geplakt.
Let wel even op dat dit natuurlijk niet gebaseerd is voor feiten maar het is ergens wel een logisch verhaal.
Het idee hier is dat er te weinig druk is van concurentie (AMD) dat ze best weg kunnen komen met een wat uigebreidere 1000 serie zonder echt een nieuwe GPU uit te brengen. Dit bespaart natuurlijk belachelijk veel aan R&D voor een nieuwe achitectuur en consumenten kopen het toch wel als dit 'het beste' is.

Bron met timestamps;
https://youtu.be/Q3ZFRgZMdlA?t=1057
https://youtu.be/Q3ZFRgZMdlA?t=1147
Er zit wel nieuw geheugen in de kaarten. GDDR6 vs GDDR5x. Maar als de 20-serie een soort rebrand is dan zou het wel heel nasty zijn. Zou wel verklaren waarom er geen benchmarks zijn want die zouden direct laten zien dat deze nieuwe kaarten niet zo speciaal zijn.

Het zou me eigenlijk niet eens verbazen. Zou niet de eerste keer zijn dat Nvidia een smerige tactiek gebruikt om hun spul te verkopen.
Gelijkaardige prestaties zouden nog lang geen rebrand betekenen...
Dit is een compleet nieuwe architectuur die aan ge GPU gekoppeld is met nieuwe piepline, dit is alles behalve een rebrand...
Inderdaad, een rebrand is het niet. Maar performance hoeft ook weer niet sneller te zijn dan de 10-series. Kan niet wachten tot de eerste benchmarks uitkomen.
Nvidia, AMD, maakt in dit geval niet veel uit. Hoeveel rebrands van bv de 7970 zijn er wel niet geweest?

Vind alleen zelf de prijzen momenteel absurd, zeker door het nog niet beschikbaar stellen van Benchmarks. Er zijn dus mensen die zonder enige referentie deze kaarten gaan pre-orderen...
Vroeger reden auto's ook niet veel harder dan nu :+
De r&d kosten zijn uiteraard echt wel gemaakt. De nieuwe chipsets liggen gewoon 'op de plank'.
Bij gebrek aan concurrentie hoeft Nvidia gewoon niet meteen de meest vooruitstrevende designs op de markt te brengen. Die houdt je gewoon achter als 'buffer'.
AMD komt op zijn vroegst in Q1 2019 met nieuwe kaarten. Als daar een kaart tussen zit die het komende topmodel van Nvidia overtreft, dan heeft Nvidia wellicht meteen een antwoord.
Ja inderdaad helemaal niks ter vergelijking met de 10 serie.
Alleen de x keer sneller met deze (nieuwe) feature aan.
Alleen de x keer sneller met deze (nieuwe) feature aan.
Alleen als het wordt vergeleken met raytraced shaduwen en reflecties op huidige gpu's, maar op huidige gpu's wordt dat niet gedaan omdat het veel te traag zou zijn.

Dus gaat het erom hoeveel mooier games er uit zien die die feature wel ondersteunen: het is niet alsof we nu van geen schaduwen en reflecties gaan naar wel schaduwen en reflecties. Het is wel mooier maar niet wereldschokkend.
En wat dan de prestaties zijn: Shadow of the Tomb Raider is met die nieuwe feature niet veel sneller dan een 1080TI zonder die feature.
Waarschijnlijk wordt de stap van 10-serie naar 20-serie niet zo heel groot wat performance betreft. Gewoon dezelfde procentuele verbeteringen die we normaal ook zien. Raytracing zijn ze wel snel in, maar dat moet ook maar net ondersteund worden door games. Een beetje als Physx in het begin. Leuk als je kaart het ondersteunde maar het voegde niet perse wat toe.
Hun marketingfocus is ditmaal duidelijk ray tracing.
Ik denk dat je er niet te veel van moet verwachten. De naam RTX zegt het zelf al. Ik denk dat de architectuur dezelfde is gebleven met daarbij nieuwe features als Ray Tracing(RTX) en de Tensor cores. Anders had Nvidia ze wel GTX genoemd.

[Reactie gewijzigd door Fredi op 28 juli 2024 05:23]

Van wat ik gezien heb is de architectuur van de nieuwe kaarten toch wel behoorlijk anders. Het Turing platform is veel gespecialiseerder als de vroegere versies. Uiteindelijk worden beelden opgebouwd met een aantal gespecialiseerde rekeneenheden. Daarvan werden er twee bijzonder naar voren gehaald in de presentatie. Er is een gespecialiseerde AI eenheid, die bijvoorbeeld gebruikt wordt voor beeldoptimalisatie en beeldverbetering. Hier zit een machinelearning algoritme in. Als ik het allemaal goed begreep, want daar ging Nvidia behoorlijk de diepte in, wordt het algoritme al vooraf op een bepaald niveau gebracht, en kan specifieke dingen leren, voordat het in een Turingkaart wordt gebracht. De tweede belangrijke eenheid is de Raytracing eenheid. Die kan realtime raytracing toepassen, wat nieuw is. Wat mij, net als velen in de comments, benieuwd is, hoe snel deze nieuwe technologie beschikbaar is voor je oude spellen. Ik vind de nieuwe AI eenheid daarom net zo interessant, want met goede drivers, zou die ook upscaling van oude spelllen moeten kunnen betekenen.
Die kan realtime raytracing toepassen
Realtime sparse raytracing, wat artifacts met zich mee brengt, wat dmv AI denoising wordt opgepoetst.
hoe snel deze nieuwe technologie beschikbaar is voor je oude spellen.
Ik zou er niet op rekenen, het werkt alleen met DX12.
Dat vond ik ook vrij opmerkelijk, aan de andere kant vertrouw ik benchmarks van de fabrikant zelf ook niet altijd. Ik wacht dan liever de Youtube reviewers af.
Wel apart dat de kaarten nog gebruikmaken van HDMI 2.0b terwijl 2.1 er al is. 4K met 120fps, 8K met 60fps, verbeterde ondersteuning voor HDR en ondersteuning voor variabele framerates. HDMI 2.0 is inmiddels 5 jaar oud dus de nieuwe standaard mag ondertussen toch wel ingevoerd worden lijkt me.

En raar dat er geen 2060 is, of is de 2080TI eigenlijk een 2080 en is de 2070 eigenlijk een 2060? Verder geen kloksnelheden bekendgemaakt en er zijn geen benchmarks. Het begint apart met de 20-serie.

[Reactie gewijzigd door SomerenV op 28 juli 2024 05:23]

En raar dat er geen 2060 is, of is de 2080TI eigenlijk een 2080 en is de 2070 eigenlijk een 2060? Verder geen kloksnelheden bekendgemaakt en er zijn geen benchmarks. Het begint apart met de 20-serie.
Daar lijkt het wel op. Zal puur marketing zijn zodat de prijzen iets minder belachelijk hoog lijken vermoed ik.
Dat hebben ze bij de vorige generatie toch ook gedaan? Toen hebben ze toch ook pas een half jaar later ofzo de 1060 en 1050 uitgebracht
Klopt, bij initial release zijn alleen de "high end" kaarten beschikbaar. In dit geval 2070, 2080 en 2080Ti.

Maar naderhand (exacte datum of periode is altijd een vraag) komen de andere kaarten uit, denk aan 2060 en eventueel ook weer de 2050 series.
Nvidia heeft ze wel vrijgegeven maar de 3rd party fabrikanten nog niet. Overigens zijn de kloksnelheden die Nvidia heeft vrijgegeven niet zo heel spannend en redelijk in lijn met de huidige 10-serie.
Volgens mij is de 2.1 spec net af. Producten komen pas volgend jaar, denk ik, dus receivers, TVs etc.

Kan zijn dat je 4K apparaten met een firmware update deels 2.1 compliant kan maken, denk bv aan de Xbox met z'n adaptive sync.
LG zegt dat hun 2018 oled tv's compatible worden.
2060 komt gewoon nog hoor.
Alleen weer later. Ik verwacht dat deze dan ook geen RTX kaarten worden, maar gewoon weet GTX of een andere naamsvariant, vergelijkbaar met de RTX2070 alleen zonder Ray Tracing en wat minder performance.
Ze beginnen toch traditioneel met de 70/80 modellen? Dit lijkt me ook het leukste voor de fans/early adopters, die zitten niet te wachten op een midrange kaart. Een tijdje daarna komen de 60/50 modellen uit.

Qua HDMI, zou dat niet flashbaar zijn? Ik heb al wel een DP firmware op een Nvidia kaart geflashed.
Lijkt me toch logisch dat ze 2.1 niet uitbrengen?
Volgend jaar komen die, zodat mensen weer kunnen gaan kopen.
het is geen type C, het is VirtualLink, een tak van type C. dit is een VR connector voor de next gen VR headsets
Kun je daar wel een USB C display op aan sluiten? (oftewel maakt dit de USB standaard nog verwarrender of niet)
Het is wel een type C.
Standard Display Connectors:
DisplayPort, HDMI, USB Type-C

Designed for USB Type-C™ and VirtualLink:
Yes
Ik zie het ook, in de eerste link van EVGA, onderin bij de specs. Wel even melden waar je het vind hè, want anders heb je er nog niets aan om te quoten.

Blijft een beetje dure optie om je PC uit te breiden met USB-C, zo'n controllerkaartje :)

[Reactie gewijzigd door uiltje op 28 juli 2024 05:23]

Kan je beter in je origineel editen, maar dank voor de link... Ik zou kunnen zeggen: "mooi dat er nu twee keer gequote kan worden", maar ik vermoed dat EVGA het wel eens verbatim overgenomen zou kunnen hebben...
nee volgens mij niet. hij heeft wel USB 3.1 gen 2 lanes maar exclusief voor VR. hier les je er meer over
om nog maar te zwijgen dat je nog een andere kabel hebt met de zelfde connector die maar 1 ding kan.

USB C kabels
USB 2.0 of 3.0/1 of 3.2
TB3 actief of passief
HDMI / displayport.
stroom van 2.5W naar 100W

Van al deze versie's zijn er combinaties en de kabels zijn niet tot amper te onderscheiden van elkaar.
Idem voor de poorten op apperaten.
En de goede kabels die kosten bij 100 euro's tof ze.

1 van de externe op het werk heeft een dell xps gekregen die enkel type C heeft maar elke poort doet wel iets anders.
1 poort is een laad poort.
1 is usb en de andere thunderbolt.
Met gevolg die thunderbolt wordt niet gebruikt en aan de andere hangt constant een hub (welk ook hit or miss zijn aangezien niet elke hub werkt op elke usbc poort)

Wat moets die standaard vergemakkelijke en het is niet gebruikers gemak
enkel het productie procces moeten maar 1 type connector op stock hebben.

Houdt mijn handen vast eens dit gemeengoed wordt ,kan dan iemand extra aannemen voor de helpdesk usb C issue's

[Reactie gewijzigd door Xeon_1 op 28 juli 2024 05:23]

Maarja, wel maar 1 kabel in plaats van allemaal losse kabels.. Ook bij 'normale' USB kabels zit er een hoop verschil tussen (vooral voor gebruik bij opladen).
Wanneer kunnen we revieuws verwachten ?
Waarschijnlijk 20 september, dat is de release date en ik denk dat de review embargo dan ook eindigd.
Als er een embargo eindigt op een releasedate dan krijg ik automatisch argwaan. Als je echt gelooft in je product dan zorg je dat de reviews al ruim voor de release online staan om de pre-orders nog een beetje te boosten. Bij games zie je meestal dat vooral slechte games een embargo hebben op de dag van de release.
Dit zijn standaard praktijken in de hardware industrie. Ik zeg niet dat het goed is, maar dit is standaard. AMD, Nvidia, Intel, etc ze doen het allemaal.
Ik gok dat het embargo minstens een week vroeger eindigt, om de hype wat op te bouwen...
2 weken terug mijn 1080Ti gehaald voor 800. stiekem toch wel blij dat ik dit heb gedaan. de prijzen voor de RTX kaarten doen pijn aan mijn budget. vooral de 2080ti. misschien over een jaar of 2 tweedehands kopen, maar voor nu doe ik het met wat ik heb :)
Ik wacht wel even tot de RTX kaarten in de schappen liggen voordat ik een 1080Ti aanschaf.
dat was ook mijn eerste intentie. tot een vriend van me mijn oude gpu wilde overkopen en ik stiekem wel een 1080ti wilde. wel ben ik benieuwd naar de prestaties van 20xx
Aan de Cuda cores en clockspeed te zien, de best case scenario zou wel rond 15% zijn. Realiteit zou waarschijnlijk lager zijn.

Tenzij je Raytracing en/of DLSS Anti Aliasing gebruikt, dan zou de 2080 Ti ontzettend veel beter zijn.
zo te zien ziet RTX relay er niet geweldig uit qua performance atm. ze halen maar liefst 30-60 fps op 1080p
source: https://www.youtube.com/watch?v=mlKGctu7OC8

nu is het allemaal nog vroeg en kloppen de drivers misschien niet, maar wie weet. Battlefield 5 presteerde hetzeflde: https://www.reddit.com/r/...ce=reddit&utm_name=nvidia
Met deze prijzen mag je bijna hopen dat de prijzen niet omhoog gaan, omdat er meer vraag is naar 1080ti's 8)7
Nouja, voor 49 euro meer koop je dus de 2080 FE versie, die iets sneller is dan de 1080Ti, wel RTX opties heeft, en een virtuallink connector... Waarschijnlijk verbruikt die ook nog minder..
Ik zou dus 'stiekem' best wel balen, het is namelijk al veel geld die 800 euro, en dan voor een bietje meer snel 1tje die sneller en nieuwere functionaliteiten heeft (en daarmee dus langer mee gaat)......
daar heb je een punt. maar daar heb ik over na gedacht. ik heb me een EVGA aangeschaft, stel ik zou een 2080(ti) willen en EVGA ondersteund het, kan ik via het step-up program altijd nog overstappen :)
ach zo.. maarja verkoop via marktplaats kan dan nog gunstiger zijn.
Ik wil er een maar jammer dat 3xdp niet standaard is. Ik wil triple monitor 4k gaan draaien (desktop niet gaming) maar keus is dan belerkt of kan je tegenwoordig met hdmi 60hz halen?

Kan dus gewoon nevermind zie https://www.ruconnected.nl/4k-hdmi-kabel/

[Reactie gewijzigd door TweakerVincent op 28 juli 2024 05:23]

Ik draai 4K 10 bit HDR 4/4/4 via hdmi. Alleen moet je hdmi kabel voldoende capaciteit hebben. De enige die ik ken is die van belkin (48gbit)
Dat doe je dan op 30 Hz. 4K @ 60 Hz + 10 bit HDR + 4:4:4 chroma subsampling is namelijk onmogelijk met HDMI 2.0b. HDMI 2.0b is immers gelimiteerd tot 18 Gbps bandbreedte terwijl bovenstaande configuratie 22.28 Gbps bandbreedte nodig heeft. Hier gaat geen enkele kabel verandering in brengen, het is een HDMI 2.0(a/b) limitatie. Ik vind het daarom ook zeer treurig dat Nvidia geen HDMI 2.1 op deze generatie zet. Ze reppen over de toekomst met Raytricing maar implementeren een oude HDMI standaard met enorme achilleshiel. Maargoed dit komt voornamelijk doordat HDMI sterk achterloopt (op Displayport) en te traag ontwikkeld wordt. Maarja alles voor DHCP beveiliging en royalties..

4K 60 4:4:4 (no HDR) = 17.82Gbps
4K 30 4:4:4 10b-HDR (no 60fps) = 11.14Gbps
4K 60 4:2:2 10b-HDR (no 4:4:4) = 17.82Gbps
4K 60 4:4:4 10b-HDR = 22.28Gbps

[Reactie gewijzigd door stin00 op 28 juli 2024 05:23]

Dat komt weer door het feit dat er nog geen HDMI 2.1 chipset beschikbaar is. Dat kun je Nvidia niet kwalijk nemen.
De nieuwe televisies van o.a. LG met zijn Oled schermen hebben ook allemaal nog steeds HDMI 2.0b. Hetzelfde geldt voor de nieuwe receivers van o.a. Denon.
De Yamaha’s RX-V385 (instap receiver) ondersteunt HDMI 2.1
Gewoon een ontwerpkeuze van fabrikanten. Denon had wel kunnen wachten en HDMI 2.1 toevoegen, maar wellicht de afweging gemaakt om het volgend jaar toe te gaan voegen aan haar receivers. HDMI 2.1 voegt buiten eARC om echt niks toe op videogebied voor tv en console gaming. Voor PC gaming wellicht wel, maar hoeveel pc gebruikers gebruiken een receiver.
Dat is niet correct.
De Yamaha ondersteund alleen eArc, middels een toekomstige firmware update. 4K120, 8K60, dynamic HDR, VRR etc. zal hij nooit gaan ondersteunen omdat hij niet beschikt over de HDMI2.1 chipset en dus gewoon over onvoldoende bandbreedte beschikt.
Waarschuwing aan mensen: Trap niet in de halve HDMI 2.1 specs van fabrikanten. Behalve eArc zul je nooit kunnen beschikken over de volledige HDMI 2.1 functionaliteit.

Bron.

[Reactie gewijzigd door Nyarlathotep op 28 juli 2024 05:23]

Ah k, thnx voor de info! :*)
Nevermind? Dan willen we weten hoe je dat uitgevonden hebt ook natuurlijk!
https://www.ruconnected.nl/4k-hdmi-kabel/

Hier wordt eea uitgelegd. Ik weet alleen niet of mijn monitor 12 bit gebruikt of 10/8? Want dan heb je wel een probleem
De kans dat je monitor 12 bit kleurdiepte gebruikt acht ik nagenoeg nul. Als je monitor over de duizend euro kostte kan je hier het model plaatsen. Ik zou je adres er niet bijzetten :P

[Reactie gewijzigd door uiltje op 28 juli 2024 05:23]

Ik heb het gevoel dat na het GPP veel mensen zijn afgeknapt op Nvidia. Toen zelfs Linus van LTT zei dat hij niet meer meedoet aan het berichten over het "lekken van informatie" en gecontroleerd marketing adhv "allerlei soorten embargos" was ik wel tevreden. Continue gratis marketing voor dat soort bedrijven zonder dat je daar geld voor krijgt. Hij zei het gewoon straight up, als je reclame wilt dan moet je me ervoor betalen. Klaar punt uit. Dit standpunt mogen wel meer "tech-journalisten" volgen naar mijn mening.
Toen zelfs Linus van LTT zei dat hij niet meer meedoet aan het berichten over het "lekken van informatie" en gecontroleerd marketing adhv "allerlei soorten embargos" was ik wel tevreden. Continue gratis marketing voor dat soort bedrijven zonder dat je daar geld voor krijgt. Hij zei het gewoon straight up, als je reclame wilt dan moet je me ervoor betalen. Klaar punt uit.
Heb je een linkje voor me? Ben eerlijk gezegd wel benieuwd hiernaar.
https://youtu.be/Q3ZFRgZMdlA?t=1h3m40s

Hij heeft het er wel vaker over. Maar in deze aflevering heeft hij het een paar keer benadrukt.

[Reactie gewijzigd door DanafromGhana op 28 juli 2024 05:23]

Waarom zouden mensen afgeknapt zijn? Men verwachte al dat de prijzen een stuk hoger liggen, en ik zie hier en daar toch behoorlijk wat mensen enthousiast aangeven dat ze al een preorder nu hebben staan.
En tja 'linus' zegt...... Bedenk je wel dat hij er ook commerciele motieven voor kan hebben.
"Commerciële motieven"

Dat is toch precies waar het om gaat en hij tracht duidelijk te maken, maar niet op de negatieve toon waar jij op doelt. Hij zegt gewoon ik doe niet aan gratis reclame en laat zich niet meer bespelen. Als het een reclame betreft betaal me dan gewoon en ik zal dit dan ook disclosen in het video als paid advertisement. Zo hoort het en niet anders. Het gecontroleerd lekken via influencers begint nu wel door de mand te vallen. Maar goed, ik ben sceptisch over deze kaarten. Twee maanden geleden werd nog gezegd dat de nieuwe generatie nog lang op zich zal laten wachten. Laten we eerst de prestaties maar even afwachten en dan praten we wel verder zou ik zeggen.

Tevens heeft het afknappen niks met prijs te maken, maar met de schandalige praktijken die er gebruikt worden door Nvidia en die uiteindelijk schade hebben toegebracht aan hun imago. Ik heb het nimmer en nooit over de prijzen gehad. Dus geen idee of je op een verkeerde thread hebt gereageerd of gewoon een misplaatste aanname maakte.

[Reactie gewijzigd door DanafromGhana op 28 juli 2024 05:23]

Welke schadelijke praktijken, want dat indertijd van dat ze zogenaamd fabrikanten bepaalde lijnen alleen aan hun mochten koppelen interesseert werkelijk niemand wat (behalve dan sommige tweakers), en zijn de meeste mensen sowieso al vergeten.
Wat denk je zelf? Wat denk je dat het doel was van Nvidia om GPP publiekelijk terug te trekken?
Het gaat dan echt om een hele kleine groep uiteindelijk die zich daar echt druk om maken, de rest interesseert het zich geen reet hoe men het beestje nu noemt, productlijnen veranderen vaak genoeg van naam..
Ik meen je vraag beantwoord te hebben. De omvang van deze praktijken is irrelevant aan jouw oorspronkelijke vraagstelling. Wel voeg ik eraan toe dat deze voor Nvidia wel van een zodanige omvang was dat ze een dergelijk drastisch besluit hebben genomen omtrent het GPP.

[Reactie gewijzigd door DanafromGhana op 28 juli 2024 05:23]

Ik adviseer om nieuwe kaarten nooit bij de introductie te kopen. Na de eerste 3 maanden droppen de prijzen als een baksteen. En inderdaad.... eerst benchmarks en dan kunnen we zien wat de waarde van deze kaarten zijn.
Ik zit even in de pricewatch te kijken maar voor de 1000-serie zie ik helemaal niet dat na een paar maanden de prijzen als een baksteen dropten. Alleen de 1080 zakte significant in prijs toen de Ti om de hoek kwam kijken. En dat effect gaan we deze keer niet zien (was dat misschien wel een reden om de 2080 en de 2080 Ti tegelijk uit te brengen vraag ik me ineens af).

Nu kan je opvoeren dat dat iets met de crypto mining boom te maken had, maar ik denk dat het eerder komt door het gebrek aan concurrentie icm graaien van de fabrikanten/retailers. En dat effect gaan we nu weer zien ben ik bang. Ik denk dat je blij mag zijn als de duurste varianten over 3 maanden 100-150 euro minder kosten dan de early-adopter prijzen die nu opduiken. En dan zit je nog dik boven de 1000 euro =\
Nou, jouw uitspraak klopt zeker voor de 10xx generatie voor geen meter, want ipv droppen als een baksteen, waren ze enorm gestegen, pas NU komen ze weer eindelijk terug naar de originele adviesprijzen 8)7
Ik vraag me ook af wanneer de benchmarks gaan komen. Ikzelf heb de indruk dat de kaarten sneller gaan zijn in raytracing (wat logisch is) dan de vorige gtx 1080ti. Hun hele presentatie ging dan ook nagenoeg alleen over raytracing zonder ook maar één woord te zeggen over de performance in games t.o.v. de vorige generatie kaarten. Het kan dus twee kanten uit: de kaarten zijn veel sneller in raytracing (waar we nu nog niks aan hebben) of ze zijn zowel in raytracing als in gameperformance veel sneller dan de vorige generatie.

Ik vrees dat het optie één gaat zijn.
Raytracing wordt niet ondersteund door de oudere kaarten, dus ja daarin gaan de 2000 kaarten veel sneller zijn.

Verwacht als je het verschil in cuda cores, clocksnelheid etc ziet dat performance verschil 1080 > 2080 een 15-20% is. Zelfde zal gelden voor 1080 Ti > 2080 Ti.
Verwacht dat dit ook de reden is waarom er niets over gerept is in de presentatie, uiteindelijk is de raytracing implementatie leuk maar dit staat nog echt in de kinderschoenen..... Kennen we de Physics kaarten nog van zo'n 10 jaar geleden?.

Dit krijg je als er geen echte concurrentie op het highend vlak is helaas.
Bovendien is de ray tracing implementatie onderdeel van nVidia GameWorks :X
Gebruiken ze niet gewoon de DX12 raytracing?

Edit: hmm inderdaad
At GDC 2018 on Monday, Microsoft introduced a new “DirectX Raytracing” (DXR) feature for Windows 10’s DirectX 12 graphics API.

To coincide with the announcement, Nvidia announced “RTX technology” for enhanced DXR support in upcoming graphics cards, as well as new ray tracing tools for its GameWorks library that can help developers deploy the technology faster. Likewise, AMD said it’s “collaborating with Microsoft to help define, refine and support the future of DirectX 12 and ray tracing.” And top gaming engines like Unity, Unreal, and Frostbite are already planning to integrate DirectX Raytracing.

[Reactie gewijzigd door Loggedinasroot op 28 juli 2024 05:23]

Ik neem aan dat het ook gewoon in de graphics API's wordt toegevoegd. Het is erg toevallig dat Direct3D12 sinds mei ook raytracing ondersteunt(https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/).
Die ray tracing implementatie kan dus ook gewoon door de raytracing functionaliteiten van DirectX 12 gebruikt gaan worden, dus niet exclusief voor GameWorks.. en als ik een nvidia kaart heb, dan zal het mij een rotzorg zijn of dat nu via gameworks gaat of rechtstreeks via directx.
15% - 20% is wel heel erg optimistisch.

Op dit item kan niet meer gereageerd worden.