3DMark Time Spy-resultaten van vermoedelijk GeForce RTX 2080 verschijnen online

In de database van 3DMark staan benchmarkresultaten een Nvidia GeForce RTX-kaart. De kaart wordt niet met naam genoemd, maar het gaat waarschijnlijk om de RTX 2080. In de Time Spy-benchmark is de kaart sneller dan de GTX 1080 Ti.

De kaart haalt een graphics-score van 10.030 en 10.100 punten in de Time Spy-benchmark. Daarmee is de videokaart in de betreffende benchmark iets sneller dan de GTX 1080 Ti Founders Edition. In de review van Tweakers haalde die kaart 9405 punten in dezelfde benchmark. De GTX 1080 haalde 7201 punten.

In de 3DMark-database staat de videokaart niet met naam genoemd, maar afgaande op de 8GB vram en de geheugensnelheid van effectief 14GBit/s, is op te maken dat het gaat om de RTX 2080 of de RTX 2070. Het lijkt niet aannemelijk dat de score toebehoort aan laatstgenoemde videokaart.

Afgaande op de Time Spy-resultaten lijkt de RTX 2080 zo'n 40 procent sneller te zijn dan de GTX 1080. Of dat ook voor andere benchmarks en in games geldt, is nog niet duidelijk. Nvidia claimde eerder dat de nieuwe videokaart in games ongeveer anderhalf keer zo snel is als zijn voorganger.

Of de getoonde Time Spy-score representatief zijn, is nog niet met zekerheid te zeggen. Het is niet bekend hoeveel cores er actief zijn en of bijvoorbeeld de tensorcores en cores voor raytracing aan het werk worden gezet. Ook kan de driver nog een bèta zijn.

UL, de maker van 3DMark, heeft aangegeven dat er in september een raytracingversie van de Time Spy-benchmark uitkomt. Waarschijnlijk worden in ieder geval daarmee de RT-cores van de RTX-kaarten aan het werk gezet.

Nvidia GeForce RTX 2080 Founders Edition

Door Julian Huijbregts

Nieuwsredacteur

28-08-2018 • 17:24

80

Reacties (80)

80
77
50
5
0
20
Wijzig sortering
Anoniem: 221563 28 augustus 2018 17:45
Is dat met of zonder DLSS? Gezien de meeste performance winst daarin lijkt te liggen.
Anoniem: 1071831 28 augustus 2018 18:32
Valt tegen, een GTX 1080 en 1080TI is nog steeds de beste koop en straks als de prijzen zakken helemaal. HWI had al het een en ander gehoord dat retailers nog gigantische voorraden hadden van de 1000 serie, dus als de 2000 serie daadwerkelijk te koop is raad ik iedereen aan die te laten liggen en voor een veel goedkopere 1000 serie kaart te gaan de prijzen zullen snel zakken namelijk.

RT in games is er nog niet en tegen de tijd dat het ‘echte’ Ray Tracing te zien is in games is de 2000 serie alweer ouderwets, en hoogswaarschijnlijk is alleen de 2080TI sneller dan de 1000 serie.

Mah ik zelf heb sinds vandaag een Vega 56 dus gaat daar eerst even mee spelen. ;)

[Reactie gewijzigd door Anoniem: 1071831 op 28 juli 2024 22:26]

Voor hoeveel als ik vragen mag? Zie veel aantrekkelijke aanbiedingen omtrent de vega kaarten. En als ik zo naar de benchmarks kijk, zit het met de performance ook wel prima nu.

[Reactie gewijzigd door Anoniem: 1026419 op 28 juli 2024 22:26]

Sapphire RX Vega 56 nitro+ voor €459.
Sweet :Y)
Ik hoop niet dat jij dat iedereen aanraadt, want dan is de vraag hoog naar die "oude" kaarten en zal de prijs niet veel gaan dalen :P (marktwerking)

Ik hoop eigenlijk dat je het niemand verteld zodat alleen enkele tweakers voor weinig een "oude" kaart kunnen kopen. (en nu duimen dat "iedereen" naar jou luistert :X )
Of je kunt tegen die tijd heel goedkoop een nieuwe kaart kopen, als iedereen de oude koopt :P (marktwerking)
Of je wacht tot de RTX-kaarten wat normalere prijzen gaan krijgen.
Als games ondersteuning hebben voor Deep Learning Super Sampling, DLSS, dan kan het verschil oplopen tot twee keer. Met DLSS gebruikt de RTX 2080 de Tensor-kernen voor kunstmatige intelligentie om pixels te interpoleren om zo sneller frames op het scherm te kunnen tonen.
Dat is natuurlijk wel een enorm verschil.
In tegenstelling van iedereen zijn nwha heb ik juist weer zo iets van YES!
Waarom hoor ik je vragen:
Dit is hoogstwaarschijnlijk een beta driver en de spellen zijn nog niet goed geoptimaliseerd voor deze nieuwe generatie kaarten.
Waaruit ik kan concluderen dat eigenlijk de benchmarkt (noch dat het maar waarschijnlijk om een RTX-kaart gaat, zou zomaar is de RTX-2070 zijn) nog niet de juiste resultaten kan leveren.

Die RT-core, daar ben ik pas echt benieuwd naar.
Hopelijk is dit net zoals de PPU die bij de GPU toen der tijd bij werd gedaan, dit maakte het veel toffer om te gamen:
Je ziet vlaggen wapperen, water word veel realistischer weergegeven en ga zo maar door.
Als die RT-core weerkaatsingen van licht kan genereren (en geloof mij dat zijn pas bizar veel berekeningen), dan zie ik wel in waarom je voor deze beter kan kiezen dan de huidige generatie.

Ik denk dat wij niet specifiek alleen maar naar de snelheden moeten kijken, maar eerder naar de beelden die kunnen gegenereerd worden. is het mooier, komt de HDR beter tot zijn recht? Is 4K speelbaar (met of zonder HDR en op 144Hz maximaal te behalen)?
Zo ja (en de huidige generatie trekt dat niet?)? Heb je weer een reden om toch voor de nieuwe kaart te kiezen (of te upgraden).
Net niet of toch helemaal niet? dan is dit inderdaad een nutteloze upgrade ;)
Wat ik overigens niet verwacht eerlijk gezegd!

Je ziet alleen maar verwachtingen en dat de kaart ' maar' 1,5x sneller is.
Tegenwoordig vind ik niet echt dat er super veel vooruitgang geboekt word, vroeger ging het vele malen sneller en tegenwoordig heb je minimale verschil in kracht. Wel dan weer dat het minder stroom nodig heeft etc.
Intel is ook in mijn ogen niet bepaald veel sneller geworden (heb de I7-2600, 3e generatie). deze is niet gek veel 'slechter' dan de nieuwste generatie (al weer op de 8e).
Vroeger had je een wereld van verschil tussen de generaties en die is nu ook minimaal. toen was mijn CPU ook de bottleneck voor mijn nieuwe (toen der tijd) videokaart.
Dus als ze met wat optimalisatie nog 800 punten weten te vinden dan is hun claim van anderhalf keer gelukt. Best netjes denk ik?
Best netjes?

Het mooie van een nieuwe generatie is dat prestaties naar een lager prijspeil komen.
Wat Nvidia nu heeft gedaan is dezelfde prestaties naar hetzelfde prijspeil brengen. En dat na 2 jaar (!).

Als een RTX2080 en een GTX1080Ti hetzelfde scoren én bijna hetzelfde kosten, dan gaat er iets mis imho.

Maar Nvidia heeft natuurlijk vol ingezet op RTX, om nog iets onderscheidends te bieden.
RTX is natuurlijk een mooi stuk techniek maar met een 4k beeldscherm heb je er nog weinig aan..(aan de reeks nieuwe kaarten)
Ik denk dat zelfs op een 1080p scherm de kaarten het veel te zwaar gaan krijgen met RayTracing aan. Het lijkt wel op de periode toen de 1e dx 10 kaarten uitkwamen.

https://www.anandtech.com...80-ti-realtime-raytracing
Ja zou kunnen inderdaad. Ik heb het nieuws bericht dat jij hebt gelinkt niet gelezen. Wel las ik ergens (bron vergeten, was vanuit google now of how dat tegenwoordig ook heet) dat de game onwijs veel schommelde tussen 25-60fps.
Klopt, ook op 1080p had de framerate het er erg moeilijk mee.
kwa prijs heb je gelijk wacht maar totdat de benchmarks komen.Zij claimen dat de kaart 1,5 maal sneller is dan de 1080 en titan xp.Het enigste verschil wat deze nieuwe 2080 heeft is de realtime rateracing techniek.Wat bij sommige games al gebruik van maken.Voor de rest moeten we het zien we zullen op de nieuwe benchmarks moeten wachten.Enne heironder 4 k kan deze kaart makkelijk aan.
Tevens weet deze kaart hoge framerates te halen
Zij claimen dat de kaart 1,5 maal sneller is
in door henzelf zorgvuldig uitgekozen en geconfigureerde benchmarks om de 1080 er zo slecht mogelijk uit te laten zien. bijvoorbeeld de 4k resolutie waar de 1080 gewoon niet de bandbreedte voor heeft, of HDR aan zetten waar mogelijk, waarbij pascal een performance hit heeft in een aantal games (en kijk, precies de games waar het aan staat... maar is vast toeval).

het enige wat we dus aan die slide van nvidia kunnen afleiden is dat de 2080 meer geheugen bandbreedte heeft (ongeveer 50%? goh, wat toevallig) en dat ze de performance hit van HDR hebben gefixed.

[Reactie gewijzigd door Countess op 28 juli 2024 22:26]

Ook wel misschien is die trx2080 een opgevoerde gtx1080ti?
Ander naam geven en dan zeggen kijk verbeterd 1080 met 1.5 prestatie.. :+
Nee, want dat ding wordt duurder dan de 1080ti die ook 40% hoger scoort dan de 1080. Heel leuk dat de maximaal haalbare prestaties worden verhoogd met de 2080ti maar verder schiet je met deze generatie dus nauwelijks wat op. Het is natuurlijk wachten op de daadwerkelijke benchmarks maar ik verwacht er niet veel van.
Prijs van de 2080 is iets meer dan een 1080ti, je moet wel gek zijn om dan nu nog een 1080ti te kopen. Op gebied van prestatie net iets meer, totdat je rt gaat gebruiken, dan is het visuele aspect een stuk mooier...
Tot je je realiseert dat je dan met je peperdure RTX2080 en 35 FPS op 1080p zit. Bedankt, ray tracing generatie 0! Wel makkelijk, kan je de kosten nog een beetje drukken met je 8 jaar oude 1080p 60hz scherm.

[Reactie gewijzigd door Grotbewoner op 28 juli 2024 22:26]

Ik snap eerlijk gezegd ook niet dat dit voor games gemarket wordt. Voor animatiestudios en filmstudios is deze techniek ecbt geweldig, zeker omdat ze voorheen uren of dagen per frame nodig hadden om te renderen en dat nu dus in real-time kan. Voor games is het nu nog niet zo interessant.
Dat kan echt niet in real time... Anders kregen we nu games met de kwaliteit van die animaties en dat is niet zo.
Die gaan niet voor de 20xx range, die gaan gewoon voor de professionele range, die nog een stuk beter/sneller is (maar wel duurder, maar voor die bedrijven maakt dat niets uit).
Anoniem: 1026419 @SuperDre29 augustus 2018 09:23
En zakt je framerate naar niveau onspeelbaar.
Prijs van de 2080 is iets meer dan een 1080ti, je moet wel gek zijn om dan nu nog een 1080ti te kopen. Op gebied van prestatie net iets meer, totdat je rt gaat gebruiken, dan is het visuele aspect een stuk mooier...
Ja en wanneer komen die RT games?

Precies dat kan nog jaren duren, en dan is de verschil zo te zien tussen de Geforce GTX 1080 Ti en Geforce RTX 2080 bijna niks, maar ja als je een oudere kaart heb zou ik ook eerder gaan voor de Geforce RTX 2080 dan de Geforce GTX 1080 Ti als de prijs bijna het zelfde is.
De prijs is nu hetzelfde, maar de 1080ti zal waarschijnlijk nog wel dalen in prijs
Dat denk ik ook ja, zo als ik zij
als de prijs bijna het zelfde is
Dus als de Geforce GTX 1080 Ti veel goedkoper woorden en bijna net zo snel is als de Geforce RTX 2080, zou ik gaan voor de Geforce GTX 1080 Ti.
Dan moet die wel een heel stuk goedkoper worden, want vergeet niet dat de RTX dus ook nieuwere features heeft waarmee je dus langer weer door kunt gaan. Dus als het verschil hooguit 100 euro is, dan zou ik eerder voor de 2080 gaan dan de 1080ti (met het oog dus dat ik de komende jaren geen andere videokaart zou gaan kopen). Mogelijk dat het verbruik van de 2080 ook nog iets lager ligt (geen idee hoor, heb nog niet naar die specs gekeken).
Jaren? de komende AAA games ondersteunen het gewoon. En als je je models/materials al goed hebt gebruikt, dan is het bij oa UnrealEngine gewoon een kwestie van een toggle aan/uit zetten.
Ja nog een jaar of jaren aangezien er niks uit komt wat er 100% van gebruik maakt de eerste 12 maanden, wat ik gelezen heb.
Battlefield 5 die binnenkort uit komt ondersteunt het gewoon.
Ja dus voor een spel, en volgende jaar nog 2 ga je zo een enorme dure kaart kopen, om 3 spellen te spellen met RT.

Weet zeker dat de Geforce GTX 1080 Ti een stuk goedkoper woorden als de Geforce RTX 2080 uit komt, en nee dan zijn het die 3 spellen niet waard.
Nou, bij de 9xx generatie was het ook niet dat die een stuk goedkoper werden, vergeet niet dat de nieuwe kaarten sowieso hoger geprijst zijn dan de huidige generatie waardoor er niet echt een noodzaak is om de prijs van de huidige generatie ver te laten zakken. Ik verwacht eigenlijk dat op korte termijn de 1080ti niet veel goedkoper gaat worden dan dat die nu is, maximaal 100 euro goedkoper, en in dat geval zou ikzelf niet gaan kiezen voor de 1080ti maar voor de 2080 omdat die dus weer wat meer futureproof is (ook vanwege de extra nieuwe connectors etc). En er komen nog wel heel veel meer spellen uit die rtx ondersteunen, zoals ik al zei, als je je models/materials nu al goed gebruikt (in oa UnrealEngine4), dan hoef je eigenlijk niets te doen om baat te hebben bij RTX. Er komen nog wel heel wat meer spellen uit dan die bf5, tomb raider en Metro exodus binnen het komende jaar.
Dus de 2080 is uit de op dit moment gelekte benchmarks wat sneller (waarbij de benchmarks dus vaak nog niet de nieuwe opties gebruiken die performance ook nog kunnen verbeteren), en schijnt ook nog zuiniger te zijn. Op dit moment via nvidia zelf kost de 1080ti 759 euro(niet op voorraad), en de 2080FE 849 euro, das dus 90 euro verschil, dan leg ik toch echt wel die 90 euro extra neer om wat meer op de toekomst voorbereid te zijn, ik ga niet elk jaar een nieuwe kaart kopen (mijn huidige kaart is nog de 760 zelfs, maar vind de 1060 6GB gewoon veel te duur voor een IMHO nog niet eens midrange kaart).

(ik zou zelf dus nooit zoveel geld uitgeven voor een videokaart hoor, maar als ik het toch zou doen dus, dan zou mij die 90 euro extra niet uitmaken, 150+ euro weer wel).

[Reactie gewijzigd door SuperDre op 28 juli 2024 22:26]

Als het €100,- goedkoper is en de benchmarks klopt dat de Geforce RTX 2080 bijna niks sneller is dan de Geforce GTX 1080 Ti, zou ik ook gaan voor de Geforce GTX 1080 Ti, als ik niet al een Geforce GTX 1080 had.

En wat is future proof???

Ja 2 of 3 jaar of langer doen met je Geforce RTX 2080 dan kan je misschien eindelijk een redelijk hoeveelheid RT spellen spellen, maar de eerste jaar komt er bijna niks uit, ja 3 a 4.

Een hand vol spellen is een RT kaart niet waard, ook omdat de meeste mensen alle spellen niet leuk vinden, er moet dan toevallig meerdere RT spellen uit komen die jij leuk vind, en zelfs Nvidia zij dat de Geforce RTX 2080 een goede 4k 60fps kaart is, en het leuke is dat kan de Geforce GTX 1080 Ti ook, en daarom met alles wat uitgelekt is en zelf door Nvidia gezegd is lijkt het er op dat hij ongeveer net zo snel is als de Geforce GTX 1080 Ti, wat ik al zij, zo lang er niet een grote hoeveelheid RT spellen zijn is het de €100,- of meer niet waard wat de Geforce RTX 2080 meer gaat kosten dan de Geforce GTX 1080 Ti, omdat de Geforce GTX 1080 Ti dan goedkoper woord.

[Reactie gewijzigd door AmigaWolf op 28 juli 2024 22:26]

Maar de 2080 is minder dan 100 euro duurder, de 2080 FE is nu in preorder by nvidia zelf 849, terwijl de 1080ti gemiddeld tussen de 790 en 900 euro ligt (als ik naar pricewatch kijk)..
En er zitten meer verbeteringen aan dan alleen RT, oa ook een virtualink connector. Je moet wel echt getikt zijn om nog een 1080ti te gaan kopen als je voor een stuk minder dan 100 euro een 2080 kunt krijgen. Maargoed, je moet zelf weten natuurlijk. Ik zou in iedergeval zeker op dit moment nog geen 1080ti gaan kopen.
Wat kan mij de gemiddelde schelen, meeste mensen die zulke kaarten kopen kijken naar prijs eerst, en dan de extra's die misschien je kan krijgen met een nog duurdere Geforce GTX 1080 Ti, je hebt al een Geforce GTX 1080 Ti voor €719,- in Nederland, en dat is eentje die OC is en 3 fans heeft, geen simpele, je hebt al meerdere voor in de 700 euro, en 15 stuks onder de €790,- noem ik niet een paar.

Ow wow er zit een VirtualLink connector op, ja leuk voor de 0,1% van de mensen die een VR bril hebben voor hun PC, wat tot nu toe een flop is (VR).

Turlijk zou ik ook wachten tot ze uitgekomen zijn, maar van wat alles wat al uitgelekt is en door Nvidia verteld is, is de Geforce RTX 2080 niet veel bijzonders, niet zo als toen met de Geforce GTX 980 en Geforce GTX 1080, en natuurlijk de absurd hoge prijs €850 voor de Geforce RTX 2080 en €1200 voor de Geforce RTX 2080, "ja maar dat komt door nieuwere techniek" ow vreemd hadden die andere Geforce kaarten dat dan niet?

[Reactie gewijzigd door AmigaWolf op 28 juli 2024 22:26]

VR is helemaal geen flop tot nu toe, en die VirtualLink is niet alleen bedoeld voor VR, maar ook om dadelijk gewoon monitoren rechtstreeks op aan te sluiten.
Er zijn amper VR brillen verkocht voor de PC en playstation, ja het is tot nu toe zeker een flop.

Was zelf een stuk van op Tweakers.
Het is maar wat je amper noemt, zeker gezien de beschikbaarheid van software en de prijs van headsets (niet iedereen heeft het geld om de prijs van een extra console neer te kunnen leggen).
Nee, deze ronde van VR is verre van een flop hoor.
In de wereld van nu betekent iets a hit wanneer het vele miljoenen is, en niet wat er nu in die jaren verkocht is.

En wat ik al zij op Tweakers van de tegenvallende verkoop van VR.

nieuws: Aantal geleverde vr- en ar-headsets daalt fors

nieuws: Sony heeft meer dan een miljoen exemplaren van de PlayStation VR verk...

En er zijn heel veel mensen die een Geforce GTX 1060 hebben gekocht om mee te gamen en zelfde met de Radeon RX 480/580, vele miljoenen, maar ook de Geforce GTX 1080, die is ook heel veel verkocht, veel meer dan de Geforce GTX 980, wanneer de Geforce GTX 1080 duurder was wanneer hij uit kwam, en dat was nog allemaal voor dat de miners begonnen.

https://www.fudzilla.com/...old-out-selling-excellent

Nee er zijn HEEL veel miljoenen gamers die een grafische kaart gekocht hebben die een HTC Vive of Oculus Rift met gemak kunnen draaien, en toch zijn er veel minder dan 1 miljoen HTC Vive en Oculus Rift bij elkaar verkocht, en ze zijn al aardig wat jaren uit, zelfde met de Playstation 4 VR bril, die meer dan 1 miljoen verkocht hebben, en dat in +/- 2 jaar, wanneer er meer dan 82 miljoen PlayStation 4-consoles verkocht zijn sinds 15 november 2013, dus in nog geeneens 5 jaar hebben ze meer dan 82 miljoen PlayStation 4-consoles verkocht en maar in de 1 miljoen Playstation VR brillen, en de verkoop van HTC Vive en Oculus Rift is nog veel lager dan die van de Playstation 4, dat zegt al een hoop, ook omdat de aantal geleverde vr- en ar-headsets fors gedaald is dit jaar.

http://www.1337.games/201...tion-4-consoles-verkocht/

https://nl.ign.com/playst...-80-miljoen-keer-verkocht

Dus ja tot nu toe is de PlayStation 4 VR brillen en HTC Vive en Oculus Rift een flop.

[Reactie gewijzigd door AmigaWolf op 28 juli 2024 22:26]

Er zijn meer dan 3 miljoen psvr's verkocht, van de vive alleen ook al meer dan een miljoen, en van de rift ook nog een meer dan de vive, de mixed reality headsets zijn er ook een hoop van verkocht (en dan niet te vergeten nog een zwik andere merken zoals pimax en razor).
En ik denk dat je je nog eens behoorlijk vergist in hoeveel mensen een 1060+(en vergelijkbare kaarten) er werkelijk verkocht zijn, de meeste mensen die ik ken zitten nog op de 7 en 9 serie (en vergelijkbare) omdat ze, net als ik, de 1060+ serie veel te duur vinden en bijna alle games drasien daar nog goed op.
Jij lijkt ook te vergeten dat de headsets heel erg duur zijn, en niet iets dat je zomaar even on a whim koopt, zouden de headsets minder dan 200 euro zijn, dan zou ik je gelijk geven dat het een flop is.
3 spellen zijn voor mij ook niet het geld waard als de Geforce GTX 1080 Ti €150,- of meer goedkoper is dan de Geforce RTX 2080, als hij uit komt of vlak daarna.
Is het niet vooral zo dat de 900 en 1000 serie zo goed waren, dat de 2000 serie daardoor tegenvalt?
In plaats van zo negatief zijn, kan je ook blij zijn dat er een keer wat innovatie is! Zonder innovatie zat je nu nog met je S3 Virge videokaart.

Daarnaast zijn deze resultaten nog heel prematuur en verwacht ik dat driver en game optimalisatie straks een flink stuk realistischer beeld kan neerzetten met dezelfde of een hogere framerate dan de voorgaande generatie videokaarten.

[Reactie gewijzigd door n00bs op 28 juli 2024 22:26]

Eens een keer wat innovatie? Nieuwe technieken komen continu, maar volgens mij is de prijs/prestatie nog nooit zo gestagneerd als de afgelopen jaren, sinds Nvidia doorgebroken is met hun GeForce kaarten...
En dit wordt geen echte volledige raytracing, daar zijn de kaarten bij lange na niet sterk genoeg voor. Het wordt alleen wat betere belichting en schaduwen, tegen een enorme performance hit. Raytracing is vast leuk voor de toekomst, maar deze generatie zie ik er echt het nut nog niet van hoor, vooral als het in de plaats komt van traditionele performance.
3dmark is zo'n bekende factory, die kennen de driver makers van nvidia door en door. die drivers zijn echt wel zo ongeveer klaar bij launch.

Denk eerder dat ze er juist zo min mogelijk aan gaan doen om zo de negative performance impact van ray tracing te verdoezelen als de ray trace timespy update uit komt.
Erg jammer dat hij niet zulke goede scores krijg, mijn Geforce GTX 1080 Graphics Score is 7573 met Time Spy, het verschil is dus niet als toen met de Geforce GTX 980 en Geforce GTX 1080, waar de Geforce GTX 1080 2x zo snel was als de Geforce GTX 980.
980 was 28nm, 1080, 16nm. dan kan je dat soort sprongen maken.

maar 2080 is opnieuw 16nm (ook al noemen ze het 12). dan is de sprong nooit zo groot. hij is nu zelfs nog relatief groot omdat de chips van de 1000 serie vrij klein waren (voor het segment waar nvidia ze in verkocht), en er dus meer ruimte over bleef om nu groter te gaan.

[Reactie gewijzigd door Countess op 28 juli 2024 22:26]

Aha ok, maar dan kan je toch de die groter maken en wel meer snelheid krijgen?
natuurlijk. maar hoe groter de die, hoe lager de gemiddelde clocksnelheid zal zijn, en hoe duurder de die zal zijn om te maken (zowel door de lagere yield als gewoon omdat er minder die's uit een wafer gaan).

en boven een bepaald punt gaat dat heel hard, en steeds harder, omhoog.

om deze redenen hadden we tot de 2080Ti nog nooit een consumenten GPU gehad die groter was als 600mm2.
Aha ok bedankt voor de uitleg, leerzaam.
Ja, mooi als je de claim tegen hun niet-topmodel bekijkt. Maar gezien het feit dat de 1080 gewoon zoveel langzamer is dan de 1080Ti is het gewoon eigenlijk een upgrade nauwelijks waard. Enige positieve dat ik hier aan kan zien is dat op die manier misschien de 1080Ti eindelijk op een wat redelijker prijspunt komt omdat ie Raytracing en dat soort dingen niet zo goed kan (niet dat de RTX het op gebruikelijke resoluties voor gamers (1440p+) kan, maar ach, het staat mooi).
Ik wacht gerust tot benchmarks uitkomen tot echte conclusie kan maken.

Maar mijn personelijk gevoel zegdt dat je extra betaald allen voor RTX cores en dat het nog mee valt met prestaties tegen over 10 serie.

Maar we zullen het zien :)
Zoals ik eerder heb gezegd, waarom zou NVidia na 2 jaar ontwikkeling ineens met een kaart komen met een nieuwe GPU waar alleen maar raytracing is toegevoegd en nagenoeg geen performance winst verder? Dan geven ze AMD alleen maar tijd om achterstand goed te maken.
Verder helemaal eens met het wachten tot er meerdere gerespecteerde benchmarks uitkomen.

Ik hoop dat de bovenstaande resultaten waar blijken te zien, dan koop ik er zeker eentje om mijn 970 GTX te vervangen en een 1440p monitor aan te schaffen.
Simpelweg omdat ze (denken dat ze) het kunnen maken? De voorsprong achten ze zo groot dat het niet binnen één generatie in te halen is door AMD. Dus lomen ze met slechts een "refresh" van de laatste serie, met een nieuwe feature voor de marketing, en hop je kan weer de hoofdprijs vragen.

Ik ben het er mee eens dat we eerst de volledige benchmarks moeten afwachten, maar de vage taal in de presentatie stemt mij niet bij voorbaat hoopvol.
De presentatie was ook zeker een slechte. Hadden ze veel beter aan kunnen pakken door niet zoveel onduidelijk te laten. Misschien is het wel een teken dat het een rebrand is en is de prestatiewinst minimaal, in dat geval ga ik er geen kopen. Maar aan de andere kant, Intel heeft ook een tijdje op zn lauweren gezeten en ineens is AMD langszij gekomen. Ik zou het heel dom van ze vinden, maar ja dat maakt het niet minder mogelijk :)

Zeker weten doen we het pas als de benchmarks van goeie reviewers uit komen.
Ik geloof wel dat dit klopt, en dus ook dat de NVidia claims redelijk in de buurt komen. Punt is echter simpelweg dat een 2080 even duur is als een 1080TI. En nu kan je zeggen dat dit introductieprijzen zijn, en dat daalt nog wel. Misschien heb je daar gelijk in. Echter bij de 10XX generatie, die significant sneller was dan die daarvoor maar ook significant duurder, dachten we dat ook. En dat is toch een tegenvaller, want nu twee jaar na introductie zitten ze nog steeds op introductieprijzen. En natuurlijk, de mining hype heeft mee gespeeld, maar daarmee kan je de pieken tussendoor verklaren. Niet de huidige prijs, waarbij de fabrikanten claimen dat er nauwelijks nog voor mining kaarten worden verkocht.
Vergeet ook niet dat AMD op dit geen kaart heeft welke zich met de 1080ti kan meten. Als de RTX2080 al wat sneller is dan de 1080ti, dan zal de RTX2080TI zeker een stuk sneller zijn. Daarnaast lijkt NVidia in te zetten in het verder offloaden van CPU tasks naar de GPU om hogere prestaties te krijgen. Verschillende game producenten hebben al aan gegeven hiervan gebruik te maken. Nu 4K steeds meer mainstream begint te worden, kan ik mij voorstellen dat er ook nieuwe technieken nodig zijn op deze hogere resoluties..

Daarbij waren de eerste AMD Vega videokaarten met HBM geheugen ook niet ontzettend veel sneller dan de RX serie. Ik hoop alleen dat AMD niet teveel resources naar de CPU divisie heeft verplaatst om eindelijk langszij Intel te komen met Ryzen, TreadRipper en Epyc om vervolgens op GPU niveau Nvidia niet meer bij te kunnen houden..
Omdat Nvidia met Physx, Hairworks, GPP etc komt om alleen winst te maken dus waarom geen rebrand.

Mijn gtx 1080 in mijn laptop haalt bijna dezelfde snelheden. Maar de mijne is zelf geoverclocked.

Ik had verwacht dat we nu al wel tegen de 2.3 GHz zouden zitten, want ik draai al een jaar mijn gtx 1080 op 2 GHz, met een boost naar 2045. Nvidia heeft dit jaar gewoon geen rastarization optimizations gemaakt, waardoor Turing (behalve de RTX en DLSS) nagenoeg hetzelfde presteert als Pascal.
Dat lijkt me dan weer erg afhankelijk van de prijs. Meer prestaties is 1, maar uiteindelijk zullen de meeste mensen de prijs/prestatie verhouding afzetten tegen de absolute prijs.
Bel eens naar intel en vraag hen waarom ze exact dat gedaan hebben.
In jouw redenering kon AMD intel nooit meer inhalen.
Opeens is er Zen en het gat is zo goed als dicht (single threading) en ingehaald (multi threading).

Het is echt niet zo simpel om telkens een architectuur verder te optimaliseren of een nieuwe te ontwerpen.
Op een gegeven moment is de rek er gewoon uit. Als het dan niet kan op brute kracht, dan maar op mooier beeld zullen ze bij nVidia gedacht hebben, geen slechte zet.
Ik vindt het nog steeds slap marketing gelul. Deze nieuwe kaart vergelijken met hun 2 generaties oudere kaart. Aankomen met termen als anderhalf keer zoveel. Wat als heel veel klinkt. tot je het 50% sneller noemt. Dan valt het ineens weer mee.

Zeker als je beseft dat het een loze claim is die alleen in heel specifieke gevallen gehaald wordt. Zoals statische benchmarks. Leuk maar op papier is een 1080ti 22% sneller dan een 1080. In gemiddelde game fps is dat ineens maar 14%. Het zou me verbazen als deze nieuwe kaart meer dan 20% sneller is dan een 1080ti en meer dan 15% fps increase in games oplevert tegenover een 1080ti. Allemaal marketing bullshit die de werkelijkheid moet verbloemen. Dat je veel te veel geld uit gaat geven voor een marginale performance increase (waarschijnlijk weer 5 tot 10% sneller dan de concurrentie voor 500 a 600 euro meerprijs).

En op die manier hopen ze de laatste concurrentie met misleiding de markt uit te drukken, zodat we uitsluitend nog belachelijk dure kaarten kunnen kopen.
Je doet net alsof de kaarten van AMD goedkoop zijn. Daar krijg je voor meer geld zelfs nog minder...
https://youtu.be/cJFm51OFcNA

[Reactie gewijzigd door harrytasker op 28 juli 2024 22:26]

de 580 wint het nu meestal van de 1060. en dat zijn de kaarten die veruit de meeste mensen kopen.
Niet meer in principe, vega 64 voor een paar tientjes boven de €500, toch een stuk vlotter dan de gtx1080 in benchmarks.
Maar eerlijk is eerlijk dit zijn sporadische aanbiedingen. Vega 56 is idd een beetje duurder dan een gtx1070, maar ook een stukje sneller en freesync. Dat scheelt ook zo weer €250 en een héél uitgebreid aanbod. Gsync bied weinig voor veel.
Als je straks een HDMI 2.1 tv aanschaft, reken maar dat je blij bent met freesync support.

[Reactie gewijzigd door Anoniem: 1026419 op 28 juli 2024 22:26]

Wat als heel veel klinkt. tot je het 50% sneller noemt. Dan valt het ineens weer mee.
Dat wil ik je ook horen roepen als je plots ergens 50% meer voor moet betalen.... maar dan valt het ineens niet meer mee waarschijnlijk...
Schijnbaar ontgaat je compleet het punt dat ik probeer te maken. Dat ze met slinkse marketing bullshit mensen die er verder niet bij stil staan en of er bij nadenken doen laten geloven dat dit ding een gigantische stap voorwaarts is qua performance. En dat is het niet. Deze kaart je gemiddeld genomen 15 tot 20 procent sneller in games dan zijn voorganger. Net als de kaart ervoor, en de kaart daarvoor.

Net zoals Harrytasker hierboven bijvoorbeeld performance charts aan haalt uit een youtube filmpje. Kijk hier zie je een performance chart waarin staat dat deze kaart 30% sneller is dan die kaart. Of zoveel meer kost dan die kaart. Totaal niet beseffend dat ieder jan doedel met een spreadsheet programma zo'n chart in elkaar fietst. Er is toch geen hond die het verder controleert. Maar het staat op youtube dus het zal wel goed zijn. 8)7
Dat ze met slinkse marketing bullshit mensen die er verder niet bij stil staan en of er bij nadenken doen laten geloven dat dit ding een gigantische stap voorwaarts is qua performance.
Boehoe... zo werkt marketing al decennia, en vrijwel iedereen is daar ondertussen wel aan gewend. Niks bijzonders of anders dan wat andere bedrijven doen. De was wordt ook witter met witte reus..
Totaal niet beseffend dat ieder jan doedel met een spreadsheet programma zo'n chart in elkaar fietst. Er is toch geen hond die het verder controleert.
Er bestaat nog zoiets als reputatie, en dergelijke claims worden wel degelijk "gecontroleerd", namelijk door een deel van de kijkers. En resultaten die nvidia naar buiten brengt komen al helemaal onder het vergrootglas te liggen. Wacht tot de kaarten in handen zijn van reviewers en ze zullen zeker de claims van nvidia gaan controleren.

Maar goed, jij gooit in je post ook met allerlei getallen, die kun je dus ook gewoon uit je duim gezogen hebben...
Al die speculaties en stuff, wacht gewoon de benches af. En de frames in een game als PUBG die nogal heavy is. Dan kunnen we oordelen :)
Anoniem: 1026419 @Macboe29 augustus 2018 09:38
Juist niet pubg, een dergelijke slecht geprogrammeerde game geeft juist een vertekend beeld.
Ze kopiëren en plakken nog steeds assets notabene.
Volgens mij hangt het er van af wat je nu in je machine hebt hangen...Het lijkt er op dat er heel wat winst te behalen valt met deze nieuwe generatie. Ik kan me voorstellen dat je indien je geïnvesteerd hebt in een 1080 (ti) wellicht deze nog even door laat zoemen, maar gamers met budget en oudere generaties zullen er wellicht geen buil aan vallen. Duur zijn ze zeker, maar waarschijnlijk blijven de kaarten van de generatie 10- nog beschikbaar en is er alleen maar meer keuze. Bedenk dat niemand je verplicht de laatste generatie aan te schaffen...Per slot van rekening is het bij bijvoorbeeld processoren ook niet altijd zinvol om de laatste generatie aan te schaffen indien je net de voorgaande hebt bemachtigd.

Dat gezegd hebbende, de real time ray tracing is qua techniek zeker indrukwekkend. Het AI mechanisme zal zich moeten bewijzen en een verhoging van het aantal cuda cores kan weinig negatieve effecten hebben op de framerate, wellicht op het stroomverbruik. Al met al is het voor de mensen met een dikke portomonaile prima om deze aan te kopen en doet dat wellicht het 2e hands segment ook opleven. Kortom, iedereen wint, als het niet met deze generatie is, dan zeker met de daaropvolgende, en anders die daarop volgt.

[Reactie gewijzigd door Cowboy Henc op 28 juli 2024 22:26]

Ik zat te denken aan een RTX 2070 met een 360p monitor voor RTX games op 60 fps. :)
Eentje maar? Waarom niet gelijk 4 in quad sli.
Omdat quad sli niet meer bestaat ;)
I beg to differ. Het kan nog steeds gebruikt worden in benchmarking apps als Catzilla, Unigine en 3Dmark.
Zie hier de prachtige 1080ti Quad score: https://www.3dmark.com/fs/13645098
Alleen ingame werkt het niet meer dus praktisch heb je er niets meer aan.
Maar toch.. wie plaatst de eerste 2080ti (4x) met 100k score??
Dan heb je het ook niet meer over sli, maar (volgensmij?) over mda; https://youtu.be/A91BPapLK38

En ja wie weet, 4x 2080ti watergekoeld zou wel een leuk benchmark systeempje zijn :*)

Op dit item kan niet meer gereageerd worden.