Door Willem de Moor

Redacteur

RTX 2080 en 2080 Ti Review

Een nieuwe, maar dure prestatiekroon

Conclusie: sneller en duurder

Op basis van de data die we tot dusver hebben verzameld, is de Turing-generatie geen onbetwiste aanrader. De prestaties zijn weliswaar stukken beter geworden: de framerates stijgen in 4k met gemiddeld 34 procent voor de RTX 2080 Ti tegenover de GTX 1080 Ti. De prijs is echter nog veel harder gestegen: de 2080 Ti is met een adviesprijs voor de Founders Edition van 1259 euro zo'n 70 procent duurder dan de omstreeks 750 euro die een 1080 Ti momenteel kost en als we naar ongeveer gelijke prestaties kijken, dan kost een 1080 Ti minder dan een 849 euro kostende RTX 2080, terwijl de Turing-kaart maar iets beter presteert. Bij een niet-overgeklokte 2080-kaart zal het om het even zijn of de 2080 of 1080 Ti aan kop gaat.

Juist op het punt waar de prestaties van Turing het verschil kunnen maken, namelijk in games met dlss of raytracing, is nog niets te testen en belangrijker, nog niets te spelen. De komende maanden moet een handjevol games raytracing gaan ondersteunen, er zijn in totaal tien games in ontwikkeling met die techniek aan boord. Dat aantal is voor dlss hoger, maar bij introductie van de Turing-kaarten zijn er bitter weinig games die daadwerkelijk van die Turing-features gebruik kunnen maken.

En al die features zijn niet gratis, noch wat de prijs van de kaarten betreft, noch wat de oppervlakte van de chips betreft en noch wat het voor het opgenomen vermogen betekent. De hoge prijzen zijn wel enigszins te verklaren door de grootte van de chips. Nvidia kan in het beste geval namelijk maar een stuk of 70 Turing-dies van 754mm2 uit een wafer halen, tegenover ongeveer 110 Pascal-dies. Daarbij gaan we uit van een yield van honderd procent, wat zeker bij een grote chip als de TU102 op zijn zachts gezegd optimistisch is. Dat verklaart niet het volledige prijsverschil, maar wel een deel.

De prijs voor al die extra transistors en rekencores betaal je niet alleen in harde euro's, maar ook in opgenomen vermogen. De Turing-gpu's zijn idle een stuk minder zuinig dan Pascal, en ook onder load zijn de RTX'en minder zuinig. Die cijfers kunnen overigens nog verder uitschieten, want de tensor- en rt-cores zijn niet actief bij de stroommeting.

Kortom, wil je de snelste kaart van dit moment, dan kun je niet om de RTX 2080 Ti heen. Je betaalt er wel flink voor, maar er is niets dat sneller is op dit moment. Die snelheid haal je bovendien in 'legacy'-games, die geen raytracing of dlss ondersteunen. Als en wanneer dit wel ondersteund gaat worden in de games die je speelt, kan de kaart zijn voorsprong waarschijnlijk verder uitbouwen. Dat is wel een gok, want op dit moment kunnen we dat niet staven met cijfers. Wat we wel kunnen staven, is dat de RTX 2080 in de meeste gevallen nauwelijks sneller is dan GTX 1080 Ti, die iets goedkoper is. Je kunt er dus voor kiezen om iets meer geld uit te geven en een kaart te kopen met toekomstbestendige features die je al dan niet gaat kunnen gebruiken, of je kunt een oudere generatie kopen die nu nog goed meekomt, maar hardware ontbeert die Turing uniek maakt. We zouden momenteel dus voor een 2080 in plaats van een 1080 Ti of 2080 Ti kiezen. De RTX 2080 Ti is alleen een aanrader als je absoluut de snelste kaart wil ongeacht de prijs, en enkel als je op 4k gaat gamen.

Lees meer

Reacties (362)

-13620342+1173+221+30Ongemodereerd137
Wijzig sortering
Ik moet toegeven dat vooral de RTX 2080 sneller is dan ik had verwacht. Ook de 2080 Ti doet het beter dan ik had verwacht. Maar de prijs prestatie verhouding is nog steeds ronduit slecht. Dus in mijn ogen kan je nog steeds beter voor een 1080 Ti gaan of een goedkope RX Vega als je die ergens kan krijgen.
1080 kan ook mits je niet van plan bent met HDR aan de slag te gaan want bij de oudere kaarten werkt volgens mij bepaalde memory compressie niet als er 10bit kleur gebruikt wordt en zakken de prestaties flink in. De 1080 Ti vangt dat deels nog op door zijn 384 bit bus.

Tweakers heeft waarschijnlijk getest met een 1080 Ti FE welke toch snel 5-9% trager is als de non refferenced kaarten die de meeste mensen kopen en welke vaak ook nog goedkoper zijn. Als je dan de RTX 2080 er naast zet is de snelheid winst wel heel minimaal.

Ik vraag mij ook af hoeveel sneller non refferenced RTX kaarten worden nu nVidia een nieuwe dual fan cooler heeft. Ik denk dat dat verschil aanzienlijk kleiner is. Als je hier kijkt naar de strix OC is dat maar 2%:
https://www.techpowerup.c..._2080_Ti_Strix_OC/33.html

Dus in mijn ogen moet je als je de review volledig wil maken ook even een aftermarket 1080 Ti kaart mee nemen.

En ik wil nog wel even aanhalen dat de claim van 50% winst dus lang niet gehaald wordt. Dat is alleen maar in specifieke cherry picked gevallen in het geval van de 1080 dus 4K (waar die kaart niet voor gemaakt is) HDR (waardoor je een extra zware penalty krijgt door de beperkte geheugen bandbreedte op die kaart)

Het is wel mooie hardware maar veel te duur en dus alleen maar nuttig als je perse koste wat het kost meer prestaties wil hebben dan een 1080 Ti.

[Reactie gewijzigd door Astennu op 19 september 2018 17:52]

GamersNexus heeft een uitgebreide review waarbij ze de RTX 2080 FE vergelijken met o.a. een 1080 Ti SC van EVGA. Performance is inderdaad gelijk / verschillen zijn verwaarloosbaar tussen te 2 kaarten;
https://www.gamersnexus.n...benchmarks-vs-gtx-1080-ti

Overigens wordt na het lezen van enkele reviews al snel duidelijk dat de 2080 FE eigenlijk eigenlijk een "custom model" is. Prima koeler, prima clocks, deze prestaties liggen dan ook veel dichter in de buurt van de custom 2080's, zoals je al aangaf is een Strix 2080 slechts 2% sneller (wel wat koeler en stiller).

[Reactie gewijzigd door lasty82 op 19 september 2018 16:37]

Inderdaad en dan betaal je dus 200 euro meer voor DLSS en RTX wat je niet altijd kan gebruiken.
Niet echt de moeite als je het mij vraagt. Over 2 generaties wordt dat wel interessanter (vooral RTX, DLSS is nu opzich al nuttig maar niet nuttig genoeg om die prijs te rechtvaardigen)
Lijkt meer aan de manier van testen te liggen, cpu bottleneck. Zie bijvoorbeeld techpowerup bij een game waarbij de gpu het niet trok: https://www.techpowerup.c..._Founders_Edition/16.html

Daar zie je 60.2 fps voor de 1080 en 79.2 fps voor de 2080. De 1080 ti zit daar op 70.7 fps en de vega64 haalt slechte 57 fps. De 4k resultaten wijzen ook op grote verschillen in ruwe prestaties. Maar op het moment dat je baseline al 150 fps is (Battlefield 1) komt er een moment dat je tegen de limieten van de cpu dan wel de engine loopt.

[Reactie gewijzigd door sdk1985 op 19 september 2018 16:32]

Ik kijk liever naar 1440p of 4K waar je minder last van de CPU hebt. Het verschil is daar +- 5-8% tussen de 1080 Ti en de 2080 maar Techpowerup heeft een 1080 Ti FE!! en geen aftermarket wat een eerlijkere vergelijking is dan kan je er zo 5-9% bij op tellen voor de 1080 Ti en is het gat met de 2080 dicht geslagen.
Waarom zou je een 1080 Ti custom met een 2080 FE gaan vergelijken? Dat is toch juist appels met peren vergelijken.
Omdat de meeste mensen een non refferenced gekocht vinden omdat ze die blowers niet goed genoeg vinden. De nieuwe FE hebben wel dual fan's en geen blowers meer. Daarnaast mogen ze hem van mij ook met een non refferenced 2080 vergelijken. Maar heel weinig mensen hebben een 1080 Ti FE die non ref waren een stuk beter. Dus vandaar dat dat een betere vergelijking is.
De 2080 FE en 2080 Ti FE zijn in dat opzich wel beter dan de voorgaande versies. Denk dat minder mensen het nu nodig vinden een non refferenced versie te kopen.
Ja maar daarom testen ze FE tegen FE, dan zou het dus betekenen dat de non reference 2080(ti)'s ook sneller zijn dan de reference (en goedkoper) en dan moeten ze de non reference 2080(ti)'s testen tegen non Ref.... Wat dus per saldo het zelfde oplevert.....
je begrijpt me niet goed.
De FE kaarten van de 20x0 generatie hebben een beter PCB, betere cooling en hogere clocks dan de normale 2080 en 2080 Ti kaarten. Dus deze FE kaarten zitten dicht op de 2080 Ti OC kaarten aan qua specs waar die eerst lager zaten zitten de FE nu hoger dan een standaard 2080 / 2080 Ti. Die standaard kaarten hebben een lager TDP en lagere clocks.

Voorheen hadden FE kaarten en standaard pascal 1080 Ti kaarten dezelfde clocks en de factory oc kaarten waren sneller deze generatie is dat dus anders en is het gat kleiner. Er komen straks dus stock kaarten van Asus, MSI en GA die langzamer zijn dan de FE kaarten en er komen factory OC kaarten die vergelijkbaar zijn en wellicht ook iets sneller.
Er komen kaarten die langzamer zijn en kaarten die sneller zijn, er zullen fabrikanten komen die een veel snellere kaart gaan leveren. % sneller dan 20x0 FE zal min of meer gelijkwaardig zijn aan %sneller dan FE 10x0. Het punt is dat een FE - FE vergelijking het beste is zowel in prijs als in features aangezien het de visie van de fabrikant was toen en nu. Een FE van 20x0 testen tegenover een kaart van no FE slaat nergens op.

Het is duidelijk dat de kaarten meer cuda cores hebben, duurder zijn maar voor het aantal cuda cores- prestatie verhouding niet heel veel sneller zijn dan pascal. Maar de benchmarks laten zien dat de kaarten wel degelijk aanzienlijk sneller zijn en die 5% meer tav third party1080ti's niks doet, straks blijkt dat de 2080 een prima OC'er is en komen er bedrijven met standaard 10% meer . Verder hebben de 20x0 kaarten technieken die waarschijnlijk door grote bedrijven wel gebruikt gaan worden en dat kaarten nog sneller zullen maken. Met een 1080ti weet je zeker dat dit je max is en je geen raytray zal hebben.

RT in BFV is momenteel beperkt tot 1080p maar het is de bedoeling dat de game uiteindelijk gerenderd wordt op 4k maar de raytrace effecten op 1080p of 720p wat mij een prima compromis lijkt. Aangezien de schaduwen en reflecties best iets lagere res mag zijn om nog steeds mooi over te komen.
Maar de gameplay footage van RTX on/off (van anderen dan nV) ziet er gewoon indrukwekkend uit.
De kaarten hebben simpelweg veel meer rekenkracht dan de specs en benchmarks nu laten vermoeden.
Alleen komt dit niet tot zijn recht in simpele fps. Voor mij is dit een prima ontwikkeling, ik hoef geen 200fps een constante fps maar met betere schaduwen en licht effecten zijn voor mij belangrijker en dit is een goede eerste stap van nV.
Ze hadden ook gewoon simpwel weg een nieuwe kaart kunnen introduceren met hogere klok minder extra's, je kan het al grootste gewoon ook nooit goed genoeg doen voor sommige.
De FE's worden nu gemarket als 'de' kaart die het maximale uit Turing haalt; ze krijgen zelfs een hoger TDP mee. Dus dit is het omgekeerde van wat de voorgaande FE's waren. Er zit nu een fatsoenlijke koeler op en ze hebben meer ruimte voor GPU Boost.

De FE/FE vergelijking gaat dus totaal niet op, integendeel, dan ben je jezelf voor de gek aan het houden.
Een discussie is vrij moeizaam als er niet gelezen wordt.
De FE's worden nu gemarket als 'de' kaart die het maximale uit Turing haalt
Precies, nV heeft dit jaar een andere strategie dan bij de 10x0, wie is de fabrikant van deze gpu's... nV.
Dus wiens product en visie wil je bekijken die van de fabrikant, niet die van asus, niet die van gigabyte en niet van nog een andere.

nV levert dit jaar kaarten die het maximale uit Turing halen, ze nemen simpel weg de best gebinde gpu's, maar OC'en de kaarten niet tot max. Dat gaan 3den wel doen en kan je zelf ook doen met de FE's (want je weet dat je voor die prijs de besten krijgt) Dit jaar kan je dus het beste een FE halen als je zeker wilt zijn van de beste (binned) GPU. (nV levert ook de software: API/DLL's voor third parties om OC utilities te maken)

De 3th party 1080's zijn niks anders dan factory OC'd kaarten met hogere TDP's en betere coolers. Niet alleen dat, welke kaart ga je dan testen, de kaarten die als eerste uitkwamen of de kaarten die OC'd een jaar later uitkwamen met betere geheugen modules? Neem je dan de snelste van de 1080ti's (watercooled? of aircooled?) Laten we eerst wachten tot third party 20x0's uitkomen en dan kijken wat die te bieden hebben. Voor het zelfde geld hebben fabrikanten alsnog veel meer uit een kaart kunnen halen (tegen hogere verkoopprijs natuurlijk!)

nV focessed dit jaar minder op fps prestaties en meer op nieuwe features.
4k gaming is gewoon een feit met deze kaart.
'De kaart is zo duur' Hij kost ongeveer het zelfde als een titan XP is 20% sneller dan die kaarten, heeft aanzienlijk meer cuda cores, zelfde tdp, heeft 544 tensor cores vs 640 van de titan V (~3000 euro kaart)
Is sneller dan de Titan V in games (ook al was die kaart daar niet voor het was wel een beest van een kaart) En daarnaast heeft hij nog is RTX cores.
De kaart is overduidelijk uitstekend voor gaming en heeft features die mij blij maakt en zeer interessante mogelijkheden heeft voor ontwikkelaars. Ik ben geen fanboy maar ik hou van techniek en deze kaart heeft nieuwe features die echt niet alleen maar marketing gebral is.

(ik hoop ook dat de modding community gebruik gaat maken van de nieuwe features -> civ 6-> tensor cores: met echte intelligentie vs nu :)

Verder is misschien ook nog wel handig om te melden dat Dice letterlijk een 'aantal' weken (weet niet exact hoeveel, maar kort) de tijd heeft gehad om RTX toe te passen. Dus je kan je voorstellen dat een ontwikkelaar met meer tijd iets leuks kan bedenken. Zeggen dat RTX/tensor nu niks toevoegt is is correct maar wel een zeer beperkte visie, want het potentieel is er. Naast het feit dat de kaart gewoon snel is.
En een enkele blik op steam laat zien dat nV heer en meester is in gaming kaarten iets van niet onopgemerkt is bij ontwikkelaars.
Interessant is ook wat AMD gaat doen aangezien zij (als het goed is) al ver zijn met Navi en waarschijnlijk niet snel antwoord gaan hebben op RTX/tensor of de toch al hoge game prestaties van nV.

[Reactie gewijzigd door D0gtag op 21 september 2018 10:25]

Een heel verhaal dat nul komma nul toevoegt aan die 'discussie' die volgens jou niet gelezen wordt. Je noemt niets dat ik niet al weet of dat er nog niet stond.

De discussie is niet ingewikkeld en geklets over 'de visie' van Nvidia... alsjeblieft zeg. Turing is een belachelijk slecht geprijsde generatie waarin er qua perf/dollar niets verandert en de FE is slechts één van de vele aspecten waarmee Nvidia probeert om dat beeld iets bij te draaien (met geklets over enorme OC ruimte, terwijl dat vantevoren al vast ligt. Pascal overklokt vrij weinig buiten het eigen GPU Boost en Turing gaat nog een stap verder. De FE is nu gebouwd om out of the box al te doen wat ie kan). Dat lukt ze niet en RTX is tot zover een technologie die op geen enkele van de drie Turing releases tot echte meerwaarde leidt. Het is te zwaar voor fatsoenlijk 60 FPS of het is te licht waardoor je beter gewoon op de oude manier kunt werken omdat er anders van accurate reflecties nog minder overblijft. De meeste demo's zijn slecht speelbare, te donkere of veel te lichte scene's met RTX; om over de framerate nog maar te zwijgen. Zelfs in de Metro Exodus demo's zie je dat het stottert, dat het op 30 FPS of minder loopt, en side by side zie je dat de oude methode lekker soepel is. Bij de BFV demo moest slow motion aan want anders was het een slideshow. En zo zijn er talloze voorbeelden te vinden.

Het feit dat Dice slechts weken de tijd kreeg om iets in elkaar te sleutelen spreekt boekdelen: Nvidia zegt al tien jaar bezig te zijn, en developers krijgen een paar weken de tijd om er iets mee te doen voor de release van een tienjarig project? Geloof je het zelf? Misschien is het wel gewoon praktisch onbruikbaar en is alles wat je hoort pure damage control. Sinds de keynote is RTX ON/OFF een internet meme geworden. Het wordt belachelijk gemaakt... en dat snap ik heel goed.

Innovatie is prima, maar de sleutel is timing en of de rest van de markt erin mee wil en kan gaan. De realiteit is nu dat Nvidia als enige dedicated hardware heeft en zelfs met die hardware is de performance zwaar bedroevend. Daarmee is feitelijk RTX de komende anderhalf jaar gewoon onbruikbaar in een praktische setting. En je zegt 4K is mogelijk - ook de peperdure, bizar grote 2080ti (daar koop je bijna 2x 1080ti voor) die kan de min. FPS niet altijd boven de 60 houden op 4K. Kijk maar even wat verder rond als je dat nog niet was opgevallen.

Met andere woorden, zo 'snel' is Turing helemaal niet. De shaders zijn clock voor clock net zo snel als Pascal en de clocks zelf blijven gelijk. Er verandert niets, behalve dat Nvidia nu grotere dies nodig heeft die dus meer kosten en dus ook ons meer kosten. Allemaal voor wat RTRT dat er vrijwel nooit echt beter uit ziet dan wat we al hadden. Ons is nooit gevraagd of we 12-20% van de die size willen reserveren voor deze technologie... en of we daar dan ook maar even 20-30% meer centen voor willen neerleggen. Vergelijk het met Tesselation - ook daar is dedicated hardware voor nodig maar dat neemt niet zoveel ruimte in beslag en we hoefden er ook nooit een dikke meerprijs voor neer te leggen.

Jij mag daarover in juichstemming zijn... ik niet. Maar houd het wel bij de feiten en vergelijk Turing met Pascal niet op de voorwaarden die Nvidia handig vindt, maar op basis van de realiteit: dus een FE vergelijk je met de AIB kaarten van Pascal, want beiden zijn dat de situaties waarin de architectuur tot het randje kan gaan. Heel simpel, daar hoef je geen vijf paragrafen aan te spenderen en het heeft met 'visie' ook niets te maken.

Je zegt ik ben geen fanboy, dan zou het je sieren om een beetje nuchter te blijven en niet zo mee te gaan in het marketing gelul van de fabrikant. Want meer dan dat breng je eigenljk niet in. Je hebt geen enkele bron aangevoerd die mij overtuigt dat RTX tot iets substantieels gaat leiden. Want die bronnen bestaan simpelweg niet...

Overigens nog zoiets waaruit blijkt dat je er weinig van snapt: denken dat de FE"s beter gebinned zijn. Als dat het geval was, dan kregen ze geen hoger TDP budget mee. Binning betekent namelijk dat je met hetzelfde TDP hogere clocks haalt. Pascal toonde al aan dat binning vrijwel niets meer oplevert dankzij GPU Boost 3.0, en Turing verandert daar niets aan. Verder is bij Pascal geen enkele AIB kaart gezegend met een hoger TDP budget - de BIOS is gewoon locked en overal hetzelfde. Ook dat schijn je nog niet te hebben ontdekt. Kortom: tijd om je wat beter te gaan informeren ipv louter 'enthousiast' te zijn over nieuwe technologie.

[Reactie gewijzigd door Vayra op 22 september 2018 13:13]

Je zegt ik ben geen fanboy, dan zou het je sieren om een beetje nuchter te blijven
Waar precies ben ik niet nuchter?
Jij mag daarover in juichstemming zijn...
Jij leest alleen wat je wilt lezen en je stuk hierboven gaat niet zozeer over wat ik zeg maar voornamelijk wat jij over nV denkt. (oooi je kon niet wachten om dat fanboy stukje er tussen te gooien, daar heb je mij te pakken!!)

De rek is uit de GPU scaling (zie AMD ervoor) ze gaan overstappen naar multi-chip ontwerpen ik verwacht dat dit de laatste van de echte single die gpu's zal zijn (van nV) dat zie je ook wel en AMD zal wel al de aanstaande gen komen met multi chip en interconnect ontwerp (navi).
Om terug te komen op nV, dit zie je ook aan het feit dat ze weer volop inzetten op SLI(nvlink) functionaliteit.
Of de benchmarks van Gamers nexus.

Ik zeg dus nergens dat turing zo snel is, ik zeg dat hij 20% sneller is dan de Xp en heeft de extra goodies. Voor de zelfde prijs. Die goodies vertalen nu nog niet naar FPS.
De 2080 en 2070 zijn de spirituele opvolgers van de Titan Xp, 1080ti en 1080 (er komt geen titan voor gaming meer) vind je 1200 duur, ja dat was de xp ook.
Allemaal voor wat RTRT dat er vrijwel nooit echt beter uit ziet dan wat we al hadden. Ons is nooit gevraagd of we 12-20% van de die size willen reserveren voor deze technologie... en of we daar dan ook maar even 20-30% meer centen voor willen neerleggen. Vergelijk het met Tesselation - ook daar is dedicated hardware voor nodig maar dat neemt niet zoveel ruimte in beslag en we hoefden er ook nooit een dikke meerprijs voor neer te leggen.
Nee dat hoeven ze niet te vragen dat bepaald de markt.

RTX is wel degelijk een bigdeal iedereen die maar ooit is iets met rendering gedaan heeft weet nog het moment dat er raytracing voor het eerst toegepast heeft op een scene (daarna wil je nooit meer anders), voor het eerst kon je foto realistische beelden maken daar stond mijn pc letterlijk dagen en dagen lang voor aan om een filmpje te maken van 20 sec. Subsurfacescattering en global illumination was dodelijk voor je pc.
Jij ziet het potentieel nog niet in want.. tja demo's zijn er nog niet dus is het maar BS waar ons 'niet om gevraagd is'. FPS is het enige wat telt!!!
Deze kaart heeft een factor 10x meer raytracing kracht dan een 1080ti. "maar je hebt er nog niks aan"

Er zijn meer mensen enthousiast. (nog zo'n fanboy) --> lees ook de conclusie.
Grootste fout die nV heeft gemaakt is dat er geen software voor is, maar dit begint het kip-ei verhaal te worden.
Overigens nog zoiets waaruit blijkt dat je er weinig van snapt: denken dat de FE"s beter gebinned zijn. Als dat het geval was, dan kregen ze geen hoger TDP budget mee.....
Is dit nog steeds de 'vega' frustraties? Je toont alleen maar aan niks anders te zien dan FPS, niks te begrijpen van wat de toekomst gaat brengen (want nV is marktleider), niet snapt wat RTX is en hoe belangrijk het is (ook al is het nog maar een pril begin). RTX gaat meer toevoegen dan FPS of resolutie ooit heeft gedaan en RTX is het keerpunt van FPS naar foto realisme in gaming, Want zonder raytracing is dat namelijk niet mogelijk.
RTX memes heb ik ook goed om kunnen lachen, ik laat het hierbij.
Blijf lekker de frustraties van je afschrijven, dat houdt je van de straat.

[Reactie gewijzigd door D0gtag op 23 september 2018 20:48]

Je doet nog steeds net alsof Ray Tracing iets nieuws is. Het enige verschil is dat het realtime gebeurt. Dat is voor content creation een prachtig gegeven en daar ben ik het helemaal mee eens. De nieuwe Quadros - prima producten. RT cores in een gaming GPU? Complete waanzin - er is nog altijd een goede reden dat we dat lekker vooraf deden en met wat trucjes om het efficient te houden. Daar veranderen 10 giga rays nog niets aan, en als je nu al kijkt naar wat voor die space er nodig is om dat te produceren...

Maar goed we vallen in herhaling - agree to disagree. Vega frustraties zijn mij vreemd en FPS (raw performance) is inderdaad het enige dat telt - dat klopt. De markt bepaalt inderdaad, en tot zover is RTX op een Geforce GPU zwaar ondervertegenwoordigd en gezien het prijspunt gaat dat voorlopig niet veranderen. Verder is de high-end markt vooral bezig met 4K en high refresh rate gaming, en absoluut niet met een paar blurry reflecties in het water of scene belichting die praktisch onspeelbaar is. Daarmee is het kip-ei verhaal levensgroot. Je zegt het goed: NV is marktleider - bijna monopolist - en ze moeten grote zakken geld neergooien bij al die developers om RTRT op gang te brengen. Ondertussen heeft AMD de consoles in handen en nul komma nul hardwarematige RTRT ondersteuning. En wat is ook alweer de échte drijvende kracht achter vooruitgang in games tegenwoordig? Oh ja. Consoles ;) Want: aantallen, massa, en laagdrempelig. RTX: niche, duur, hoge drempel, geen massa.

Vergelijk het met VR: dat komt als niche ook zo lekker van de grond. En daarover riep men hier precies hetzelfde: 'dit is de heilige graal van gaming'. Nee. Echt niet. De heilige graal van gaming is content, inhoud, goede gameplay. De sterkste games aller tijden zijn nog altijd degenen met hoge replay value, met sterke mechanics. Dat zijn de system sellers, en dat zijn de zaken die mensen overhalen om ergens in te stappen. En dat produceer je alleen maar met talent - niet met een slim algoritme om lichtstralen te berekenen.

Dromen mag, dus droom lekker verder :z Maak alleen niet de fout om een kritische blik te verwarren met 'frustraties', want dan houd je alleen jezelf voor de gek.

[Reactie gewijzigd door Vayra op 24 september 2018 12:04]

Ben ik het niet mee eens was ik het ook niet met de vergelijking 980 Ti vs 1080. En nu met de nieuwe FE helemaal niet. De meeste mensen gebruiken non refferenced. Dus door die mee te nemen krijg je een realistischer beeld over wat de nieuwe kaarten bieden tov wat mensen hebben.

Allemaal leuk en aardig die extra features die nVidia ons wil aansmeren maar het gaat er om wat we er aan hebben. DLSS zie ik wel als iets nuttigs RTX simpelweg nog niet tijd zal het leren. Misschien hebben we nog 1-3 generaties nodig. Dat is opzich niet erg.

Maar als je dan kijkt naar de prijs zeg ik nee. En dan zeg ik dan liever een 1080 Ti of goedkope Vega kaart en dan kijken we de volgende generatie wel weer.

980 FE > 1080 FE was 71% verschil 1080 > 2080 is slechts 40% in het geval van de FE en stock versie 35%. Maar ze zijn wel een stuk duurder

Ik vind de RTX 20x0 kaarten slechte value for money geven. Als jij dat niet vind prima ik houd je niet tegen om zo'n kaart te kopen.
Waarschijnlijk doet @Astennu dat omdat de nieuwe reference koeler dual fan heeft en die van de 1080 Ti maar een single fan.
Ook bij DLSS is het maar de vraag of het van toegevoegde waarde is. Op hogere ppi monitoren is aa voornamelijk bedoeld om 'pixel-crawling' tegen te gaan. Over het algemeen slagen standaard aa technieken daar prima in, vaak volstaat de laagste instelling prima bij hardware matige aa.

Ray-tracing is leuk voor professionals. Mooie maar vooral vlotte renders en geloofwaardige animatie/cgi/games.
In-game gaat niemand met 40-50fps gamen op 1080p met een peperdure gpu. Van den zotte.

Eigenaardige keuze's van Nvidia, zowel qua productie als marketing.

[Reactie gewijzigd door Batauwer op 20 september 2018 13:12]

Op hoge PPI monitoren is het idd niet nodig. Dit is meer voor 1080p en 1440p maar 27"4K heeft niet echt AA nodig.
Het rtx deel van de 2080ti komt bij rendersoftware veel beter tot zijn recht. Games profiteren nauwelijks. Unicorn profiteerde optimaal van de nieuwe kaarten. Rendersoftware speelt sneller in op de nieuwe mogelijkheden. Het is een onderdeel dat ondergeschikt is aan de game industrie, maar toch een belangrijk onderdeel
Maar dat kon opzich ook al redelijk snel op de cuda cores of op de shaders van AMD kaarten.
Als je die RT cores en Cuda cores tegelijk kan gebruiken om te RT te renderen is het wel een voordeel bij die software.
Mij valt het tegen. Ik rekende op 35% bij techpowerup en dat is toch aanzienlijk minder. Op 1080p is het te verklaren door cpu bottleneck en de hoge framerates die bij sommige games worden behaald. Maar ook op 4K wordt de 35% relatief niet gehaald (50% onderling). De 2080 FE blijft steken op 31%: https://www.techpowerup.c..._Founders_Edition/33.html
Je gaat hier wel compleet voorbij aan het Raytracing gebeuren, wat eigenlijk de echte seller feature van deze kaart is. Iets wat geen enkele andere kaart nog kan.

Wat dat uiteindelijk gaat doen weten we nog niet. Wat mij betreft is deze review ook gewoon nog niet af. Ik wacht rustig af tot we kunnen zien wat raytracing echt gaat doen.

[Reactie gewijzigd door ro8in op 20 september 2018 13:01]

Ray-tracing is al uitgebreid gedemonstreerd in bf5. Prachtige reflecties in waterplassen, diffuse reflecties op auto's en vieze ramen.

Maar op 1080p met matige framerate. Een paar stappen vooruit, en nog meer stappen terug.
Daar heb ik al genoeg over gezegd in het verleden. RTX is nu een gemmick niet meer niet minder. Het is er voor de game Dev's dat die aan de slag kunnen maar de performance hit is nog veel te groot.
BF5 draaide 1080p met minder dan 60FPS.

Er gaan nu ook al geruchten dat de effencten in de final release flink terug geschroefd worden om het speelbaarder te maken maar daardoor dus ook minder "mooi"

daarnaast vond ik het ook niet eens altijd mooi. Soms was het echt to much en niet realistisch hoe het ea reflecteerde. Dan vond ik de oude manieren die gebruikt werden voor reflecties mooier.

Dus ja ik ga daar met opzet aan voorbij alleen DLSS vind ik echt interessant. RTX zie ik pas over 2-3 generaties nuttig worden.
De rant van Linus was wel 'onpoint' over het hele release/RTX debacle;

https://www.youtube.com/watch?v=o1DoG6uTYBg

Ik persoonlijk vind de prijzen belachelijk. :)
De prijzen zijn inderdaad belachelijk. Als je ziet dat je voor 700 euro vandaag een 1080 Ti kan kopen die 0 a 5% langzaamer is dan een 2080 maar 200 euro minder kost dan is de keuze snel gemaakt...

Bij elke vorige generatie kaarten kreeg je bij een nieuwe generatie voor de zelfde aantal euros (veel) meer performance. Nu krijg je ongeveer de zelfde performance voor (veel) meer geld, wtf !?!?!
Ik vind het nog te vroeg om te oordelen zolang er geen game benchmarks met raytracing en dlss zijn.
Wie weet haal je dan een veel hogere fps en/of een veel mooier beeld.

En in het verleden viel er ook nog heel veel winst te halen met driver en game optimalisatie.

Het is ook maar de vraag of, en hoe lang de kaart de adviesprijs kost.
Dat is een amd kaart kopen in 2012-2014 omdat je dacht dat dx12/mantle/vulkan de toekomst was. Uiteindelijk maar mondjesmaat games uitgekomen die het werkelijk gebruiken.

Raytracing is er nu niet, je beoordeelt een kaart voor wat hij nu kan, niet in de toekomst. Je kan het wel aangeven. Het probleem is dat rtx kaarten vooralsnog niet sterk genoeg zijn om volledig raytracing te gebruiken. Het wordt dus alleen in specifieke gevallem gebruikt (light inval, schaduw) en daar moet speciaal voor geprogrammeerd worden (gameworks 2.0). Mondjesmaat games zullen het ondersteunen.

Raytracing is de toekomst. Maar dat was dx12 oorspronkelijk ook. Het is nog te zien hoe ver we komen, hoe snel we gaan. Voor nu, met de normale games, presteren ze buitenmaats. De 1070 was wat sneller dan een stock 980ti en de 1080 ging dat voorbij. Nu is de 2080 even sterk als de 1080ti, maar duurder, de 2070 alvast zwakker EN ook nog eens duurder dan de 1080 waarschijnlijk (men verwacht een prijs van 500€).
Ok. Maar als niemand die kaart gaat kopen, gaan de game ontwikkelaars hier ook niet mee aan de slag. Want waarom tijd steken in iets wat niemand wil hebben.

Dan komt er nooit vooruitgang.

Het is altijd zo geweest dat degenen die als eerste met nieuwe technologie aan de gang gaan te veel betalen en soms achteraf iets hebben wat nooit echt gebruikt gaat worden.

Maar als iedereen zo dacht en nooit nieuwe technologie wou kopen waren we nooit ze ver gekomen als dat we nu zijn en kon je nog steeds pixels tellen in je game.
Het zal waarschijnlijk nog wel een tijdje duren voordat raytracing gemeengoed wordt. Net zoals bij de introductie van DirectX 10. Performance viel bij introductie ook behoorlijk tegen dus ik verwacht dat dit niet anders zal zijn bij deze eerste generatie raytracing kaarten.

Wat mij betreft sla ik nog wel een generatie over met deze prijzen.
Ik vind het nog te vroeg om te oordelen zolang er geen game benchmarks met raytracing en dlss zijn.
Wie weet haal je dan een veel hogere fps en/of een veel mooier beeld.
En wie weet is tegen de tijd dat die echt beschikbaar zijn, liefst zonder kinderziektes, de volgende generatie Nvidia-kaarten aangekondigd. Ik vind het ook te vroeg om te oordelen, maar daarmee dus ook zeker te vroeg om 1200 euro te investeren. Beetje een kip en ei verhaal, natuurlijk, maar voor dit soort bedragen zou ik zelf toch liever even afwachten wat er qua implementatie gebeurd - het is niet alsof het met DX12 nou echt hard ging.
De kaarten zijn en je kunt ze kopen en gebruiken om te gamen en dus kun je ze ook beoordelen. Dat zijn ook al de reviews die nu uit komen. Stel nu dat de games die de bijzondere technieken gebruiken pas uit komen over 2 jaar, ga je de kaarten dan pas beoordelen of sla je het beoordelen dan over omdat er een nieuwe generatie kaarten uit is gekomen?
Op dit moment, op de release en zonder dat er games zijn die er gebruik van maken kan je ze beoordelen als "veel te duur". Zeker op de lagere resoluties.

Maar de beelden uit nvidia's eigen presentaties waren wel veelbelovend.

Als ik op zoek was naar een high end game pc zou ik op zijn minst wachten tot de eerste game met ondersteuning voor deze kaart uitgebracht is. En als ik het goed gelezen heb zou dat dit jaar nog moeten zijn.
De 1080 ti is tenslotte ook niet goedkoop maar de meerwaarde van de 2080 zie ik in ieder geval als er voldoende ondersteuning komt voor de nieuwe functies. En dan heb ik het nog niet eens over driver / game optimalisaties.
Er zijn geen raytracing benchmarks omdat er nog vrijwel geen games zijn die dit ondersteunen. Op dit moment zouden we als consument de hele nieuwe versie van Nvidia moeten boycotten totdat ze of met bizar goede benchmarks komen voor games of met normale prijzen.
Maar dat is toch ook een beetje kip en ei verhaal.

Een game studio kan niets maken voor iets wat nog niet bestaat (hardware raytracing)
En nvidia kan geen real life resultaten laten zien zonder dat er games zijn die dit ondersteunen.

Al had er natuurlijk wel wat meer samenwerking mogen zijn zo dat er direct tenminste 1 populaire game beschikbaar was.

Eindelijk is er een mogelijke vernieuwing op het grafische gebied, in plaats van dat kaarten alleen maar sneller worden. En daar zullen best nodige ontwikkelingskosten aan hangen.
Bovendien kost hij maar net zo veel als een telefoon in het hoogste segment, die mensen na 2 jaar inruilen.

Ik heb verder niets met nvidia ofzo, maar ik kan het wel zeer waarderen dat er nieuwe technische ontwikkelingen zijn die ook nog eens beschikbaar zijn voor de consument.

Het valt me op dat er op een tech site zo veel weerstand is tegen nieuwe technologie en dan voornamelijk om de prijs.
Natuurlijk moet de nieuwe technologie zich nog bewijzen en hopelijk kan dat binnenkort met de eerste game die vrijgegeven wordt, maar om te gaan roepen om het product massaal te gaan boycotten vind ik gewoon idioot.
Kennelijk is je kaart gelocked op 1080p/60fps wanneer je raytracing toepast.
goh je zou ongeveer 2 jaar geleden voor 700 eu zon kaart gekocht hebben.... wat een prestatie kroon was t toen toch.

nu nog geen afschrijving :o

[Reactie gewijzigd door P33R op 19 september 2018 21:13]

Dat laatste stukje tekst beantwoord al julie vragen als je de sbelste wilt hebben dan moet je diep in de buidel tasten dan kom je dus op die 2080 ti uit.Maar daarintegen wat koste die 1080 ti en die titan xo vlak na de launche?Wat je het beste kunt doen is als volgt als je een videokaart wilt aanschaffen en je hebt een Nvidia lager dan de 1080 dan kun je beter voor die 1080 gaan omdat die alles draait.
Als je al een 1080 hebt en je wilt sneller dan moet je die 2080 serie kopen.
ik perssonlijk zal nooit zo een dure kaart kopen omdat hij gewoonweg te duur is.
Maar ben er wel aan een nieuwe toe, ikdraai nu op een 630 gt van eind 2012,en ben dus ook aan vervanging toe.Het zijn keuzes wat je moet maken, maar denk eraan voor die prijs van de 2080 heb je een nieuw computer systeem.
Als je een beetje gamed, dan ben je inderdaad zeker aan vervanging toe lol.
:/ Of in Juni dit jaar een 1080Ti OC voor 999,- |:( |:(
Je vergelijkt hier appels en peren.

Beetje als een kale auto vergelijk met een met alle opties en dan zeggen dat die met aalle opties nog trager is ook omdat hij meer gewicht heeft maar wel duurder is.

Je moet dus 1080 ti vergelijken die raytracing software matig emuleert van de zelfde kwaliteit en dlss emulatie doet van de zelfde kwaliteit met een 2080.

Dan weet ik wel wie er een heel stuk sneller is.
Sorry makker, maar als jij de 1080ti een "kale auto" noemt dat weet ik niet wat jij een Ferrari zou noemen. En appels met peren vergelijken? Nee dat totaal niet.

Het zijn twee videokaarten dat ja, maar dar raytracing gebeuren dat moet je zeker deze generatie, nog met een korrel zou nemen. Want er zijn maar zeer weinig games die hier gebruik van kunnen maken. En waarschijnlijk is de impact op je FPS enorm. Ik bedoel, zoveel mensen zijn er toch ook niet die PhysX en HairWorks gebruiken. Dit komt doordat de standaard methode prima werk en de FPS het niet waard is.
Wat wel goed is, is dat NVidia blijft vooruit gaan, wat zeer goed is voor de consumenten wat helaas niet zo goed is zijn de prijzen.
Ja die prijs is nog tot daaraan toe het zijn idd ook belachelijke prijzen maar aangezien Nvidia een Amerikaans bedrijf is moet je ook nog invoerrechten betalen, tenminste als je die kaart in Amerika zou kopen.
Nu weet ik ook nog niet als je bij een importeur koopt die die kaarten met honderden tegelijk in een inkoop doet wat dan de meerprijs is. Buiten dat zitten we nog in Nederland waar je dus best veel belasting moet betalen en dat komt er ook nog eens bij.Plus Nvidia moet nog eens winst maken ,het bedrijf wat die kaarten met de boot of in iedergeval transsportkosten moeten allemaal met de prijs inbegrepen zijn.
En dan heb ik het ook nog niet eens over de r&d kosten die met elk product kosten zijn gemaakt in de voorm van dat die ingeneur ook nog betaald moet worden.En daarom zijn die kaarten met de launche zo duur.
Heel eenvoudig om hierop te reageren, de nieuwe kaarten massaal links laten liggen.
Ik ben het met je eens dat de prijzen veel te hoog zijn, maar dat zijn de 1080ti sowieso. Nu kan je bij alternate al een 2080 voor 799€.

Geef dat een maand of 2 a 3 en je zal zien dat de prijzen behoorlijk zakken, Het is toch ook logisch dat een kaart die nieuwer is en beter presteert en nog een dure extra future heeft(of dit nu wel of niet nuttig is staat daar los van ) dan vind ik het nog wel meevallen.

Maar een 2080ti zou eigenlijk niet meer dan een euro of 600 mogen kosten, dat zou schappelijk zijn. Nu maar hopen dat die hele fake mining onzin eens stopt, en dan zullen de prijzen voor de videokaarten weer een beetje normaal worden.
Daar zit idd niks gelogen bij :)
Geen raytracing, geen dlss, kaarten & drivers op vrijdagmiddag binnen. Gelukkig presteren ze prima op traditionele/rasterized games, maar die prijs... :X
Eigenlijk een hele slechte launch en dan ook nog een aantal dagen verzet, wat vreemd is.
Er heeft veel tijd gezeten tussen de generaties.

En voor een kaart die ze door hun concurrentie positie zo kunnen aanbieden behoort ook wel wat premium aangevuld te worden met games of leuke hardware extra's.

Het is wachten op de "echte" benchmarks, vergelijk het met nu een 8k tv nschaffen.
Zeker goed en nuttig maar .....
Nee, dat is puur omdat generationele prijsverhoging 70% bedraagt en de prestaties dat niet reflecteren.
ja, feeding the trolls
Humor? Volgensmij is iemand kleineren om zijn of haar (beweerde) inkomen verre van humor.

Je vergelijkt appels met peren.
Magic the gathering kaarten zijn altijd al vrij prijzig geweest, volgensmij. Je kan ook moeilijk een kaartspel benchmarken dus intrinsieke prijs is altijd moeilijk vast te knopen met dat soort zaken.
Een auto als een Ferrari of een Lamborghini koop je niet alleen omdat deze alleen wat harder kan rijden.

Een grafische kaart koop je, lijkt mij althans, om de performance. Er wordt toch nergens gezegd dat je het niet moet kopen? Er wordt alleen gezegd dat de prijsverhouding scheef is. Dat de een geen probleem heeft met de prijs is uiteraard subjectief. Zoals ik al zei, of je het wel/niet wil kopen moet je natuurlijk helemaal zelf weten. Helemaal niks mis mee als je een 20xx series kaart haalt.
Het is puur een punt van kritiek dat de kaart relatief duur is. Wat je met die info doet, moet je zelf weten.

Beetje raar dat je je comment wijzigd om op onze reacties te reageren, maargoed.
Een uitspraak van zeer laag niveau in mijn optiek. Praktisch alle reviewers hebben dezelfde conclusie: de prijs/performance verhouding is scheef bij deze kaarten. Je krijgt zo'n 30% meer performance voor 70% meer geld. Het gaat er niet om of iemand het wel/niet kan betalen. Als reviewer wordt aan de consumenten gezegd dat dit product te duur is voor wat het is.
Of je het wel/niet koopt is natuurlijk je eigen keuze, maar vanuit een economisch standpunt is het niet een goede koop.

[Reactie gewijzigd door TheEchelon op 20 september 2018 00:26]

Dan had NV de omstandigheden moeten bieden om een eerlijke vergelijking te kunnen maken. Ik vind het onbegrijpelijk dat je een kaart op de markt brengt met een technologie, waar je op geen enkele wijze, praktisch gebruik van kan maken. Dan kan je het technologiesites niet kwalijk nemen dat ze reviews schrijven met traditionele benchmarks, want er is niks anders, in ieder geval, niet iets wat makkelijk voor handen ligt.

Vervolgens vraag je een belachelijk hoge prijs en moet de consument het maar vertrouwen dat die nieuwe functies het echt waard zijn. Los van het feit of Raytracing echt iets gaat worden natuurlijk, want daar heb ik wel vertrouwen in eigenlijk.

NV heeft de plank echt volledig misgeslagen. Ik hoop echt dat AMD deze kans aangrijpt om hun stempel weer op de markt te drukken, want dit soort praktijken zouden gewoon keihard afgestraft moeten worden door marktwerking.
"Hee man kan je deze testbench runnnen welke letterlijk niemand meer dan 5x zal gebruiken als benchmark dan kan iedereen zien hoe goed onze 2080ti is.

Ps. Alle gehypte features zijn nog in geen enkele game goed ge implementeerd, maar dat is niet erg. Het gaat gamers om benchmarks niet om games toch?"

-jij
Vind je het werkelijk vreemd dat mensen niet onder de indruk zijn van een techniek die nog nergens commercieel toegepast is maar als commercieel verkocht wordt?

En ja het is vrij obvious dat de NV benchmark een best-case scenario voor hun kaarten is. Dat is vanzelfsprekend onderhand. Hoe het in werkelijke games speelt is nu nog de vraag.

De enige toegepaste revolutionaire improvement van de 20xx series is dat hun encoding voor streamen blijkbaar drastisch is verbeterd en GPU streaming nu goed een ding kan worden.
De prijzen zijn heel logisch, waarom alle kaarten van de 10XX serie €200 goedkoper maken als je de nieuwe kaarten met nieuwe features gewoon duurder in de markt zet.

Waarschijnlijk zijn er nog genoeg 10XX kaarten op voorraad die eerst nog verkocht kunnen/moeten worden. Wanneer al deze kaarten eruit zijn zal de prijsdaling ingezet worden.

Slimme marketing toch.
De prijzen zijn heel logisch
Slimme marketing toch.
Of het slim en logisch is hangt er vanaf hoeveel consumenten zich willen laten naaien.
Alles is binnen no-time uitverkocht dus schijnbaar is er genoeg interesse. En iedereen die loopt te zeuren over een te hoge prijs koopt een 2e handse 1080ti waarvan de verkoper weer een nieuwe 2020(ti) koopt.
Dat iets uitverkocht is zegt niks, hoeveel hadden ze in voorraad 10? 100000000?
Volgens pricewatch was de introductieprijs van de 1070 ook een stuk hoger dan die van de 970. De 1070 werd ook met een flinke hype geïntroduceerd. Volgens mij is dit een beleid dat met de 10xx is ingezet
Bedank AMD voor deze prijzen. Zonder concurrentie zullen ze alleen maar stijgen.
AMD bedanken?? Als er meer mensen een AMD kaart zouden kopen, zou het bedrijf meer armslag krijgen om te zorgen voor een betere concurrentie positie. Maar iedereen veel mensen denken alleen maar aan het 'nu' en krijgen daar NU de rekening voor gepresenteerd (letterlijk).

Zo lang veel mensen maar denken... Laat iemand anders maar AMD halen, zal NVIDIA nooit in een positie komen waarbij men prijzen zal verlagen.
Haha, dit meen je niet. Ga je nu de schuld bij de klant leggen dat een bedrijf niet innovatief genoeg is geweest en op de achtergrond is geraakt? Dit heeft AMD al jaren geleden ingezet. Er kopen geen mensen meer een AMD kaart meer omdat het gewoon vele malen minder is dan de concurrent.
Maar de kaarten als de rx480/580 zijn toch helemaal niet vele malen minder dan de Nvidia tegenhangers?

En wat kan AMD er precies aan doen dat Nvidia al jaren lang 3/4x hun R&D budget heeft?
Het is nogal makkelijk om te zeggen dat ze maar meer hebben moeten innoveren.
Dit kost namelijk geld.
Maar de kaarten als de rx480/580 zijn toch helemaal niet vele malen minder dan de Nvidia tegenhangers?
Kaarten die qua prestaties vergelijkbaar zijn, zijn idd niet minder. Dat is wat "tegenhangers" inhoudt.

Maar de snelste consumentenkaart van AMD (vega64) is duurder dan een vergelijkbare kaart van Nvidia (GTX1080), en op de snelste kaarten van Nvidia (incl 1080Ti) heeft AMD totaal geen antwoord.

En dat zeg ik als gelukkig bezitter van een RX570.
Maar de kaarten zoals de 1060 worden zo'n 5 á 6 keer beter verkocht dan een RX580.

De GTX 960 ook zo'n 3x.

Het heeft dus niks met specs te maken maar meer met Intel/Nvidia reputatie.

Het is inderdaad jammer dat ze niet zo sterk zijn in de high end.
En met de hoeveelheden die Nvidia op de markt kan brengen na launch. Bij AMD waren er de laatste jaren een paar paper launches, die pas maanden later de markt haalden.

Het is niet allemaal toeval dat Nvidia het beter doet, ook al is dat niet altijd terecht. Maar grosso modo heeft Nvidia zijn zaakjes beter voor elkaar qua distributie, drivers, koeling etc.

En ja, ik heb naast mijn Nvidia ook een 290x die super fijn draait. Ik heb geen merkentrouw of zo. Maar ik ben gewoon voorzichtig met kiezen voor AMD kaarten. Na de 290 vind ik het allemaal wat minder geworden.
Natuurlijk, ik kan undervolten, maar waarom? Ik koop een kaart prak hem erin en ga spelen. Helemaal als ik het voor de kinderen en aangetrouwde familie koop. Geen gezeik, gewoon out of the box spelen.
En met een lager rd budget wil je ook geen antwoord op die snelste kaarten gezien dat het kleinste taart puntje is van de markt. Beter goed middange concurerrn daar verkoop je immers het meerendeel van je kaarten.
Maar de kaarten als de rx480/580 zijn toch helemaal niet vele malen minder dan de Nvidia tegenhangers?

En wat kan AMD er precies aan doen dat Nvidia al jaren lang 3/4x hun R&D budget heeft?
Het is nogal makkelijk om te zeggen dat ze maar meer hebben moeten innoveren.
Dit kost namelijk geld.
Toen AMD net Ati overnam, voor 5 miljard, sprong het R&D budget per kwartaal van 278M naar 510M per kwartaal. Dan praten we over 2006>2007. Vervolgens is elk jaar steevast het R&D budget verlaagt tot het diepte punt van 229M in 2015. Ati had zelfstandig dus meer R&D budget dan AMD gecombineerd had in 2015. Dat is nog voor inflatie correctie (!).

Dus om antwoord te geven op je vraag. Het was juist AMD die het R&D budget inclusief talent bij Radeon heeft leeggezogen en dit vervolgens 10 jaar lang in stand heeft gehouden waardoor het niet anders kon gebeuren dat er een moment kwam dat Radeon niet meer zou mee komen met Nvidia. Dit is iets waarvoor ik al sinds de eerste daling van het R&D budget in 2008 voor heb gewaarschuwd. Het heeft lang geduurd maar helaas is het probleem werkelijkheid geworden.

Het goede nieuws is dat na Zen het R&D budget per kwartaal weer is verhoogd naar 357M per kwartaal. Dat zit nog echter ver onder het record uit 2007. Radeon moet het dus ook dit jaar nog met een fractie van het originele budget doen. Daar is AMD 100% verantwoordelijk voor. Die hebben Ati gekocht.
Maar had ATI het zelfstandig wel gered? Oprechte vraag hoor, geen idee.

Ik heb sterk de indruk dat investeringen nu vooral mogelijk zijn door succes in consoles, wat natuurlijk niet had gekund zonder poolen van kennis over CPUs en GPUs. Als dat zo is, zou het op langere termijn stiekem alsnog een redelijke keuze kunnen zijn geweest, gezien de beschikbare middelen. Volgens mij is AMD in huidige en volgende generatie consoles marktleider, of niet? Dat zou weer een stabiele basis kunnen bieden voor betere investeringen.

Ik heb iig goede hoop, maar helaas, gezien de koersen, geen aandelen 😋
Eens.

In 2017 gaf Nvidia ongeveer 1.8 miljard aan R&D. AMD is aan het groeien maar als we H1 van 2017 x2 doen komen we op ongeveer 1.1 miljard.

Gelijkaardig als je naar totale omzet kijkt. 9.7 miljard voor nvidia en 5.3 voor AMD

Voor de volledigheid, Intel heeft 62.8 miljard binnengehaald en gaf daarvan ongeveer 13 miljard aan R&D uit.

Nvidia ontwikkel daarmee nagenoeg enkel GPUs. AMD moet met een ongeveer 15x kleiner budget opboksen tegen Intel en nvidia om zowel concurrerende GPUs als CPUs te maken.
In dat opzicht: jammer dat ze op het moment niet de prestatiekroon hebben bij GPUs, maar in de midend concurreren ze goed en lowend levert AMD zelfs iGPUs aan Intel.
Dat is dan ook meer een uitzondering dan een regel. Stel jij maakt een project 2x zo snel af als gepland en jouw werkgever eist dit nu voor al jouw projecten, klinkt dat redelijk denk je? Intel en Nvidia zijn beiden beursgenoteerde bedrijven die zo veel mogelijk winst willen behalen. Met andere woorden, die zullen ook wel nauw letten op hun R&D uitgaven.
Je geeft dus in principe zelf het antwoord. AMD moet zowel concureren in de CPU als in de GPU markt. Op het moment lijkt het erop dat hun efforts vooral in de CPU's worden gestoken. Om ook nog eens high end GPU's te ontwikkelen uit hetzelfde budget is gewoon niet realistisch. Natuurlijk hebben ze kneiterhard gewerkt, goede ontwerpbeslissingen en andere meevallers hebben wellicht ook geholpen. Infinity fabric is immers hun redder in nood geworden.

Wellicht heb jij het project zo snel afgerond omdat je 2x zo hard werkte en veel over werkte omdat je naar de trouwerij van je zus moest, weet ik veel. Volgensmij snap je m'n punt wel.

Hoe dan ook, je praat wel echt heel erg makkelijk. AMD heeft gewoon een veel kleiner budget. En dat ze toevallig voor een product minder geld dan de concurrentie nodig hadden, dan kun je dat niet zomaar extrapoleren naar de GPU-ontwikkeling.
intel steekt daarvan ook geld in de ontwikkeling van het productieproces. Dat is een dure aangelegenheid en is exact de reden waarom AMD dat heeft afgestoten.
4 jaar geleden zou je net andersom gesproken hebben, toen AMD met GPU behoorlijk meekwam in de highend maar qua CPUs het niet zo goed deed. Met Ryzen hebben ze een goede strategie, juiste mensen op het juiste moment op de juiste plaats gezet en schaalt de modulaire setup heel goed van embedded met iGPU (hier is Vega wél zuinig en goed) tot 64(+?)-core multi-socket systemen.

Zover ik weet hadden ze hetzelfde voor ogen met Vega: één chip die alles aankan, want geld om aparte chips voor compute en graphics te ontwikkelen is er niet. Daar liep het dan iets minder :)

Wie weet wat er nog aan komt in de GPU divisie. Sowieso is de markt voor aparte kaarten al een relatief klein aandeel.. Intel is al jaren de grootste graphics-verdeler op de markt De high end is hoge kosten, grotere marges, grote risico's.
En ik geloof dat AMD ook al jaren het merendeel van de consolemarkt voorziet: PS4, Xbox One (S/X), Wii, Wii U. Allemaal continu inkomen, doch lage marge. Zó slecht doen ze het ook weer niet.
Op zich klopt je verhaal, maar er is dus te concluderen dat AMD niet dé concurrent kan zijn op CPU en GPU gebied die we nodig hebben. Daar zijn ze simpelweg te klein voor. Als we op beide gebieden goede concurrentie willen zien tegenover Intel en Nvidia dan zal er wat moeten gebeuren.
Amd hoeft niet op high end mee te doen. In het lage en middensegment wordt nog veel meer verkocht dan dat je denkt.
In de low en mid range heeft AMD nooit onder gedaan aan Nvidia, en de 290x bijvoorbeeld ging nek aan nek met de 780TI. Maar tja als iedereen intel koopt, dan komt AMD niet aan haar geld voor R&D. Vandaar dat je AMD ook ziet verdwijnen in de super high end sectie.
In de low en mid range heeft AMD nooit onder gedaan aan Nvidia, en de 290x bijvoorbeeld ging nek aan nek met de 780TI. Maar tja als iedereen intel koopt, dan komt AMD niet aan haar geld voor R&D. Vandaar dat je AMD ook ziet verdwijnen in de super high end sectie.
Wat betreft GPU's heb je gelijk, CPU's niet echt. AMD heeft, min of meer, een flop gehad met de Bulldozer architecure, en dat heeft hun pijn gedaan. Maar met de Ryzen en Threadripper CPU's, Zen en Zen+, is AMD heel erg concurrerend. Het heeft vergelijkbare prestaties met de Intel line-up voor over het algemeen een iets lagere prijs. En straks met de Zen2 generatie, heeft Intel NIETS om het daar tegen op te nemen zolang de 10nm process niet draait bij hun. Persoonlijk kijk ik daar wel naar uit na zo'n lange tijd.
Hier een lijstje met de rauwe (zonder optimalisaties) rekenkracht. Hier kun je dus zien dat als er meer mensen een AMD kopen en de developers vervolgens meer voor AMD gaan optimaliseren het best goed komt.
970 = 3,9 Tflops
980 = 4,6
290x = 5,6
980ti = 5,6
480 = 5,8
580 = 6,2
1070 = 6,5
Fury = 7,2
Fury x = 8,6
1080 = 8,9
2080 = 10,1
Vega56 = 10,5
1080ti = 11,3
Vega64 = 12,7
2080ti = 13,4
Vega64lc = 13,7 Tflops
Rauwe TFlops zijn het probleem niet, het toevoeren van genoeg data om al die TFlops volledig te kunnen benutten is de grote uitdaging. Daarom wordt er zoveel energie gestoken in het verlagen van cache-latencies, verhogen van bandbreedte etc.
En daar gaan we weer. Weet je zeker dat je er echt niet over wil praten hoe je in elk artikel van een GPU of CPU AMD moet bashen? Altijd maar AMD fanboy dit en AMD fanboy dat.. Sorry pik maar er begint een fanboy in jezelf te groeien 8)7 .

ff ontopic: Dit is een goede innovatieve kaart van Nvidia en ik ben echt benieuwd als er optimaal gebruik van gemaakt kan worden van alle functies in-game. Alleen dan zou ik prijs/performance goed kunnen beoordelen. Zoals het nu lijkt is het allemaal een beetje aan de dure kant :)
Als de klant kortzichtig is ligt dat aan de klant ja.
Beide merken hebben hun eigen voor en nadelen, en er zijn ook zat beweegredenen te verzinnen om voor het ene of andere merk te kiezen.
b.v. nu een AMD kopen omdat hij niets slechter is en in de toekomst ook nog een betaalbare kaart te kunnen kopen, of nu Nvidia kopen omdat het het beste merk is en één merk grafische kaarten in de toekomst wel voldoende is ;)
Vele malen minder is ook overdreven, een vega56 kan aardig mee met een 1070ti, en als je een freesync monitor hebt is de keuze al helemaal makkelijk gemaakt. Vega56 is zelfs sneller in sommige titels.

Niet zo overdrijven met je '' AMD is gewoon vele malen minder dan de concurrent''
Voor de echte leken is de 1070ti veel zuiniger, maar voor iedereen die zich er ook maar een beetje in verdiept, youtube is genoeg, dan weet je als eigenaar van een vega dat je hem moet undervolten en dan mag je dat ''veel'' ook wel weglaten bij meer energieverbruik.
Geen fanboy hier, ik heb zelf nota bene een 1070ti, omdat die simpelweg sneller is in overwatch dan de vega56, en ik veel overwatch speel, en freesync voor mij geen toevoeging was op hoge fps.
Ik ga gewoon amd kaart kopen, ik speel toch op 1980 netzoals veel mensen.

Alleen even wachten nog tot de prijzen verder droppen
AMD bedanken?? Als er meer mensen een AMD kaart zouden kopen, zou het bedrijf meer armslag krijgen om te zorgen voor een betere concurrentie positie. Maar iedereen veel mensen denken alleen maar aan het 'nu' en krijgen daar NU de rekening voor gepresenteerd (letterlijk).

Zo lang veel mensen maar denken... Laat iemand anders maar AMD halen, zal NVIDIA nooit in een positie komen waarbij men prijzen zal verlagen.
De AMD Polaris en Vega kaarten waren juist nergens te verkrijgen… Nvidia heeft zijn omzet verdriedubbeld naar miljarden per kwartaal. AMD zat bij benadering de hele mining hype op dezelfde omzet (de extra omzet kwam van Zen, aldus de CEO).

Meer mensen die AMD Radeon kopen was dus juist niet mogelijk...

[Reactie gewijzigd door sdk1985 op 19 september 2018 22:32]

Niet helemaal waar, de extra omzet kwam ook van Radeon Instinct in datacentra.
AMD heeft tijden lang iedere kaart die ze produceerden direct kunnen verkopen aan de miners, hierdoor waren er voor gamers tijden lang geen AMD kaarten voorhanden, terwijl nvidia ruim te krijgen was, pas veel later werden nvidia kaarten ook lastiger leverbaar. Zomaar even AMD kaarten kopen als consument zat er gewoon niet in, want ze waren er simpel weg niet. Ik zou de schuld, als je al van schuld kan spreken, hier niet bij de consument leggen.
AMD heeft besloten meer nadruk te leggen op de CPU en APU ontwikkeling, en met Navi op consoles.
En dan zou ik een "inferieur" product moeten kopen om hun (in mijn ogen) slechte beleid te corrigeren?
alsof iedereen enkel een 1080+ koopt.....

typische reactie . de hoogste is de beste, dan al de rest ook....
Dit artikel gaat over de 2080/2080Ti, dus de high-end kaarten, en op dat gebied laat AMD het momenteel afweten.
Maar zelfs in het midden-segment heeft nvidia in mijn ogen de betere kaarten, alleen low-end zou ik mogelijk voor AMD gaan, alleen hebben die segmenten voor mij geen enkele relevantie.
In jouw ogen? Waarom? Dat AMD op dit moment geen reactie heeft op een RTX2080Ti, sure. Maar midend?

RX580 en GTX1060 zijn zowel qua prijs als prestaties min of meer nek aan nek, afhankelijk van het merk dat je koopt of de game die je speelt. Er is geen eenduidige winnaar te noemen.
Drivers van AMD schijnt dan een argument te zijn, maar die zijn al jaaaaaa-aaaaaren echt geen probleem, terwijl die van nvidia ook echt niet heilig zijn.

Verder staat AMD voor open technieken terwijl nvidia met programma's als Gameworks en GPP de concurrentie probeert te benadelen danwel op oneerlijke wijze uit te schakelen.
Verbruik/koeling van AMD kaarten zijn wat mij betreft echt een enorm issue. Dat zijn dingen die ook de levensduur bepalen.
De RX580 is een opgepompte RX480, klopt. Vega is ook geshipped met een hoog voltage voor een paar MHz meer. Veel extra verbruik voor weinig resultaat, domme keuzes in een strijd om de laatste paar procentjes. Dat kan je dus eventueel nog zelf regelen. Mijn eigen kaart heeft bvb een OC BIOS en een trager BIOS. 10% meer verbruik, 2% sneller.
Dus dat kan ik ook niet goedpraten, maar je kan het wel zelf weer goed zetten.

Of ze daar korter van meegaan, mwah? Lijkt me dat dit in het verleden meer dan genoeg is gebeurd zonder nadelige gevolgen. Zie ook CPUs :)
De RX580 is een opgepompte RX480, klopt. Vega is ook geshipped met een hoog voltage voor een paar MHz meer. Veel extra verbruik voor weinig resultaat, domme keuzes in een strijd om de laatste paar procentjes.
De selling point van veel AMD kaarten is de bandwidth, al helemaal met de vega reeks die HBM2 gebruikt. Hoe hoger de bandwidth van het geheugen hoe soepeler het presteert op de hoge resoluties. Iets wat je ook steeds weer terug ziet bij AMD over de jaren. Nieuwe APU's, hogere resoluties, het is bijna altijd AMD die daar het meeste uit haalt en nVidia die het laat afweten.
Ik meen te herinneren dat HBM oorspronkelijk door de geheugenproducenten aangekondigd was met hogere snelheden en dat dit in de praktijk dan ook weer tegenviel toen het eenmaal geproduceerd werd. Ook een tegenvaller :)
koeling op NVidia FE kaarten is ook gewoon ruk, en vergeet niet dat een Vega 64 50W meer verbruikt dan de 1080 GTX, mijn 1080 draait in iedergeval standaard op 250W te blazen onder load..... en de nieuwe Turing kaartjes zijn ook niet bepaald zuinig. dat argument vind ik BS en ook niet echt relevant voor gamers, ga jij kijken naar energie verbruik van je PC? Ik in ieder geval niet, nu niet nooit niet. Bespaar liever in dingen die het wel waard zijn (Horizon box van ziggo anyone? ding verbruikte gewoon €150 aan stroom per jaar als ie uit staat).
Vind daarnaast het argument wat vele maken dat AMD slechter kaarten uit brengt onzin, ja hun High end segment is slecht op het moment maar in de low en mid end zijn ze gewoon goed. Maar omdat Nvidia hun marketing beter op orde heeft en met de High end de scepter zwaait geloven mensen meteen dat alle Nvidia kaarten beter zijn ongeacht prijs point.
Maar we moeten vooral zo doorgaan als schapen Nvidia te blijven kopen, is dadelijk de ENIGE relevante concurent weg en gaat je de 3080TI richting de €2000,-.
Maar omdat Nvidia hun marketing beter op orde heeft en met de High end de scepter zwaait geloven mensen meteen dat alle Nvidia kaarten beter zijn ongeacht prijs point.
Tja, nvidia weet hoe belangrijk de high-end kaarten zijn voor de reputatie van een merk en profiteert daar van. AMD heeft dat zelf laten liggen.
Maar we moeten vooral zo doorgaan als schapen Nvidia te blijven kopen, is dadelijk de ENIGE relevante concurent weg
Ik kan niet wachten. Intel kan dan mooi de resten van de GPU tak van AMD overnemen, een deel van het personeel zit er toch al, en AMD kan zich concentreren op hun sterke punt, CPU's maken.
hoor je jezelf nu? AMD beter in CPU? volgens mij heeft AMD tot de laatste jaren altijd goed kunnen concurreren met Nvidia en omgedraaid.
Intel de markt van AMD afpakken? wat heb je gerookt, wil ik namelijk ook..... Intel heeft nog NOOIT een degelijke GPU op de markt kunnen brengen, 20 jaar geleden niet en larrabee ook niet (al was deze wel een goede schop in de richting) Intel komt pas over 2-3 jaar met een discrete GPU op de markt en dan is het nog afwachten waarmee ze komen, vergeet niet dit is hun zoveelste poging om een GPU te ontwerpen. Hoop dat ze iets fatsoenlijks op de markt kunnen brengen (meer concurrentie is altijd welkom), als het doorgaat zoals nu kunnen ze misschien in de low end blijven en hoeven ze geen APU meer van AMD af te nemen nu koduri daar zit.

dit soort berichten is weer typisch kort termijn visie (toekomst en verleden) waar de hele economie van naar de knoppe gaat.
Intel i740 was anders een prima kaart indertijd. Die kon heel goed met de concurrentie meekomen.
Een release met heleboel bombarie, maar de uiteindelijke performance middelmatig tot slecht bedoel je? Beetje zoals de Turing release :D
Dat was een 2D kaart met basis opties. Dat was dan ook het laatste wat Intel uitgebracht heeft omdat de concurrentie Intel stompte op alle vlakken.
Intel de markt van AMD afpakken? wat heb je gerookt, wil ik namelijk ook....
Wellicht eens goed lezen wat ik precies zeg, dat is namelijk niet dat Intel markt van AMD af zal pakken, maar dat Intel de GPU divisie over zou kunnen nemen als deze faalt, juist omdat zij nog niet veel kennis van GPU's in huis hebben.
AMD heeft de laatste jaren zich op CPU's gefocust, wat ten koste is gegaan van de ontwikkelingen op GPU gebied, maar onmiskenbaar goede resultaten op CPU gebied heeft opgeleverd.
Intel wil wat met GPU's gaan doen, heeft al personeel van AMD in huis gehaald, werkt al met AMD samen op GPU gebied, en heeft een groot budget voor R&D.
Overname van de GPU divisie van AMD zou dus juist een sterke concurrent voor nvidia betekenen, en daar hebben we meer aan, aangezien AMD momenteel niet echt de juiste concurrentie weet te bieden op GPU gebied.

Maar ik weet het, kortzichtig van me...
De RX580 is een opgepompte RX480, klopt. Vega is ook geshipped met een hoog voltage voor een paar MHz meer. Veel extra verbruik voor weinig resultaat, domme keuzes in een strijd om de laatste paar procentjes. Dat kan je dus eventueel nog zelf regelen. Mijn eigen kaart heeft bvb een OC BIOS en een trager BIOS. 10% meer verbruik, 2% sneller.
Dus dat kan ik ook niet goedpraten, maar je kan het wel zelf weer goed zetten.

Of ze daar korter van meegaan, mwah? Lijkt me dat dit in het verleden meer dan genoeg is gebeurd zonder nadelige gevolgen. Zie ook CPUs :)
koeling op NVidia FE kaarten is ook gewoon ruk, en vergeet niet dat een Vega 64 50W meer verbruikt dan de 1080 GTX, mijn 1080 draait in iedergeval standaard op 250W te blazen onder load..... en de nieuwe Turing kaartjes zijn ook niet bepaald zuinig. dat argument vind ik BS en ook niet echt relevant voor gamers, ga jij kijken naar energie verbruik van je PC?
Toen ik echt veel gamede ging ik door meerdere koelers en gingen de kaarten na een paar jaar echt gewoon stuk (Artifacts, crashes, bootloops). Dus ja, hoeveelheid hitte is gewoon een dingetje, los van de irritatie van een stofzuiger op je bureau.

Dus nee, energie rekening kijk ik niet naar, maar slijtage aan de kaart is gewoon een merkbaar nadeel. Dus ja, ik kies voor de kaart die het koelste draait. een paar procent frames vind ik minder spannend. Maar dat ligt voor iedereen natuurlijk anders.
is dit niet het geval bij alle reference kaarten (AMD en Nvidia)? De benchmarks van de turing liegt er ook niet om dat de 2080 en 2080TI ook richting thermal limit gaan
Helemaal waar!

Turing gaat het voor mij ook niet worden. Duidelijk een model waar we gezeik mee gaan krijgen. Generatietje overslaan ;)

Nvidia is ook niet heilig hoor, ook wel eens rare modellen tussen :X

[Reactie gewijzigd door roffeltjes op 19 september 2018 21:09]

In jouw ogen?In jouw ogen?
Omdat ik sinds mijn eerste TNT gebaseerde kaart goede ervaringen heb met nvidia, en mijn uitstapjes naar ATI/AMD niet echt goed zijn bevallen.
RX580 en GTX1060 zijn zowel qua prijs als prestaties min of meer nek aan nek,
Juist, er is dus voor mij geen meerwaarde om over te stappen naar AMD.

Daarnaast is het verbruik van de 10-serie een sterk punt, en dan kijk ik niet direct naar de besparing op energie-kosten, maar wel naar de lagere eisen aan de voeding. Helaas zijn de huidige 20-serie kaarten helaas weer meer gaan verbruiken.
In jouw ogen? Waarom? Dat AMD op dit moment geen reactie heeft op een RTX2080Ti, sure. Maar midend?

RX580 en GTX1060 zijn zowel qua prijs als prestaties min of meer nek aan nek, afhankelijk van het merk dat je koopt of de game die je speelt. Er is geen eenduidige winnaar te noemen.
Drivers van AMD schijnt dan een argument te zijn, maar die zijn al jaaaaaa-aaaaaren echt geen probleem, terwijl die van nvidia ook echt niet heilig zijn.
De 1060 zit eigenlijk consequent een paar 10tje onder de prijs van een 580. Momenteel is het bij MSI bijvoorbeeld 259 voor de 1060 6 GB en 279 voor de 580 8 GB. Gemiddeld genomen is de RX 580 net even een stukje sneller. Power consumption praten we over 116W vs 239W tijdens gaming, aldus https://www.techpowerup.c...RX_580_Nitro_Plus/28.html. Samengevat is de 1060 goedkoper, zuiniger en dus stiller. De rx580 is duurder, sneller, verbruikt meer en maakt dus meer lawaai.
Verder staat AMD voor open technieken terwijl nvidia met programma's als Gameworks en GPP de concurrentie probeert te benadelen danwel op oneerlijke wijze uit te schakelen.
Mantle, True audio? Probleem van AMD is dat het marktaandeel onder gamers erg laag is en dan kun je eigenlijk niet wegkomen met een gesloten standaard.

[Reactie gewijzigd door sdk1985 op 19 september 2018 22:42]

Die prijs hangt erg af van welk model je kiest, ik had snel even door de pricewatch gescrolled (filters lijken me niet onredelijk) en zag prijzen voor beiden in een zeer vergelijkbare range. Heb het nog even in een grafiekje proberen gooien en ze overlappen echt wel, voor nvidia zijn er gewoon meer keuzes.

En dat marktaandeel... Veel mensen lijken, ook met de CPUs, iets te hebben dat het merk dat ze ooit hebben gekocht werkt en niet verder kijken, ook al is het (afhankelijk van het moment/de stiuatie) duurder.
[...]

Power consumption praten we over 116W vs 239W tijdens gaming, aldus https://www.techpowerup.c...RX_580_Nitro_Plus/28.html. Samengevat is de 1060 goedkoper, zuiniger en dus stiller. De rx580 is duurder, sneller, verbruikt meer en maakt dus meer lawaai.
Klopt. Het gekke is alleen dat de meeste van die kaarten (570/580) zeer gemakkelijk te undervolten zijn wat ze eigenlijk veel betere kaarten maakt. In sommige gevallen worden de prestaties er ook nog beter door, omdat er geen thermal throttling meer optreedt. Puur en alleen voor de benchmakrs zijn die kaarten zo tot hun maximum geduwd dat ze onzuinig en warm worden.

Hetzelfde is met Vega gedaan. Die cores doen het gewoon prima als je ze niet helemaal tot het uiterste duwt, wat goed te zien is in de 2200G processors bijvoorbeeld.

Persoonlijk heb ik een 570 gekocht (Gigabyte) die klonk alsof er een helikopter in de kamer stond. Na een uurtje tweaken met voltages en kloksnelheden is de kaart nu overclocked en undervolted. De prestaties zijn nu beter, en de fan hoeft niet hoger dan 2500rpm, je hoort hem amper meer.

De gewone consument heeft hier niks aan natuurlijk. Maar vind de keuzes om die kaarten zo te pushen een foute keuze. Het levert 2% meer op in een benchmark, maar alle andere prestaties van de kaart lijden er onder.
Waarschijnlijk was het gat met Nvidia op papier dan te groot. Vrijwel alle keuzes van AMD rondom Radeon zijn vreemd. De RX480 had een enorm potentie maar is zo goedkoop in de markt gezet dat AMD er uiteindelijk maar zeer weinig van heeft verkocht. Zonde...

Dus de suggestie dat er enorme volumes naar miners zijn gegaan kan relatief zeker waar zijn. Ongetwijfeld hebben miners veel kaarten gekocht. Alleen er zijn er gewoon niet veel geproduceerd...Op V&A zie je ze ook niet:
GeForce GTX 980 Ti
15
GeForce GTX 1060 (1280 cores)
40
GeForce GTX 1070
63

GeForce GTX 1070 Ti
19
GeForce GTX 1080
35
GeForce GTX 1080 Ti
42
Radeon RX 460
5
Radeon RX 470
15
Radeon RX 480
26

Radeon RX 550
2
Radeon RX 560
5
Radeon RX 570
19
Radeon RX 580
31
Radeon RX Vega 56
9
Radeon RX Vega 64
9
De voorspelde exodus van mining kaarten is nooit gekomen en die zal wellicht ook nooit komen. Het zijn momenteel de gamers waar miljarden per kwartaal aan omzet bij wordt gegenereerd.

[Reactie gewijzigd door sdk1985 op 21 september 2018 14:14]

Het is CPU die gpu afdeling de afgrond mee in trok. Het is dus ook de CPU omzet van Zen die middelen voor de GPU afdeling kan verhogen dus massaal Ryzen TR kopen.
En wat Vega .
Als AMD eens normale prijzen zou gaan vragen voor hun vega kaarten. Ze kosten (veel) meer dan hun Nvidia gelijken en presteren er net onder. Ga jij lekker AMD voorzien van geld. Vroeger was AMD iets minder goed, maar dan dus ook iets goedkoper. Dat zijn ze al jaren niet meer. Na de HD7970 is het alleen maar berg afwaarts gegaan. Pas met de CPUs nu gaan ze weer de goede kant op met Ryzen.
Die moet je in Duitsland kopen, in Nederland gooien de winkeliers er te veel op. En hier op de pricewatch staan de goedkope jongens er niet bij.
https://www.mindfactory.d...x16--Retail-_1229293.html Hier 489, was pas nog 469 dus gaat ook heen en weer.
Nee amd had zijn roadmap op orde moeten hebben en niet de gok op dx12 en hbr moeten nemen. Hbr is helemaal niet nodig voor foede prestaties nog maar is wel uiterst duur, dx12 is nogsteeds geen gemeengoed. Daarnaast is de gaming laptop markt erg groot en hierbij heeft AMD nu al 5 jaar niks deftigs gedaan. Wat er was, was slecht presterend en zeer energie slurpend. Waarom zouden klanten daarvoor moeten opdraaien. Nvidia gooit de prijzen nu omhoog ja maar het is ook new tech en handels embargos hebben er nu al een effect op. Het is niet alleen alsof het door hun monopolie komt. Laten we hopen dat intel het met hun gpu oplossing in 2020 beter gaat doen.
Op console gebied heeft AMD zo wat een monopolie, buiten de Switch. 120 miljoen consoles verkocht. Dat moet toch wat opgeleverd hebben? Ze hebben gewoon alle research in de CPU gestoken en de gpu markt laten verslonsen. Dat is niet de schuld van de consument maar van AMD zelf.
Graag, heb sinds de 6600GT alleen maar AMD kaarten gehad. Moeten die krengen wel te krijgen zijn! Na ruim een jaar lang gepoogd te hebben een AMD kaart voor een redelijke prijs te kunnen kopen en maar blijven wachten tot Vega eindelijk eens kwam was ik het spuugzat!
Ben niet te beroerd om een paar tientjes meer te betalen voor een GPU op een build van €1800 maar als AMD al die tijd liever zijn kaarten voor de hoofdprijs aan miners verkoopt moeten ze niet huilen of wijzen naar dezelfde community die ze genaaid hebben.
Dus na zo'n 10 generaties en denk 20 AMD kaarten hebben ze zelfs deze fan naar de groene kant gejaagd 8)7

Voor de liefhebber deze kaarten heb ik na de 6600GT gehad (vraag alstjeblieft de logica en volgorde er niet van....Tweaker, jong, ect :+ )
X800, X800XL (2x), X800XT (2x), X1600XT, X1800XL, X1800XT, HD4650, HD4850, HD6850 (2x), HD7700 GHz, R9 380 en toen was er schaarste. En tussendoor nog onboard HD3450, HD3200, HD3300, HD3000, HD4200 en HD4250 gebruikt :+

Maar nee ik heb geen voorkeur voor AMD graphics hoor :+
Dus je moet een AMD kaart kopen (ook al presteert die aanzienlijk minder) om zo ervoor te zorgen dat er geen monopolie ontstaat? Zo werkt de wereld natuurlijk niet...
Ik heb de vega gehaald, doet het goed voor wat ik ermee doe (niet gaming gerelateerd) maar voor gaming is hij 'waardeloos' comfort is 0 je moet hem waterkoelen anders word je doodziek van het ding (vega 64 red devil). Ik ga gewoon nV halen want hij schijnt goed te zijn in productiviteits suits (volgens linus) is stiller VEEL sneller en alsnog een lager verbruik. 1200 euro is veel geld, maar ik gebruik mijn PC flink veel, dan is 1200 euro een kleine investering.
Succes met dag dromen, ik draai alles op 4k, jij waarschijnlijk niet.... Farcry 5 (gekregen bij de kaart) Starcitizen en andere titels die enige moeite kosten gaat hij op volle toeren. Willen fanboys niet horen maar het heeft een reden waarom de kaart niet verkoopt (behalve aan miners). Ik gebruik hem bijna alleen voor CAD. Gamen is een nachtmerrie, welk bewijs wil je hebben? (zeker nep!!!)
Sneller dan een 1080... zucht.. ja in een paar titels (forza en doom of paar andere titels die vulcan gebruiken) over het algemeen niet.
Een een vega verbruikt 300 watt, een 1080, 180watt is dus cooler en dus stiller en OC'd makkelijker.
P.S. niet waarschijnlijk langzamer, feitelijk vastgesteld door 99% van de review sites.

[Reactie gewijzigd door D0gtag op 19 september 2018 22:33]

Als jij die vega hebt, dan moet je ook weten dat hij gewoon op 4K 60 fps kan draaien. Ik moet wel stellen dat ik de games die je noemt niet heb. Maar bij mij zit die vega 64 nitro in een relatief kleine htpc behuizing onder de reciever in het tv meubel. Gamen doen we op 4K en op tv is 60 fps voldoende, is geen monitor.
Het klopt dat hij meer stroom verbruikt dan een 1080, maar ik vind het zo overtrokken. de temp is goed, de fanspeed is goed, waar hebben we het over. Een tientje meer stroom per jaar. Ik heb een redelijk sportieve motor in mij auto liggen, die verbruikt zeker 100 euro meer aan benzine per maand, daar klaag ik ook niet over.
De real life performance is gewoon prima van die vega, tuurlijk het kan beter en nvidia presteert ook beter, maar dat wil niet zeggen dat die AMD kaart k.u.t. is.
Ik ben absoluut geen fanboy, hekel aan.
60fps 4k.... what ever, welke titels dan, dragon age inq... niet, the witcher3.... niet. Farcry 5 ...niet. BF4 net aan maar dipt constant naar de 30/40fps(multiplayer). Civ5/6, skyrim LE (LOL) Dit zijn allemaal games van een paar jaar oud behalve farcry 5 die geoptimaliseerd was voor amd. Nieuwe games: Starcitizen, (Shadow of the)Tombraider, AC odyssey, (target FPS 30 op high) kan je hem op medium zetten om de 30fps te halen.
Stroom kosten zijn het probleem niet (alleen een fan kan dat bedenken, ook al vind ik verspilling schandelijk..) het probleem is natuurlijk 0.0 OC potentieel en standaard een 300watt heater in je kast hebt. (kijk toevallig even hier, tweakers ook geen real life ervaring? noem mij de aantal games op met 60fps....4k, ik help je, van de 11 games zijn er 3 die net de 60fps aantikken)


Jij hebt een kleine HTPC kast, ik heb een Fractal meshify C Die praktisch open is met 2 120mm fans en 2 140mm fans voor airflow, mijn GPU verplaatst naar de onderste pci-e slot (ten kosten van..) de kaart undervolt en underclocked (vergeet die 30fps dan maar), ik heb een ryzen 2700 die ik niet meer OC omdat hij anders lekker warme lucht van de gpu binnen krijgt. De top van mij PC kast is een grill na een game sessie.

Real life performance is k*t op 4k, speel je op lagere res is de vega interessant maar aangezien de 1080 goedkoper is heb ik geen idee waarom jij een vega boven een 1080 zou verkiezen aangezien ze onder de 4k toch standaard hoge fps aan kunnen, koeler zijn, stiller, goedkoper en makkelijker verkrijgbaar zijn = nogmaals een lagere prijs.

Ik heb mijn vega 64 Red devil voor een goede prijs gekocht = vergelijkbaar met een 1080, voor mijn applicaties presteert de vega 64 aanzienlijk beter dan nV. Maar voor gaming.. zal ik deze kaart nooit aanraden. Ik kan niet eens fatsoenlijk discord gebruiken met maten door die k*t fans.

Jij speelt overduidelijk geen gpu intensieve games in je kleine kast of je BS't over je vega 64... met je echte ervaring...
Dat is zo maar het verschil is nooit zo groot geweest als nu. AMD is gewoon onbestaande in het high end segment en dat is best droevig.
Allereerst, top review weer, wederom lekker uitgebreid, zoals het hoort (althans naar mijn idee)
Alleen nu had ik bij dit stuk hieronder zo mijn bedenkingen, of deze ook gaan kloppen is vraag 2 natuurlijk, maar toch: "Wat we wel kunnen staven, is dat de RTX 2080 in de meeste gevallen nauwelijks sneller is dan GTX 1080 Ti, die iets goedkoper is. Je kunt er dus voor kiezen om iets meer geld uit te geven en een kaart te kopen met toekomstbestendige features die je al dan niet gaat kunnen gebruiken, of je kunt een oudere generatie kopen die nu nog goed meekomt, maar hardware ontbeert die Turing uniek maakt."

Aangezien ik het ook zo zie gebeuren dat er in eerste instantie wel een paar games zullen verschijnen die het zullen gaan ondersteunen (het Realtime ray tracing gebeuren), een aantal uitgevers hebben immers ookal aangegeven dit zullen te gaan doen, en welke dat zullen zijn, en deze staan dan ook in deze review vermeld. Maar wellicht wanneer het eenmaal puntje bij paaltje komt, en deze kaarten al weer wat langer op de markt zijn, er ook wel weer een aantal zullen zijn die het niet meer toepassen/gebruiken, of er zelf vanaf stappen. Misschien alleen al, omdat de kaarten bij introductie aardig aan de prijs zijn, en zo wellicht in het begin niet bijster veel verkocht zullen gaan worden, wat dan weer maakt dat de game studio's het nut er na een tijdje misschien wel helemaal niet meer van zullen gaan inzien, omdat het zo weinig gebruikt wordt. Ik zeg dus niet dat dat ook het geval gaat zijn, maar ik wacht eerst nog even rustig af in elk geval.

En zoals een stukje uit het gelinkte .pdf bestand uit mijn reactie hierboven ookal aangeeft:

It is not the intention of Intel, NVIDIA or other graphics companies, like it is often stated in the last months, that ray tracing will be the replacement of rasterization. For that the speed advantage of rasterization is just too big. However, by the use of hybrid approaches, some computationally intensive effects could be bound into the content pipeline a lot simpler and some others would even been just made possible by that. Current real-time effects, which could profit of this, would be (soft-) shadow algorithms or real-time global illumination algorithms that use ray-tracing-based photon mapping to determine the indirect light radiation. Within this semester thesis for the advanced seminar, the two topics of new ray tracing APIs and optimization of an existing GPU Ray Tracer, called RayGLSL will be focused. Furthermore, two more responses to Intels plans have arrived on the market. NVIDIAs NVIRT API for NVIDIA graphics cards, based on the GPGPU2
tool cuda, and also a hardware solution for ray tracing by the company Caustic Graphics. Both systems claim to be able to display interactive real-time ray tracing results.

[Reactie gewijzigd door SSDtje op 19 september 2018 17:07]

Ik vind dat je daar een goed punt maakt. Niet alleen of het wel de toekomst is of niet, maar hoe lang, naast dat handjevol games, het gaat duren voor die toekomst er is? Dan zijn we wellicht een of twee video kaart generaties verder en zijn deze sowieso, maar de nieuwe misschien ook, een stuk goedkoper.
True, en als ik hier en daar dan ookal lees dat de goedkopere versies van deze generatie kaarten die nog komen gaan het realtime ray tracing al helemaal niet gaan meekrijgen/ondersteunen, maakt dat game studio's het in eerste instantie dus alleen voor een twee tal kaarten (en daarmee dus ook een relatief kleine groep mensen) mag gaan lopen toevoegen/ondersteunen wanneer zij dit zouden willen.
(En dan reken ik de Quadro varianten van deze kaarten dus niet mee)
Ikzelf ga dit dan ook eerst eens een tijdje in de gaten lopen houden, voordat ik er mijzelf überhaupt een zal gaan aanschaffen.

[Reactie gewijzigd door SSDtje op 19 september 2018 18:18]

Dat klopt. Het probleem is is dat je een beroep op de toekomst doet. En niemand weet precies hoe mooi die toekomst er uit ziet. Misschien is RTX wel een flop die de meerprijs niet waard is. Misschien wel, we weten het niet. Of misschien is RTX pas volwassen in de volgende generatie. We weten het niet. We kunnen pas oordelen als de toekomst er is. Dan pas heb je ook wat aan de RTX. En misschien is dan de 1080 Ti de minder goede keuze voor de moderne spellen met deze nieuwe eigenschappen. Of misschien nog steeds een goede optie.

[Reactie gewijzigd door space_octopus op 19 september 2018 18:36]

Mee eens.

Die "toekomstbestendige features" moet zich nog bewijzen. Deze kaarten zijn in vergelijking met de 10 serie is absoluut meer future-ready (wat je niet hebt kan je uiteindelijk wel gaan missen), maar hoever, hoeveel en hoe snel deze features het naar de markt gaan maken is nog volledig onbekend.

Ik vrees zelf dat we eerst een generatie van "overdone" raytracing titles gaan krijgen, waarbij raytracing te aanwezig zal zijn. Dat omdat huidige games in zekere zin ook veel met lighting en reflections "faken" om de game leuk er uit te laten zien, en je dus wel verschil moet kunnen zien om "profijt" te hebben van raytracing. Een beetje zoals overmatig veel motion blur in race games.. visueel geinig maar wel hinderlijk.

Tevens moet nog maar blijken dat elke title support gaat krijgen voor deze nieuwe features. Afhankelijk welke games je speelt, bijvoorbeeld simulatie games in VR, kan het nog wel eens makkelijk paar jaar duren voordat die graphic engines worden geüpdatet, als dat al binnen afzienbare tijd gebeurd. In dat geval kan je beter voor fps/$ kiezen of nog even wachten.
Sorry, maar al dat gezeur over te hoge prijzen zijn compleet de weg kwijt.

Simpel: je kan de advies prijs bij introductie totaal niet vergelijken met de huidige prijzen, 1,5 of 2 jaar na de introductie van het vorige top model.

De 1080 Ti was ten tijde van de introductie ook bijna 900 euro. Ik heb 14 oktober (half jaar of zo na introductie) bij Cool Blue 889 euro betaald voor een EVGA GeForce GTX 1080 Ti FTW3 Gaming. Bij de introductie was dat apparaat 1000 (!!!!!) euro! Toen hoorde je bijna niemand.

Nvidia levert hier compleet nieuwe techniek, niet zomaar een snellere geoptimaliseerde versie van de vorige generatie. Hier zit compleet nieuw ontwikkelde techniek in. Ik vind het redelijk normaal dat als je de eerste wilt zijn, je de hoofdprijs betaalt (kijk naar Intel's snelste, dikste, meeste cores, die is ook onbetaalbaar en onevenredig duur ten opzichte van het modelletje er onder).

Wacht een maand of 3 en de prijzen van Asus, MSI en al die andere zakken ook onder de 1000 euro.

Lang verhaal kort: stop met zeuren en mekkeren over die prijzen en koop gewoon zo'n ding als je hem wilt hebben :*) ;)
@willemdemoor Is the Witcher 3 getest met Anti-Aliasing uit of aan op Ultra? Dat schijnt een flinke performance boost te geven wanneer je deze uitzet.

Ik speel zelf op een GTX1080 SLI en haal dezelfde resultaten als een 2080 ti op 4k maar dus wel met Anti Aliasing uit.

[Reactie gewijzigd door juggle op 19 september 2018 15:32]

AA op 4x
We zoeken niet de soepelste prestaties, maar proberen de kaarten tot het uiterste te testen :)
Medium is zonder AA, maar daar kopen we geen 2080 Ti voor :D
Uiteraard, maar ik zie wel lagere prestaties met de kaarten die jullie getest hebben en waar dus AA aanstaat. In de witcher kan AA alleen aan- of uitgezet worden. Waar hebben jullie de 4x AA ingesteld?

Bijvoorbeeld: de GTX1080ti haalt met AA aan iets van 46fps gemiddeld. Net zoals de GTX1080 die ongeveer 35fps haalt dan.

Jullie resultaten zijn dus hoger, dan de meeste tests weergeven. Ik kan het fout hebben hoor maar ben gewoon benieuwd. De AA op hairworks is wel apart in te stellen op 4x maar dat bedoelde ik niet en jij denk ik ook niet?

[Reactie gewijzigd door juggle op 19 september 2018 15:33]

Excuus, ik zat idd bij Hairworks AA te kijken, die staat op 4x. De gewone AA staat gewoon op 'On'.
Misschien zijn de hogere resultaten door de overgeklokte cpu veroorzaakt? We proberen die bottleneck te vermijden door de 7900X op 4,5GHz te draaien.
Toch lijkt het er sterk op dat er op de lagere resoluties een cpu bottleneck is. Wat dat betreft verwacht ik dat de verschillen groter zijn wanneer een 8700K op 5+ Ghz wordt gebruikt (en straks een 9700K die mogelijk nog wat hoger clockt).
Jazeker, op lagere reso's is het in veel games de cpu, vandaar 10x 4,5GHz. Maar 8700K @5GHz zou iets hogere scores op 1440p/1080p kunnen geven, iig voor DX11-games.
Vooral interessant daaraan is kijken of de onderlinge verhoudingen bij een snellere cpu veranderen. Laten we eerlijk zijn 4.5 Ghz op een 7800K is niet high-end anno 2018. Helaas is de realiteit daarnaast dat veel games nog altijd voor hun main thread zwaar op 1 core leunen. Ik doelde hierdoor specifiek op grotere verschillen. Dus stel met 4.5 Ghz is het verschil op 1080p 10% dan zou het op 5.0 Ghz beide sores beter uitvallen maar het verschil zou dan ook weleens kunnen stijgen naar 15% (gegeven de veel hogere verschillen op 4K).

Techpowerup test ook 'slechts' op 4.8 Ghz dus ik hoop op een hertest zodra de 9700K uit is :).
Een tijd terug was er besloten Hairworks uit de testen te houden, of iig dubbel te testen. Dat is er stiekem weer in geslopen?
Dat moet ik even met Jelle afstemmen, da's zeg maar 'voor mijn tijd' :)
Aan de andere kant ziek ik op 4k eigenlijk geen enkel voordeel meer van AA, tenzij ik naar een stilstaand beeld zit te kijken en dan ook nog eens dicht op het scherm. Dat gebeurt dus eigenlijk nooit en ik zet het standaard uit voor de performance boost. Op een 1080Ti overigens die het dan prima doet op 4k. Ik zie vooralsnog geen enkele reden om deze dure kaarten te kopen.

OT: Ik denk dat ik eerder een Vega voor mijn tweede PC aan zal schaffen omdat ik daarop ook compute werkzaamheden doe die double precission floating point gebruiken. Dan moet je bij nVidia meteen naar de dure Tesla kaarten grijpen. (Of een Titan V). Die PC heeft een 1440p scherm, daar is Vega prima voor.
Wel serieuze performance gain. Ik pak op witcher 3 4k ultra 60 fps steady met mijn 1080ti maar dan hairworks off. Zal zelf niet upgraden maar performance verschil is super!
Jullie vergeten dat het vooral de verhoging van het aantal cores en het gebruik van GDDR6 geheugen zijn die bijdragen aan de verhoging van de prestaties. 34% sneller met 21% meer cores vind ik niet zo bijzonder en dus relatief.
Verklaart inderdaad direct het hogere stroomverbruik. Ik wist dat met de 1080TI het tijdperk was aangebroken om 4k 60fps te gamen, juich dus de ontwikkelingen toe! Echter is het zo dat Nvidia zoiets heeft van: succes er mee, AMD komt met niks dus ik verhoog mijn prijzen lekker! Gebrek aan concurrentie is erg jammer te noemen..
~35% meer performance, maar de extra prijs is absurd.
Ja, ik lees in het artikel alleen 70% duurder. Ik ga voor het gemak uit van de goedkoopste 1080ti, is 699 euro. Dus bijna 1200 euro voor de kaart, kan toch niet waar zijn?
Dat is het dus wel. Een 1080 Ti is een veel betere keuze op dit moment. Prestatie verlies tozv een 2080 (non Ti) is nog geen 10%.

Ben overigens wel benieuwd naar de overclockbaarheid van beide kaarten.

Edit: overclock resultaat.
Custom kaarten met overclock is zo'n 8-9% sneller als de stock kaart. Erg veel potentie is op dat gebied niet te halen dus.

[Reactie gewijzigd door Tortelli op 19 september 2018 15:41]

Dat is dus 8-9% op de founders edition, die standaard alweer 10% overclocked zijn, dat is dus bijna 20% vanaf de "stock" kaart....

Lijkt mij niet een heel slecht resultaat op een nieuwe kaart met een nieuw procedé.
Ik denk dat je verkeerd om kijkt... de 2000 serie is de founder, dus de stock 2080 = 1080ti qua performance.
Hoe duur was de 1080TI op release?
Als je vanaf die prijs rekent met de performance increase kom je aardig uit.

op release was de 1080ti ook 999 en als deze kaart 30% beter presteert zou je dus ook op ongeveer 1200 uitkomen.

Ik denk dat deze prijs omhoog gegaan is omdat de huidige kaarten door de mining gekte niet ver genoeg in prijs gedaald zijn en daardoor dus de meer prijs voor de nieuwe kaart op een Hogere prijs komt dan de vorige keer.

Was deze verder gedaald met 200+- dan was de nieuwe 2080Ti waarschijnlijk ook 1000 geworden
Punt één is dan dus dat zowel sinds de release van de GTX1080Ti, en nu met de release van de RTX2080Ti de prijs/prestatie verhouding nul verbeterd zou zijn. Dat is geen positief teken voor ons als consument, en ook nou niet echt een teken van een 'redelijke' prijs.

Vervolgens van wat ik zo snel in de Pricewatch heb gechecked is elke GTX1080ti die ik nu nog populair is voor tussen de €800 en €850 ruwweg gereleased, dus heel veel goedkoper dan €999.
Tuurlijk als consument wil ik ook alles goedkoper hebben, dan bedoel ik niet onredelijk goedkoop.

Maar ook daarin tegen gok ik dat de prijzen meer in verhouding zijn als 1080Ti = 2080 en 2080Ti is dan de zo geheten nieuwe top kaart ipv de Titan.

het moest in mijn vergelijking inderdaad niet de 1080 Ti zijn maar de Titan X :P
Maar misschien haalt de kaart straks wel 400% betere fps in een game met raytracing.
De prijs is omhoog gegaan omdat het grotere chips zijn dus kosten yield bin hoger zijn dan vorige gen. Je krijgt meer chip wat beter op 10nm tot zijn recht zou komen ipv 12nm , nV kan dus zonder concurentie de marge hoog houden.
pricewatch: Inno3D GeForce RTX 2080 Ti X2 OC Goedkoopste 2080ti die ik in de pricewatch kan vinden is nagenoeg 1200 ;)
Ik las bij Hardwareinfo het volgende
Zo geeft Nvidia aan dat GeForce RTX 2080 Ti kaarten beginnen bij 999 dollar. Dankzij btw wordt dat vermoedelijk dus zo'n beetje hetzelfde bedrag in euro's. De eigen Founders Edition, waarover meer op de volgende pagina, moet zelfs 1259 euro kosten. (Linkje)
M.a.w. als de beschikbaarheid goed is, en er geen te grote hype komt moet dat enigzins haalbaar zijn.
De 2080Ti wordt volgens de pricewatch anders gewoon vrolijk aangeboden ergens tussen de 1200 en 2200 (!) euro. Geen idee hoe HW,info erbij komt dat MSRP gehanteerd gaat worden, want dat is nooit.
Doorsnee prijs voor de 1080ti is 780+...
Ik heb ze al voor € 640 gezien, nu uitverkocht, maar ik sluit niet uit dat we ze nog voor 600 euro gaan zien.
35% in 2 jaar is niet indrukwekkend eerlijk gezegd.
Lijkt me een perfect normale generatie bump.
ik vind dat men hier echt belachelijk aan het vergelijken is. De verhoudingen zijn ongeveer gelijk met de vorige generaties, ook toen was het verschil ongeveer gelijk. Je moet bv de 1080 vergelijken met de 2080 en dan is verhoudingsgewijs het verschil gelijk aan de 980 vs 1080..
Dat bedoel ik idd. Een normale evolutie.
Maar dat verantwoordt de prijsverhoging niet.

Na 2 jaar zou die 2080 eigenlijk maar voor 600-650€ over de toonbank mogen gaan en daarmee de vorige generatie vervangen. Nu vervangen ze pascal niet, maar krijgen we een tier erboven en blijft het in de 0-600€ range stil staan.
Enthusiasts gaan kopen, maar mainstream blijft op pascal en minder.
Dus de vraag blijft hoever die nieuwe technieken op RTX echt gaan van de grond komen.

Zeker bij dat AI gebeuren vraag ik me af of dit gratis is?
Moeten developers betalen om dat te gebruiken of niet?
Maar de 1080 etc was indertijd ook een tier die boven de 900 serie kwam bij de introductie.. Is gewoon precies dezelfde situatie als bij de vorige series.. Enige verschil is dat ze nu gelijk de TI variant uitgebracht hebben.

En nee developers hoeven niet te betalen om RTX extentie te gebruiken, dit kan gewoon aangestuurd worden van DirectX en Vulcan, die hebben voor Raytracing inmiddels ook specifieke API's voor.
Toch niet. De 1080 verving rechtstreeks de 980 en had ook een prijs die in dezelfde buurt zat.
uiteraard is die enkele maanden later gestegen door de bitcoinhype. Maar een 980 had dit ook gedaan mocht het een jaar eerder gebeurd zijn.

Nu is de 2080 véél duurder dan een 1080 die eigenlijk ook nog boven zijn 'end of life' prijs zit.
maw een totaal andere prijsklasse en dus ook een andere markt wat gebruikers betreft.

Maar ik verwacht dat ook die prijs zal dalen het komende jaar. Gebeurt dat niet zitten we met een groot gat in de markt in de prijsklasse 400-600€ en zal een concurrent die zeker invullen.
Maar we hebben geduld nodig hiervoor.

[Reactie gewijzigd door System op 20 september 2018 18:20]

Zou de i7 4770k een bottleneck voor de rtx 2080 zijn?

Heb nu een gtx 1070..
Ligt helemaal aan de game.

Ik heb een i5 6600 geklokt op 4.8 met een 1080 Ti. Guild Wars 2 op ultra is op 1080p al niet meer te spelen en ik heb een 1440x3440 scherm.

CPU is duidelijk de bottleneck in deze game. GPU is 40% load, CPU alle cores 100% capped. Ik moet specifiek een aantal settings naar beneden halen om een paar procent meer GPU load te halen en een gemiddelde 60 fps vast te kunnen houden. CPU load zit dan op 80% over alle cores.

Meeste games zijn voor mij geen probleem op hoge res (ik game niet op 1080p, zonde van de 1080 Ti).

Ik weet niet precies hoeveel sneller mijn 6600 is op 4.8 ten opzichte van jouw 4770. Ik hoop niet dat je met de 2080 op 1080p gaat gamen haha! Misschien 1080p op 244 hz scherm met g-sync? Dan gaat de CPU verwacht ik wel wat vaker een bottleneck vormen. de 20-serie lijkt wel echt gemaakt voor hogere resoluties.
Nee denkt ‘t niet. Mooie is dat ‘t een i7 is.
Dit zijn betere prestaties dan verwacht! Ik had verwacht dat het verschil tussen de 1080Ti en de 2080Ti niet groot zou zijn. Maar gemiddeld 30-35% sneller op 4K resolutie maak het eigenlijk dat de 1080Ti net niet klaar was voor 60+ FPS en de 2080Ti wel.
Alleen de prijs is jammer. De kaarten zijn 30% sneller maar kosten €1.300,- (!!!!) bij Alternate. De prijs/kwaliteitsverhouding is gewoon bar en bar slecht. Vergelijk dat met de 1080 en de 980 in die tijd, ook 30% sneller maar de 1080 was destijds iets van €800,-

De RTX 2080 zou een prima kaartje zijn als de prijs rond de €800 bleef. Maar een belachelijk bedrag van €1300 voor maar 30% winst is gewoon een domme investering.
De 1080 was qua prijs veel meer in lijn met zijn voorganger.

Wat Nvidia nu heeft gedaan is de 2080 even snel én even duur gemaakt als de oude kaart. Bravo. Qua prijs-prestatie schiet je dus niets op
Nee hoor. Prijs en prestatie zijn allebei hoger en daarom is de prijs-prestatie verhouding gelijk. gebleven.
Mede daarom denk ik ook dat deze kaart toch wel weer goed gaat verkopen. Dat is dan het "excuus" om er dat geld voor uit te geven.
inderdaad, de GTX980 en de opvolgende GTX1080 lagen niet in verhouding qua prestatie en prijs.
Vergeet niet dat iedere nieuwe kaart in het verleden gewoon veel sneller was dan zijn voorganger, maar tegen redelijk dezelfde prijs werd verkocht als zijn voorganger.

Het is net of iedereen helemaal debiel is geworden... hoe vaak ik niet lees dat de prijsstelling van Nvidia wordt goedgepraat. Het is niet zo dat als een nieuwe generatie GPU twee keer beter presteert de prijs ook maar twee keer hoger moet worden.

Het probleem zit h'm in het feit dat er geen concurrentie meer is. Nvidia kan vragen wat ze willen.
Maar mijn inziens is dit een doodsteek voor de PC game industrie. Ik heb lang gevolgd, maar ik ben bang dat ik ook een keer ga afhaken. dan maar een console, zwaar tegen m'n principes in, maar met deze prijzen is het niet meer te doen. De PC game markt staat al flink onder druk door grote concurrentie van de consoles. Dan helpt heel dure hardware daar niet meer bij. Ik heb veel vrienden zien overstappen naar een Xbox of playstation vanwege deze reden.
Dat kan natuurlijk. Ik zeg op mijn beurt - als ik een console zou kopen, dan ga ik er qua resolutie op achteruit (PC draait op 3440x1440). Mijn R9 Fury draait de meeste games nog best lekker, misschien niet met alle instellingen op Ultra, maar met een beetje schuiven komt hij nog prima mee. Shadow of the Tomb Raider bijvoorbeeld draait prima.

Dan maar geen 4K @ 60 fps met alle instellingen op Ludicrous, maar die haal je op de PS4Pro of de XB1X ook niet.
Eens, ik heb een tripple monitor opstelling op een single RX480 (patch naar geknepen RX580)... En daar kan ik vooralsnog wel aardig mee uit de voeten zolang ik genoegen neem met minder prestaties.
En dat doe ik ook, vooralsnog, het houd wel een keer op. De Beta van BF 5 was praktisch onspeelbaar en ik mag hopen dat dit nog opstart problemen zijn, maar ik vrees van niet. Ik zou graag upgraden naar iets snellers, maar niet tegen elke prijs. Punt is dat Nvidia de prijs zo kan opdrijven omdat er niets in de markt is dat net zo goed of beter presteert, een AMD alternatief in de vorm van een Vega zou ik overwegen, maar die zijn ook schreeuwend duur.
Vreemd.... BFV draaide op mijn RX480 zonder problemen dus snap ik je "praktisch onspeelbaar" opmerking niet. Ik heb ook een triple monitor opstelling maar ik ga er vanuit dat je op 1 monitor aan het spelen ben en niet in 5760x1080.

Zo ja, dan denk dat het "onspeelbare" aan je CPU lag en niet aan je GPU!
Ik heb geen idee, het speelde wel op de volledige resolutie, dus 5760x1080. Laten we de final game afwachten voor ik verder commentaar geef, want eerlijk gezegd weet ik ook niet zeker of het aan de GPU lag. mn pc is iig voorzien van 16GB ddr4 op een 6600K (@4.4Ghz) en volledig SSD ingericht. vrienden hadden minder problemen met minder specs, dus wie weet was het een ander probleem. thanks iig voor je reactie.
Tja, op het moment dat je als developer een spel maakt dat enkel op bleeding-edge kaarten wil draaien, dan durf ik te stellen dat het niet de GPU-makers zijn die de PC-gaming markt om zeep helpen, dan zijn het de PC games zélf die dat doen.

En dan nog - de XB1 en de PS4, daar zal BF5 ook op verschijnen. Die hebben geen 1080 (Ti or otherwise) aan boord. Als het dan op de PC wél nodig is om een 1080 te gebruiken, dan is er iets fundamenteel mis met de PC-versie, IMHO. Een RX480 is een redelijk recente kaart, en zeker geen lichtgewicht.

That being said, hoewel ik denk dat AMD een goed punt heeft in dat ze de top-end op de PC links laten liggen (dat begint steeds meer een niche-markt te worden, heb ik het idee) en meer mikken op de midrange en IGP's, waar veel meer marktaandeel zit, is het wel zo dat in de top-end dan nVidia zich van de lelijkste kant kan laten zien, want die laten nu pas echt zien wat voor smerige marktpraktijken ze erop na houden. Monopolisme ten top, protectionisme ten top en open standaarden, ho maar.
Eens,
Maar geef het enkele maanden en die prijs komt echt wel naar beneden.
Het prestatieverschil is echt zijn meerprijs niet waard.
Er is een opening voor AMD eens ze klaar staan met Navi binnen een half jaar of zo.
wat let je om gewoon op oude hardware te blijven, de ontwikkeling in requirements is best wel gestagneerd in de laatste 5-10 jaar.

En onder druk?, PC game markt groeit nog steeds exponentieel uit boven de consoles :P
Tja, heel begrijpelijk. Ik heb mijzelf ook al meerdere keren afgevraagd wat ik zou doen wanneer de consoles toetsenbord en muis zouden gaan ondersteunen (Ik kan echt niet meer met een controller overweg in shooter games :P ). Al is het maar voor naast de PC voor de exclusives die uitkomen op vooral de PS. Maar aan de andere kant is gamen op 30FPS (wat nog regelmatig voorkomt) toch wel pijnlijk denk ik en dan ga ik ook enigszins de exclusives bemoedigen waar ik ook weer op tegen ben... enz enz. Zakelijk gezien snap ik het wel, maar het is gewoon erg jammer.

Laten we hopen dat zelf de diehard fans deze kaarten iig even met rust laten om een seintje af te geven naar nvidia. Mag hopen dat met deze prijzen er toch wel een stuk minder mensen zijn die early adopter willen worden.
Maarja, de 2080 is ook een stuk sneller dan de 1080 (zo'n 40%), dus op dat gebied ligt het gewoon exact in lijn met de vorige generatie, en ook bij introductie was de 1080 ronde de 800+ euro.
de 980ti lag in lijn met de 1080 indertijd, net zoals nu de 1080ti in lijn ligt met de 2080.. dus op dat gebied is er weinig veranderd.. (Wil niet zeggen dat ik sowieso vind dat de prijzen veel te hoog zijn, maar dat vond ik al bij de 1080 reeks).
Dat denk ik niet want er zijn nog grote onzekerheden wat RTX enabled games met de FPS doen.
Omdat er toch ook bij de aanzienlijke meerprijs deels gecompenseerd wordt met performance gain is de consument die meer bang for tha buck gericht is zit nu in de twijvel zone . De consument die vorige gen inruild voor nextgen de vaak upgrader is huidige resultaat overwegen waard omdat RTX minder toedoet en hun toch als RTX op gang komt voor refresh van turing gaan.

Voor diegene die langer met hardware doen en ook meer RTX feature voor willen gaan is uiteraard de RTX HQ resultaten en performance resultaten belangrijk.
En met gebrek aan zero RTX games nu geen RTX review ook geen beeld vergelijking en RTX fps performance .

Want heeft 2070 wel genoeg RTX power voor voldoende FPS in full RTX enable setting bij release RTX enabled games of heb minstens 2080 nodig. Of heeft 2080Ti nog moeite.

Komt RTX pas goed tot zijn recht met 2 2080ti in nvlink mode?

Kwa prijs komt voor kij maximaal de 2070 kwa budget in 2019 als 2060 ook RTX heeft en nog zin heeft met RTX enabled games mits die RT cores krijgt.
Wat Nvidia nu heeft gedaan is de 2080 even snel én even duur gemaakt als de oude kaart.

Ok, ik denk dat ik snap wat je bedoelt. Maar dan moet je bovenstaande zin even aanpassen, want dat klopt toch niet met wat je wil zeggen? Dit komt namelijk heel vreemd over. Tenminste bij mij.

Los hiervan vergelijk ik geen launch-prijzen met de actuele prijzen van een kaart die al 2 jaar uit is. Vergelijk dan de prijzen eerlijk en pak de MSRP prijzen bij launch van beide kaarten. Bij HWI doen ze dit wel en dan kun je zeggen dat de prijs/prestatieverhouding gelijk is gebleven.

Ps niet meteen op de man gaan spelen ... beetje jammer!
Ehm, ik denk dat je even terug moet naar de basisschool.
Alsof €800 al niet veel te veel is voor een 2080. |:(
Neem je dan wel even een flinke zak geld mee voor de extra performancewinst? Of vergeet je dat gemakshalve? Want als je eerlijk kijkt naar de prijs/prestatieverhouding tussen de 1080ti/2080 zijn we nauwelijks iets opgeschoten.
Eens, maar feitelijk klopt de opmerking van @mprkooij wel. ik had ook een lager verschil verwacht en wellicht stort die prestatie ook wel in met RTX aan, RTX is echter alleen beschikbaar op die 2080(Ti). De prijs vind ik zelf belachelijk tot het absurde toe, maar dat vond ik de 10xx serie ook al. Gelukkig heeft Tweakers hier ook aandacht voor. Nvidia heerst hoog in de ivoren GPU toren en daar betalen wij helaas de prijs voor...

[Reactie gewijzigd door TheTeek op 19 september 2018 16:26]

Wij hebben NVIDIA daar ook in geplaatst. Je kan ook 'stemmen' met je portemonnee hè ;)
Ik niet, ik heb een Rx480 gekocht vanwege bovengenoemde reden! O-)
Het verbaast mij dat er mensen staan te springen om een RTX 2080Ti aan te schaffen, of uberhaupt een 1080(Ti) hebben gekocht laat staan in SLI.... 8)7

Hoe in hemelsnaam kun je dat betalen, hoe maak je de overweging om 600+ euro uit te geven aan een videokaart, en in het geval van een RTX gaat dat gewoon x2. ik kan er met m'n verstand niet bij....

Edit: als antwoord op onderstaande; Misschien is de gemiddelde gamer rijker dan ik kan inschatten, maar ik vrees dat die gemiddelde gamer dat niet is. gerelateerd aan mijn uitgave patroon en voor wat ik over heb voor een gemiddelde videokaart relateer ik dat ook aan wat ik in het verleden kreeg voor een bedrag waar ik nog voor mij zelf een verantwoorde keus kon maken. Ik kocht gemiddeld een kaart die net onder de top zat, zoals mijn laatste nvidia, een GTX770. echter die was toen nog betaalbaar en ruim sneller dan zijn voorganger. Prijzen zijn sinds de GTX 10xx serie dermate hoog gestegen dat ik een enorme antipathie heb gevormd richting Nvidia, als de kaarten nu echt een enorme verandering hebben doorgemaakt tav eerdere ontwikkelingen, dan zou ik er het geld voor over hebben. Echter heb ik het idee dat Nvidia extreem geld aan het binnenharken is voor relatief weinig effort. Er is praktisch geen concurrentie waardoor zij zich deze prijsopdrijving kunnen permitteren.

[Reactie gewijzigd door TheTeek op 19 september 2018 17:15]

Dat is natuurlijk allemaal heel relatief per persoon waar het inkomen en geluksfactor heel veel in bepalen.
Als jij 5k per maand verdiend en je enige hobby daarnaast is gamen en je verdere uitgaven zijn minimaal dan is een kaart van 600+ en zelfs 1300 euro natuurlijk prima te verantwoorden als geluksfactor hiermee stijgt.

En hoe ze het kunnen betalen? De IT sector betaald gewoon erg goed in verhouding met andere sectors voorals als je freelancer bent, en dan nog, als je enkel als hobby gamen hebt en niet elke week je geld uitgeeft aan uitgaan of restaurantjes, dan hou je natuurlijk een aardig bedrag over om aan gamen uit te geven.

Zo koopt een hobbymatige wielrenner weer een fiets van rond de 2k (en volgens mij is dit nog een mild bedrag zelfs), wat voor velen alweer als een onmenselijk bedrag wordt gezien.

Zo vernieuw ik om de 2/3 jaar mijn kites voor het kitesurfen wat bij elkaar 2500+ kost (dat is dan nog ex board wat zo € 500 erbij kan zijn), ook daar wordt ik vaak voor gek verklaard door buitenstaanders, maar geluksfactor gaat wel met X omhoog wat niet meetbaar of relateerbaar is voor niet-kiters. (De grap is ik verklaar de kiters die het elk jaar vernieuwen weer voor gek, maar die rijden dan ook in dure Audi's en Tesla, geld is bij hun echt geen factor, waarschijnlijk gewoon bazen in letterlijk en figuurlijke vorm).

Anderen gaan weer op luxe vakanties wat pak m beet ook al tegen de 3k kan aantikken met alles erop en eraan en halen daar hun geluk uit.

Dan heb ik het nog niet eens over de nieuwe iPhone XS max of een goede 4k oled tv, wat denk je dat dat kost, voorbeelden te over.

Dus ja het is allemaal relatief als je het gewoon kan betalen zonder direct op droog brood te moeten leven en je hebt daarnaast nog een leuk bedrag op de spaar rekening, waarom dan op je geld zitten?

Op je geld blijven zitten, dat is voor mij pas de eeuwige zonde, maar daar komt ook bij dat ik het van dichtbij heb meegemaakt. Kennissen van mijn ouders die ruim boven modaal verdienden en een hoge functie beklede bij een bank, maar voor de rest altijd goedkoop op vakantie gingen binnen NL want vliegen was te duur, altijd maar zuinig blijven leven en op het geld zitten (terwijl dat echt geen issue was). En toen kwam het pensioen en kreeg die net daarna een beroerte waardoor die fysiek amper nog wat kan en in een verzorgingstehuis nu moet blijven voor de rest van zijn leven, heel sneu dus, al dat geld en er nooit echt van hebben kunnen genieten. Dat voor mij heeft de ogen wel geopend, en een wijze les geleerd dat aan geld alleen je niks hebt maar wat je ermee doet.

Nou snap ik als je dit gaat relateren aan iemand die voor €800 euro een complete pc kan builden en dan ipv ultra op medium/high hetzelfde kan spelen met wat overklokken en tweaks hier en daar, dat het % relatieve performance gain behoorlijk scheef uit elkaar gaat lopen. Men betaalt voor een videokaart van €600+ excessief meer voor de maar klein beetje performance wat er bij gaat komen.

[edit: als tegenreactie op bovenstaande]
Ik begrijp jou verhaal volkomen, ik ben ook altijd met mid end kaarten die near high end zaten voor €300, voorbeeld ik had bijv de HD7870 ooit die redelijk high end was (niet veel onderdeed voor de top kaarten in die tijd). Toen later een tweedehands GTX 980 gekocht (toen net de 1080 uitkwamen) voor €350. En sinds kort een €1080ti voor €550 tweedehands, voor mij een behoorlijke jump in prijs, maar er is gewoon geen goed alternatief (en geld is nou ook niet echt een issue ik ben meer gaan verdienen en had voorheen zo'n bedrag als te gek gevonden, maar blijf wel prijsbewust), daarbij ik had deze performance gains al redelijk voorspeld voor 2080 en zag die prijs totaal niet zitten en raytracing op 1080p60fps is gewoon een gimmick dan wat de markt echt wil, maarja ik denk dat ik het voor mijzelf zo goed kan praten als ik nu letterlijk geen videokaart zou hebben...

Je punt was hoe mensen een prijs van 600+ kunnen verantwoorden voor een videokaart, en volgens mij heb ik dat redelijk uitgelegd en is het dan toch echt niet zo gek dat dit uitgave patroon bestaat?

[Reactie gewijzigd door Turismo op 19 september 2018 17:40]

Tja een pakje sigaretten per dag roken kost je €2372,50 per jaar. Daar koop je meerdere RTX kaarten voor. Het is maar waar je je geld aan uitgeeft.
Ik rook niet, nooit gedaan ook...;)
Ach, gelukkig, was al op zoek naar deze comment.
D'r staat hier een machine met zelfs 3 1080Ti's. En dat was alleen maar omdat het RAM in de weg zat voor een vierde kaart.

Geen game PC, uiteraard. Deze staan aan Neurale Netwerken te rekenen. Maar ook Crypto Miners zijn NVidia klanten. En dan gaat de wet van vraag&aanbod werken, ja.
juist, vraag en aanbod waar Nvidia op dit moment flink z'n zakken mee aan het vullen is.
https://www.nu.nl/interne...inst-verdrievoudigen.html

Ze hebben een goed product, dat zal ik niet ontkennen. Beter dan AMD en daar profiteren ze nu van door prijzen te vragen die hoger liggen dan (in mijn beleving) noodzakelijk. En ik weiger daarin mee te doen.
Ik snap je boycot mentaliteit, maar wat als AMD of ander bedrijf nooit met een alternatief gaat komen of het met beetje geluk in 2020 gaat uitkomen (met Navi, wat net als Vega het prodigal wonder moet gaan zijn, we weten hoe het met Vega is afgelopen, en daar hadden ze letterlijk een boywonder voor ingelijfd, die nadat het faalde net zo hard is vertrokken). Blijf je dan koppig en ontzeg je dan je eigen plezier, of zwicht je dan toch want reeel gezien je boycot zal in het grotere plaatje geen zak uitmaken Nvidia vult zijn zakken toch wel, behalve dat je jezelf wellicht te kort doet.

Ik ben ook geen fan van nvidia, wat ze met GPP probeerde te flikken, en hoe ze letterlijk AMD in de hoek drijven op elk vlak wanneer AMD denkt iets unieks in handen te hebben (1070 TI anyone?). Closed source metaliteit, G-Sync vs Freesync, GPUopen vs GameWorks, Hairworks met opzet cripplen op AMD cards (bron: https://www.digitaltrends...-has-the-best-hair-again/) Letterlijk conccurrentie moord.
Het cruwe is dat AMD ze wel altijd de hand toerijkt, in wat zij hebben developed Nvidia daar net zo royaal van gebruik mag/kan maken.

Maar ik ga mezelf echt niet te kort doen en een AMD kaart kopen om maar een idealist te zijn, daar heb ik alleen mezelf mee, de beste technologie ligt op dit moment nu eenmaal bij Nvidia.

[Reactie gewijzigd door Turismo op 19 september 2018 18:01]

Ik boycot Nvidia niet bewust, ik heb een AMD gekozen vanwege het gunstiger alternatief. Ik zal ook niet ontkennen dat mijn plezier factor het soms wint van rationeel denken. Echter ergens heb ik wel sterke beperkingen tav wat ik over heb voor een kaart, wat vind ik nog verantwoord. Als Nvidia nu de GTX 1070Ti of hoger tegen een gunstiger prijs kan aanbieden dan nu het geval, koop ik die kaart. Want dan voldoet die kaart aan mijn maximum gestelde verantwoorde prijs. en dat is altijd een afweging. Ik verdien prima (IT baan), maar heb ook een gezin te onderhouden.
Dat is toch echt wel AMD's schuld ook omdat ze alles open source doen. Je kan zeggen ja dat is idealistisch maar kijk hoever het hen al gebracht heeft. Ze zouden beter meer closed source doen en er een grote hoop geld mee vangen want ze hebben het echt nodig. AMD vind veel nieuwe technieken uit maar dan maken ze het voor iedereen beschikbaar. Ik vind dat dom. Sommige dingen zijn wel goed dat je het open source doet zoals bijv. Freesync maar toch niet alles.
Uiteindelijk is het wel bewezen dat voorsprong in techniek versneld wordt door Opensource.
Ik denk niet dat AMD hier van gaat afstappen, ook om juist de mentaliteit ook anders kan te laten zien (aan Nvidia).

AMD GPU tak redt het voorlopig nog wel, ze zijn nog steeds hof leverancier voor de consoles (zowel xbox als ps4). Echter op de pc highend markt is het voor nu wel bekeken, hoop dat ze er van terug kunnen komen het is ze eerder gelukt.

Hier uitleg van een AMD engineer zelf over het belang van GPUopen
https://www.youtube.com/watch?v=TuOQ-E2czNE

[Reactie gewijzigd door Turismo op 20 september 2018 09:09]

Als men braaf iNtel en nV met hun beleid blijven belonen krijgt AMD kapitaal niet om in R&D en highend klasse chips te investeren .

De situatie nu is wat gamers gewoon verdienen dure hardware omdat men voor paar procent verschil al de concurrent kiest.

CPU tak heeft de GPU tak de afgrond mee ingesleurt het is dus ook nu met Zen comback dat de GP.u tak juist de omzet in de CPU tak nodig heeft om in de toekomst aan slag kracht te groeien.

Dus als nvidiot betaalbare nV wilt hebben in de toekomst koop je nu Ryzen aan je nV als meer wilt pushen ook Vega.

Ik verwacht iig voor near future geen big chip gpu van AMD.

Gezien API in samenwerking met hardware vendor tot stand komen verwacht ik dat ook iNtel GPU en AMD nextgen ook in hardware DXR gaat ondersteunen . Mits iNtel met een consumenten versie komt en van AMD meer kleinere sub highend chip zal worden. Maar pas voor de gen na Navi.
Dan zou het als nV hard gepush heeft ook aardig wat games er al zijn die RTX ondersteunen.
Terwijl het gros van de potentiële kopers graag de performancewinst hadden willen zien voor de prijs van een 1080ti. Nu is dat niet bereikbaar voor veel gamers naar mijn bescheiden mening.
Wat een loze opmerking. Waarom zouden "kopers van deze kaart" het niet interesseren dat de kaart peperduur is. Deze logica ontgaat me volledig. Dat deze groep ze hoe dan ook koopt is een hele andere stelling.
Precies, misschien lig je er wel van wakker omdat je je vrouw moet vertellen dat je gezin 1 week korter vakantie kan hebben. O-)

Ze hadden beter 'geen belemmering' op kunnen voeren.
Want ik had hem echt liever voor 1Euro dan voor 1200Euro gezien.
Wat een loze opmerking. Waarom zouden "kopers van deze kaart" het niet interesseren dat de kaart peperduur is. Deze logica ontgaat me volledig. Dat deze groep ze hoe dan ook koopt is een hele andere stelling.
Omdat het VEEL duurder is dan toen de Geforce GTX 1080 (Ti) uit kwam, en dat ze niet heel veel sneller zijn dan de Geforce GTX 1080 (Ti), als een grote groep net aan die konden kopen, en nu deze veel duurder zijn en niet heel veel sneller zijn, dan kan ik je garanderen dat het verkoop met de Geforce RTX 2080 Ti veel minder is, en dat mensen langer gaan wachten tot ze goedkoper woorden, of zelfs wachten op de volgende generatie die dan wel een STUK sneller is dan de Geforce GTX 1080 (Ti).

De Geforce RTX 2080 Ti maar 30 a 40% sneller is dan de Geforce GTX 1080 Ti.

De verschil tussen de Geforce GTX 980 (Ti) en Geforce GTX 1080 (Ti) is VEEL groter en is +/- 65 a 75%, zo als je goed kan zien op Guru3D, vind het erg jammer dat Tweakers geen eens de Geforce GTX 980 (Ti) hebben mee genomen.

De verschil tussen de Geforce GTX 1080 Ti en Geforce RTX 2080 maar 5 a 10% is (behalve Wolfenstein II: The New Colossus), en in meerdere maar een paar procent, wanneer de verschil tussen Geforce GTX 980 Ti en Geforce GTX 1080 veel groter is, 30% en meer.

https://www.guru3d.com/articles_pages/geforce_rtx_2080_founders_review,16.html

Maar de meeste mensen kopen geen duure grafische kaarten, en kopen Geforce kaarten zo als de Geforce GTX 1050 (Ti) en 1060, de mensen die 1080 of hoger kopen zijn maar een kleine groep, en zo zal het ook gaan met de RTX 20*0 serie, zo als je duidelijk kan zien op de Steam hardware survey.

steampowered.com/hwsurvey

[Reactie gewijzigd door AmigaWolf op 20 september 2018 15:08]

Er is groep die alleen absolute performance interresseert die pakt er meteen 2 met nalink bruggetje.
De grotere High-end groep kijkt toch ook naar de prijs en speelt bang for the Buck deels ook een rolletje of meer of minder.

De normale gang van zaken bij een nestgen is dat productlijn binnen de prijs punten door snellere nestgen vervangen worden voor die prijs.

Dus upgrade pad van toen een 10xx nu 20xx gaat niet op wordt model lager 20yy als dezelfde upgrade budget aanhoud.
Ehh, het is een STUK kleiner dan de Geforce 980 Ti en de Geforce GTX 1080 Ti, daar was het +/- 65 a 75%, en dat de verschil tussen de Geforce GTX 1080 Ti en Geforce RTX 2080 maar 5 a 10% is (behalve Wolfenstein II: The New Colossus), en in meerdere maar een paar %, wanneer de verschil tussen Geforce GTX 980 Ti en Geforce GTX 1080 veel groter is, 30% of meer.

Dus ja ik vind het heel erg tegen vallen, en , maar dat had ik al gezien in de uitgelekte benchmarks.
Wat ik niet uit het artikel kan opmaken is welke GTX1080TI kaart is gebruikt. Is dit ook de Nvidia GTX0180TI FE geweest of is een AIB kaart (zoals de Asus Strix) gebruikt. Er zit namelijk nogal wat performance verschil tussen een Asus GTX1080TI Turbo en een Asus Strix GTX1080TI..

Uiteraard komen vandaag ook de andere reviewers met hun reviews en zijn tonen in de regel wat wel merken zijn gebruiken in hun tests..
De 1080 Ti FE is gebruikt.
Dat is jammer ee had wel een custom variant meegenomen moeten worden, die is wel zo’n 5/10% beter dan een FE.
Juist niet, anders heb je geen objectieve vergelijking.
Je hebt gelijk als de 2080TI dezelfde koeler had gehad.
Nu is de koeloplossing van de 2080TI FE editie beduidend beter dan de koeler van de 1080TI FE editie.
Dus denk dan ook dat de custom varianten niet onwijs veel beter zullen zijn.
Oei, dat wordt kiezen tussen 1080 ti en RTX 2080 voor mij :) :)
De 1080TI zal nu een goede koop zijn gezien de prijs. Helemaal als je deze in de V&A kan halen kan het best heel veel schelen in vergelijking met een 2080; dat terwijl de performance dus redelijk gelijk is.
Ik vind het persoonlijk toch niet zo´n makkelijke keus. Ja, de 1080TI is nu +- 130 euro goedkoper dan de 2080, maar de 2080 heeft toch wat winst(jes) in fps en bovenal nieuwe(re) technologie. Het is maar net wat je belangrijker acht denk ik zo..
Vergeet ook niet dat de 2080 nog wat optimalisaties te gaan heeft wat betreft de drivers. Dit duurt altijd een paar maanden voordat de optimale prestaties zichtbaar worden. Echter zijn kinderziektes dan weer ook nog niet opgedoken.
Vergeet ook niet dat de basis gewoon hetzelfde is als een 1080ti, als er nog noemenswaardige winst in zit is dat voornamelijk in die Ai en tensor cores, dat is namelijk het enige wat echt nieuw is.
In de basis is ook wel wat veranderd hoor.
Eerst maar eens bij jezelf nagaan of je op dit moment uberhaupt wel een nieuwe kaart nodig hebt...
Mijn gtx 970 is echt geen drama hoor, maar na een paar jaar ben ik wel toe aan iets nieuws. Als ik nu al een 1080 ti had gehad, dan zou ik het niet eens in mijn hoofd halen om te upgraden naar een 2080.
Nee, ik vind het ook logisch als je al een 1080ti zou hebben om dan niet voor de 2080 te gaan. Heb zelf nog steeds de 760 en ben ook al heel lang toe aan een nieuwe, maar ik vind de prijzen te achterlijk voor woorden, 300+ voor nog niet eens een echte midrange kaart (1060/6GB), waarbij ik denk dat die dus niet veel meer dan 200-250 zou mogen kosten.

[Reactie gewijzigd door SuperDre op 20 september 2018 21:13]

Hoezo logisch als ik vragen mag? Qua performance is er vrij weinig verschil en er zit een behoorlijk prijskaartje aan..
Uhm, sorry, was het woordje 'niet' vergeten, logisch dat je NIET voor de 2080 gaat.. haha..
1 2 3 ... 8

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee