Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
×

Tweakers Awards 18/19

Wat vind jij de beste tech- en elektronicaproducten van het afgelopen jaar? De Tweakers Awards stembussen zijn nog drie dagen open. Laat je stem gelden en ontvang 50 ippies. Bovendien maak je kans op een Sony PlayStation 4 Pro 1TB, GoPro Hero 7 of Sonos One.

Stemmen

Door Willem de Moor

Redacteur componenten

Nvidia's RTX 2060 Review

Nog steeds geen budget-Turing

Conclusie: nog even wachten

Formeel is de RTX 2060 een opvolger van de GTX 1060 en als we de kaart als zodanig beoordelen, is het gevoel een beetje dubbel. Aan de ene kant is de RTX 2060 een stuk sneller dan de GTX 1060. Op 1080p is de RTX 2060 tegen de vijftig procent sneller dan de GTX 1060 en op hogere resoluties loopt dat op tot ruim zestig procent. Daar staat tegenover dat de Founders Edition van de GTX 1060 bij introductie 285 euro kostte. De RTX 2060 kost 369 euro en voor een mainstreamkaart vinden we dat eigenlijk te veel.

Als we de RTX 2060 daarentegen vergelijken met de GTX 1070 Ti, waarvan de Founders Edition een adviesprijs had van 469 euro, dan krijg je met de RTX 2060 een kaart die honderd euro goedkoper is en in de regel vergelijkbaar presteert. In sommige games is de 1070 Ti iets sneller en in andere scoort de 2060 net beter. Gemiddeld kwamen we voor alle resoluties, ongeacht Medium- of Ultra-settings, op een procent of vijf prestatiewinst van de RTX 2060 ten opzichte van de GTX 1070 Ti.

Daarmee heeft Nvidia nog altijd geen mainstreamkaart op de markt. Waar voorheen de prijs van een aardige kaart voor het grote publiek tussen de twee- en driehonderd euro schommelde, kun je daar nu dik honderd euro bij tellen. Dan krijg je aanzienlijk betere prestaties, maar dat verwachten we uiteraard ook. Het heeft immers weinig zin een nieuwe generatie videokaarten uit te brengen of te kopen zonder dat je er wat prestaties betreft op vooruitgaat. Waar de 2060 ontegenzeggelijk een streepje voor heeft op de vorige generatie is raytracing. Voor minder dan vierhonderd euro kun je voortaan in ten minste één game een deel van je content laten raytracen. Daarmee wordt de techniek toch weer een stukje toegankelijker, hoewel je net als met duurdere Turing-kaarten niet boven de 1080p uitkomt.

Wil je liever een kaart uit het rode kamp, dan is de Vega 56 een aardig alternatief voor de 1070 Ti, en ongeveer even duur als de RTX 2060. De RX 580 en 590 zijn enkel alternatieven voor de 1060, en zijn geen serieuze competitie voor de RTX 2060, behalve op prijs.

Als we naar de prijsontwikkeling van de RTX 2070 kijken, zouden we aanraden even te wachten met een eventuele aanschaf. De Founders Edition van de 2070 moest namelijk 639 euro kosten, maar inmiddels kun je kaarten voor 500 euro kopen. Als de 2060 over een maand of drie ook wat in prijs is gedaald en je een kaart voor pakweg driehonderd euro kunt kopen, is het een aanrader.

Reacties (152)

Wijzig sortering
Ik heb net even m'n factuur van m'n Palit GTX 1060 6GB Super Jetstream erbij gepakt. Daar was ik bijna precies 2 jaar geleden €330 aan kwijt; niet de goedkoopste after-cooler, niet de goedkoopste webshop maar wel een indicatie van wat custom-cooler GTX 1060's deden...zeg €300. De voorganger (MSI GTX 760 Gaming 2GB) was €240 eind 2013. Onder garantie is die kaart eind 2015 omgeruild voor de MSI GTX 960 Gaming 4 GB die destijds een vergelijkbaar prijskaartje had (paar tientjes hoger wellicht). Van een €240 eind 2013 via een €250 eind 2015 en een €300 eind 2016 nu dus naar (waarschijnlijk) de €350-400 range (wat speculatie want of de echte prijzen van de custom coolers hoger of lager dan de reference uitvallen is altijd maar de vraag...de goedkoopste modellen zullen lager uitvallen, maar erboven zal ook gebeuren.

Helemaal onverwacht is dit prijspunt wat mij betreft dan ook niet; de gaten tussen de xx50 en xx60 en dan naar de xx70 zijn altijd al wat scheef geweest; xx50 naar xx60 klein verschil, xx60 naar xx70 een behoorlijk groot verschil. Het lijkt erop dat de prijs van de xx60 meer naar het midden tussen de xx50 en xx70 verschoven wordt.

Of het het waard is? Daar ben ik nog niet helemaal uit voor mezelf. Ik zit op een 1440p 60 Hz monitor. De 1060 die ik nu heb kan dat in de spellen die ik speel doorgaans net niet helemaal hebben op ultra, dus wat kleine tweaks down op de settings voor de 60 FPS. De 1070 kan de 1440p wel op 60 FPS houden, maar kostte destijds dan ook ruim 50% meer. Wat de echte prijzen gaan zijn wordt wel doorslaggevend.

Daarnaast hebben we ook nog de geruchten rondom een GTX 1160. Als dat inderdaad een 2060 zonder raytracing blijkt te zijn, dan is dat wellicht de meest interessante kaart van deze generatie omdat die wel eens ruim 60 FPS op 1440p ultra tegen een lagere prijs dan de 2060 kunnen zijn.
Als we de RTX 2060 daarentegen vergelijken met de GTX 1070 Ti, waarvan de Founders Edition een adviesprijs had van 469 euro, dan krijg je met de RTX 2060 een kaart die honderd euro goedkoper is en in de regel vergelijkbaar presteert.
Hmm, ik ben in dubio of dit eerlijk is. Ok, 1070 Ti was toen duurder bij launch, maar we hebben het erover wat we -nu- willen kopen.

Gelijkwaardige kaarten op dit moment dus, dus kijk je NU hoe duur/goedkoop ze zijn.
En nee, de 2060 is niet meer future proof want de de RT-features werken al amper goed op de hoger geplaatste kaarten en er zijn amper games voor.
Een RTX 2060 is een nieuwere GPU en daardoor wel degelijk hoogstwaarschijnlijk iets meer futureproof dan een GTX 1070Ti.. Voor dezelfde prestaties en kosten zou ik altijd de nieuwere GPU kopen, een RTX 2060 dus in dit geval..
Ik blijf het triest vinden dat ik 4 jaar geleden voor €360 een GTX970 kon kopen, waar alleen de 980 beter was(Ti versie was nog niet uit) en nu kan je van datzelfde geld net de budgetkaart kopen.

Ik hoop echt dat amd met navi wat leuke betaalbare kaarten uitbrengt. :)
De 2060 is echter geen budgetkaart meer, dit ding trekt alle nieuwe titels op 1440p/ultra ruim boven de 60 FPS, enkel 4K/ultra is te hoog gegrepen, wat dat betreft is de performance vrij goed te vergelijken met waar de 970 destijds op gemikt werd, daar was 4K ook te doen als je bereid was de settings wat te laten zakken.

de 960 was (in ieder geval in mijn optiek, toen ik em kocht) echt een 1080p kaart, en was ultra ook vrijwel zeker een no-go bij nieuwe titels

De 3gb 1060 begint weer te zakken naar een prijs waar nvidia weer een fatsoenlijk budgetkaart heeft, maar dan is een RX570 nog steeds de betere koop, de 1050Ti is gewoon nog steeds te duur
Hoezo is dit geen budget kaart? dit is toch de goedkoopste instap kaart in de RTX line up of zie ik iets over het hoofd? prestaties staan daar los van, tuurlijk kon de GTX970 geen 1440p op ultra aan, de tijd heeft niet stil gestaan, we zijn inmiddels 4 jaar verder.
Hoezo is dit geen budget kaart?
Als veel mensen die in de markt zijn voor een budget kaart deze kaart niet kopen omdat ze die te duur vinden, dan is het geen budget kaart. Hun budget gaat niet zomaar omhoog omdat Nvidia die kaart duurder heeft gemaakt.

De prijs van deze kaart is aanzienlijk minder gunstig dan die van budget kaarten 5 tot 10 jaar geleden. En nee, het is niet zo dat betere hardware altijd al zo veel duurder is geweest.

De relatief hoge prijs heeft twee verklaringen: qua ontwikkelingen begint de rek er een beetje uit te raken (einde wet v Moore), en Nvidia heeft een defacto monopolie ; een reëel monopolie op de snelste consumer kaarten, en veel betere naamsbekendheid in het lage- en midden segment.
Bekijk het eens anders.
De RTX 2060 is een midrange kaart zoals de GTX970 ooit was, gelijkaardige prijs zeker als je inflatie meerekend. En de RTX 2060 is in moderne games op 1440p (volgende stap na fullhd) echt wel krachtig genoeg om alle A-titels vlot te draaien.

Relatief gezien is de RTX 2060 zelf krachtiger dan de GTX 970 was 4jaar geleden aan een gelijkaardige prijs met gelijkaardige A-titels op 1080p.

Nieuw segment
Wat er anders is dan 4jaar geleden is dat er nu 4k gpu’s zijn die 4x de pixels aansturen tov 1080p. Factor 4 heeft geresulteerd in giga-chips met veel cores en transtors en toen werd de gtx1080 , 1080ti en de titan geboren. Veel te snel voor 1080p en 1440p, overkill zelfs. 4jaar geleden bestond die mate van overkill niet. Er is dus naast de bestaande high-end line up een ultra high end line up gekomen.

Evolutie doorbroken
Vroeger was het 1280x720, 1600x1200 en als topresesolutie 1920x1080, nooit was er sprake van een verviervoudiging van de aantal pixels, vroeger was de sprong max. x2.

Midrange on top
Als je de RTX 2060 Benchmarks erbij neemt zie je dat BF1 op 1040p Ultra kan gespeeld worden op 102fps gemiddeld. 4jaar geleden kon de GTX970 helemaal geen 100fps halen op Battlefield 4 ultra op 1080p.

Relatief gezien zijn we er dus zeker op vooruit gegaan en dát is wat telt.

Nieuwe eend
En dan heb je nog ‘real time ray tracing’. Na 4k weer een totaal nieuwe evolutie in gaming. Wie had dit ooit gedacht? Raytracing was toch voor renders only?

Nooit gedacht
Als je 4jaar geleden (of zelfs vorig jaar) had gezegd dat je met een midrange kaart A-titels op 4k kon draaien en met gemak real time kon Ray tracen op 1440p voor een GTX970 budget had iedereen direct getekend of u voor gek verklaard.

Conclusie
Midrange kaarten zijn ano 2019 nog zeer relevant als je van games wil genieten aan een gelijkaardige prijs als 4jaar geleden. Geen nood om uw midrange budget te verhogen.

[Reactie gewijzigd door Coolstart op 7 januari 2019 22:15]

Ik ben het gedeeltelijk met je eens toch voelt het niet zo en dat is de schuld van hoe men de kaarten positioneert. Men wil het liefst de kaart met de hoogst mogelijke cijfers, omdat men er vanuit gaat dat deze beter zijn. Voor mensen die niet de top tier kaarten kunnen aanschaffen was er een xx70 lijn. Die een hele goede prijs/kwaliteit verhouding had.

De prijzen van de kaarten zijn veel harder gestegen dan de inflatie, ik heb eind 2014 een Asus GTX970OC aangeschaft voor €369,-. Een vergelijkbare kaart uit de nieuwe serie kost op dit moment €629,- Ik weet niet wat jou inflatie is, maar ik wou dat mijn salaris met hetzelfde percentage was gestegen de afgelopen 4 jaar ;)

Het mag dan wel Real time Raytracing genoemd worden, toch worden er allerlei trucjes gebruikt om er voor te zorgen dat men niet zoveel rekenkracht nodig heeft. Bekijk eens de technische filmpjes over Raytracing en hoe men bij BF5 ervoor bezorgt heeft dat men het real time aan het werk krijgt. Nog steeds een hele knappe prestatie, begrijp me niet verkeerd. Maar de nauwkeurigheid is niet te vergelijken met die van renders.
Je mist de insteek van men post denk ik.

Ik vergelijk niet de benaming van Nvidia, die is immers vrij te kiezen, en bijgevolg geen goed eikpunt. Zo beland je on ermijdelijk in een nutteloze semantische discussie men gaat morren over wat nu een midrangekaart is en wat niet. Zinloos.

Ik vegrelijk de 970 met de 2060 omdat die wat prijs betreft gelijk was met de 2060 van nu . Als je naar A-titels van vandaag kijkt zie je dat de 2060 best goed presteerd en gebruik huidige A-titels met hogere standaardresolutie en dan pure fps als eikpunt.

Maar goed.. ik dacht dat ik dat deel goed had beschreven in mijn vorige post?

Het klopt dat Raytracing nog niet top is, het lijkt enkel te werken op reflecterende delen en het voelt wat gemaakt aan maar dat zal wel iets beter worden met de jaren. Bf1 is natuurlijk de eerste implementatie.

Wat vast staat is dat ray tracing the next big thing is in consoleland en dat de echte RT evolutie pas echt gaat boomen als consoles dit ook gaan ondersteunen.

[Reactie gewijzigd door Coolstart op 8 januari 2019 10:13]

De RTX 2060 is een midrange kaart zoals de GTX970 ooit was
De 970 neerzetten als voorloper vd 1060 gaat wat mij betreft niet op.
Relatief gezien zijn we er dus zeker op vooruit gegaan en dát is wat telt.
Dat we er op vooruit gaan is niet bijzonder, het een gegeven bij opeenvolgende generaties hardware.
Wat overblijft is hoeveel meer het kost, ook al lijk je te suggereren dat dat niet uitmaakt.

De 1060 kostte ongeveer evenveel als de 960, maar de 2060 kost aanzienlijk meer dan de 1060.
Ik vind dat hij toch wel gelijk heeft.

Dit zijn geen budget kaarten en zijn zo ook niet bedoeld, dit is gewoon een reeks voor de toch al wat meer hardcore gamer.

Net zoals OLED TV's er ook zijn voor de meer veeleisende thuiskijker.

De 10xx reeks is de nieuwe budget reeks, vele van deze kaarten zijn meer dan goed genoeg voor de doorsnee casual gamer en zullen dat ook nog jaren zijn.
Ik vind dat hij toch wel gelijk heeft.

Dit zijn geen budget kaarten en zijn zo ook niet bedoeld
Anderen argumenteren juist dat het wel een budget kaart is, in reactie op anderen en ik die zeggen dat het geen budget kaart is...
Eo zo geraakt de cirkel rond
En je vindt dat 'hij' ongelijk heeft en dat ik gelijk heb.
Lees eens opnieuw: Ik schrijf niet over de 1060, wel over de 970 en de 2060 die relatief ongeveer evenveel kosten.

Hoe jii heel de tijd die 1060 erbij haalt weet ik niet want ik of niemand anders maakt die vergelijking dus je kan moeilijk iemand verwijten een verkeerde vergelijking te maken want ze is nooit gemaakt :)
Ik haal de 1060 (een budget kaart) er bij omdat die de voorloper is van de 2060 (zogenaamd ook een budget kaart, maar dan zonder budget prijs), en de opvolger is van de 960 (ook een budget kaart, met budget prijs) maar niet de opvolger is vd 970. Mij is niet duidelijk waarom jij de 970 er bij haalt.
Puur prijs niet typenummer, niemand koopt toch een kaart opmdat het de ‘opvolger’ is? Toch omdat de price range gelijk is en kikt dan wat je er voor terug krijgt of andersom.

Ik spreek me niet uit over de 1060, enkel over de 970 en 2060. Dat noem ik geen budget kaarten meer. De 1060 trouwens ook geen budgetkaart, budget is eerder €100 €200 nieuwprijs bij lancering.
Je vergeet nog één verklaring: de cryptocurrency mining hype. Die galmt nog steeds flink na wat je merkt aan de (nog steeds) te hoge prijzen.
Goedkoopste betekent niet budget....de goedkoopste Lamborghini is nog altijd geen budget car ;)
Sinds wanneer vergelijken we Nvidia met een Lamborghini?
Tot op de dag van vandaag kon je elke generatie wel een betaalbare kaart kopen uit de nieuwe line up, nu word je al in de opmerking doorverwezen naar 1050 Ti als ''budget'' wat natuurlijk inmiddels gewoon oud prul is en niks meer te maken heeft met budget/instap.
Omdat de gehele lineup/generatie nooit compleet is vanaf het eerste moment.

Vanuit Nvidia gezien, is de -60 altijd mainstream, daarboven enthousiast en daaronder budget, met misschien wat crossover ertussen.

Het is geen budget kaart vanwege de modelnaam en de plaatsing , Nvidia vindt dit een mainstream kaart (en voor mainstream is hij best aan de dure kant, dat was de gtx1060 6gb eigenlijk ook al ).

Ook al zijn ze er nu nog niet, er komen echt wel goedkopere Turing kaarten . Of die raytracing hebben of niet is de vraag, maar dat zijn de budget kaarten van deze generatie , de 2050 en 2030 (of het nu een GTX of RTX wordt , of een 2050 of een 1150 of zo, ..).

Dus de 2060 is op dit moment de goedkoopste raytracing kaart, maar hij is absoluut niet als budget kaart gepositioneerd.
Het blijft bijzonder dat de een niets met RTX te maken wil hebben terwijl de ander de 1050 en 1060 al oud prul noemt. Mij lijkt een RTX feature die je relatief tot de frame rate verlaging niets nuttigs oplevert op een lager performance level helaas een luxe die er gewoon nog even niet bij past binnen een 'normaal' budget. NVidia heeft daar dan op dit moment misschien domweg nog niets te bieden wat echt die stap beter is...
Niets nuttigs? Belichting is zo'n beetje het belangrijkste bij graphics. Ik heb liever raytracing dan 4k(aangenomen dat ik één van beide moet kiezen voor 60fps), maar dat is persoonlijk...
Ik bedoelde vooral dat je met een theoretische RTX2050 zo weinig rauwe performance hebt dat je met ray tracing actief zelfs op 1080p al geen 60 fps meer haalt. De RTX2060 haalt een 60fps minimum framerate al niet met medium ray tracing actief in Battlefield 5. Dan moet je dus wel op je kwaliteit inleveren om toch aan 60 fps te komen en ray tracing zal dan al snel het eerste zijn dat je moet gaan uitzetten.

RTX hardware maakt de chips ook groter, complexer, duurder. Ik zie vanuit NVidia dan ook nog weinig heil in een RTX2050 of lager, Battlefield 5 ray tracing reviews gaan die niet helpen verkopen met te lage frame rates. Zal in de toekomst met 7nm straks hopelijk voor een RTX3050 of RTX4050 wel kunnen.
We vergelijken de RTX lijn met lamborghini (of althans, @yvez doet dat), Nvidia heeft natuurlijk goedkoper spul, maar al die "leuke" RTX features zijn het premium gedeelte, tuurlijk zie je dat in de eerste generatie nog niet zomaar terug op een budget kaartje
Hoezo zou de RTX serie dan een budget kaart moeten hebben? Was dan tot vandaag de 2070 de budgetkaart?
Nee want het was allang bekend dat RTX 2060 nog zou worden uitgebracht als instapmodel. :)
Dat de 2060 een instapmodel en/of budgetmodel zou zijn is verder nergens terug te vinden. Het is typische zo'n aanname die een eigen leven gaat leiden op de techsites en fora; ook op Tweakers.

Op dit moment is geen enkele 20xx kaart budget, als je budget wil dan is er de 1050Ti of de RX580. Prima budget kaarten. En anders moet je echt nog even wachten op een budgetmodel 20xx series. Als die er al komt, want er is 0,0 reden voor nVidia om die uit te brengen zo lang ze nog met bergen 10xx series stock zitten.
nee dat weten ze goed te vermarkten, de RTX 2060 is de opvolger van de GTX1060, zoals die ook weer de opvolger was van de 960 enz enz...
Die kaarten waren allemaal "instap" modellen om leuk te kunnen gamen, de enthousiast card. de kaart die betaalbare performance leverde tegen een compromis.
Noem het budget of whatever, je weet donders goed dat dit een kaart zou moeten zijn voor enthousiaste gamer met een beperkt budget. en volgens mij voldoet deze prijsstelling niet aan die verwachting.

Is het een verkeerde kaart?
Nee zeker niet, maar ben het wel eens met de conclusie van de (vele) review(s).

Oei... ik heb wat mensen op de zere teentjes getrapt met een -1 als reactie score?! Nvidia enthousiastelingen? aandelen?

[Reactie gewijzigd door TheTeek op 7 januari 2019 17:05]

Niet van mij iig, want dit is wel een spotlightje waard ;)
Nogal logisch dat mensen dat denken als dat met de vorige generaties ook zo was, nvidia is gewoon slim met nummertjes gooien en de prijzen te verhogen

Ondertussen heb je dus mensen die dat allemaal wel prima vinden, dus ja waarom zou nVidia het niet doen

Mooi dat je trouwens als Budget de 1050ti en de 580 noemt, de 1050TI is echt slecht qua prijs prestatie en zal ik ook nooit als budget GPU aanraden. De 580 is echt vele malen sneller, aangezien de 570 al vele malen sneller is (en goedkoper)
Fair point, maar ik bedoelde vooral dat RTX gewoon geen budgetspul is momenteel, net als dat je bij Ferrari met de Portofino wel een instapper hebt, maar geen "budget sportauto"

de RTX feature set is momenteel 100% enthousiastelingen grade spul, de budgetgamer komt nog steeds prima weg met een RX570/580/1060, en speelt lekker op 1080p zn spelletjes, en vaak genoeg op high/ultra ook.
Dat is dus het hele probleem. Je verwacht vooruitgang qua snelheid, juist zonder dat het er (veel) duurder op wordt.
Die vooruitgang is er toch ook? Hoezeer ik ook een probleem heb met het idee van een "x60 kaart voor €370", is dit ook gewoon GTX1080 performance voor €370

Nvidia probeert gebruikers te upsellen door lagere typenummers hoger te trekken kwa prijs en performance (hier komen ze mee weg omdat AMD ook rare dingen doet kwa typenummers, en weinig concurrentie biedt in dit segment momenteel), traditioneel was de x60 pakweg gelijk aan de (x-1)70, dat de 1060 een 980 evenaarde, en nu de 2060 de 1080 aantikt betekent niet dat je daadwerkelijk meer hoeft te betalen voor adequate performance, alleen dat nivida probeert met getalletjesgegochel je meer te verkopen dan je nodig hebt.
Tuurlijk is er vooruitgang, zou een beetje te gek voor woorden zijn als die er niet was, of wordt dat tegenwoordig als een + gezien? 8)7

Vergelijkbare performance van een kaart die over 2 maanden precies 2.5 jaar geleden is uitgebracht, nou joepie. Voor sommige games is een 1070 al recommended, leg je dan mooi bijna 400 euro van je zuurverdiende centen neer voor een videokaart die binnen nu en 2 jaar al is achterhaald.

Like i said, toen ik mijn GTX 970 kocht was er maar 1 gamekaart beter en duurder en dat was de 980 die rond de 550 euro lag detstijds en nu 4 jaar later nog redelijk mee kan in sommige games.

Nu koop je voordatzelfde geld een 2060 en heb je een 2070/2080/1080Ti/2080 Ti die stuk voor stuk allemaal beter zijn, IK vind dat dat gewoon bezopen. :)
Sja, maar als je PC master race will zijn dan, zeker in het bovensegment dan weet je toch al lang dat je gemolken word door fabrikanten. Je had de 1080Ti nodig voor 4k 60hz en nu de 2080Ti voor 4k RayTrace 120hz en dan zometeen de 3080Ti voor 240hz 5k RayTrace 2.0 Supra.

Elke keer mag je weer de hoofdprijs betalen. Want het is een steeds kleiner wordende niche aan mensen die er aan mee doen. Ondertussen draaien de games die populair zijn op 2 aardappelen met een Celeron er tussen.

Of je koopt gewoon een Xbox One X voor dezelfde prijs en laat de boel de boel...
Je had de 1080Ti nodig voor 4k 60hz en nu de 2080Ti voor 1080P RayTrace 60hz

Fixed that for ya...
Mja, dat roept men steeds wel...

Ondertussen kan ik BFV spelen met DXR op Low en de rest om Ultra op 3440x1440 en ik krijg 67-88fps te zien. Helaas zitten er wat gestotter bij. En ja, ook uitschieters naar 100fps.

Uiteindelijk is het probleem ermee dat je in de MP juist minder goed de tegenstand kan spotten. Dus kies ik ervoor om het uit te zetten.

Ondertussen kan een 2080Ti gewoon op 4K bij Ultra instellingen met DXR aan (ja, op low...) 60fps draaien.


Maar alles bijelkaar is het nog steeds te vroeg om hier echt conclusies over te trekken. Er is maar één titel waar een nog experimentele implementatie van deze techniek te zien is. En dan alleen de MS DX12 versie, niet de Vulkan API versie.

Maar goed, om de RT prijs kwaliteitsverhouding hoef je momenteel niet echt naar de 2080Ti of Titan RTX. Juist op lagere resoluties zijn de goedkopere kaarten veeeel kosten-effectiever.
Ik hoop persoonlijk dat toetsenbord en muis binnenkort volledig ondersteund gaat worden voor alle games. Dan kan de PC de deur uit, en heeft iedereen dezelfde graphics voor een betaalbare prijs. Dan kun je zelf nog beslissen of je op tv of monitor gaat gamen.

Ik ben bout met controllers, mocht daat een toetsenbord en muis voor in de plaats (En aangepaste matchmaking met bijvoorbeeld alleen toetsenbord/muis of pc spelers) komen ben ik verkocht.
Het maakt toch niet uit wat er allemaal nog meer te koop is boven jouw keuze? Of koop jij je videokaart om een hoger getalletje te hebben dan de andere jochies op het internet?

Met een 2060 kan je de nieuwste games (die ook al een goed stuk zwaarder zijn dan ten tijde van de 970) spelen op 1440p/ultra, or 4K als je wat water bij de wijn doet, wat is dan het probleem?

Nvidia probeert een kaart die prima de 2070 had kunnen zijn te 2060 te noemen zodat alle "ik koop elke 2 jaar een x60 nvidia kaart" mensen nu blindelings 370 euro uitgeven ipv 250, als je die getalletjes inderdaad belangrijker vind dan de performance, betaal je inderdaad ineens 370 euro voor "budgetkaart"
Wat een onzin. Niet alleen is er veel minder vooruitgang nu dan vroeger, maar de prijzen gaan onevenredig omhoog.

"Vroeger" kocht ik altijd mid-range kaarten voor rond de 200 euro en soms zelfs veel goedkoper (mijn GTX260 216 was bijv. 165 euro). Het maakte niet uit of die sneller waren, daar ging je vanuit. Nieuwe kaarten in de mid-range hadden altijd ongeveer dezelfde prijs. Daar is met de Pascal kaarten opeens een hele hoop mee veranderd. De GTX1060 werd al iets duurder gelanceerd dan wat de meeste mensen hadden verwacht en de bitcoin koorts maakte het er niet beter op qua prijzen. Nvidia zag dat mensen bereid waren (veel) meer te betalen omdat er ook weinig concurrentie was. Nu hebben ze er nog een schepje bovenop gedaan met de nieuwe Turing kaarten.

De lonen zijn marginaal gestegen, RAM is ook een goed stuk duurder nu dan 2 jaar geleden en dat maakt het hele PC bouwen een beetje kut. Ik heb 2 jaar geleden voor een laptop met GTX1060 kaart gekozen omdat dat goedkoper was dan een soortgelijke desktop te bouwen en qua performance weinig onderdoet. Dat had ik voor deze prijsstijgingen nooit overwogen. Het zou nu zelfs lonen om bijvoorbeeld een Xbox One X te kopen die qua performance ongeveer gelijk is aan een PC met GTX1060 (ja, andere usecase maar voor puur gamen niet zo'n groot verschil).

Ray Tracing op de 2080Ti is al van bedroevend niveau nu, laat staan dat een 2060 moet gaan ray-tracen.
De GTX 1160 zal waarschijnlijk ook niet bijzonder goedkoop zijn.
Ik ben helemaal met je eens dat de mining craze en het hele DRAM gedoe nu compleet kut is, ik krijg mezelf ook maar niet over de drempel om naar AM4 over te stappen

Maar als je nou eens even verder kijkt dan typenummertjes, zal je zien dat je met die 200 euro nog steeds een uitstekende budget kaart kan kopen, zoals de RX580. Deze 2060 kan verdomme gewoon 1440p op ultra draaien en met wat tuning trekt ie 4K ook, dat is toch geen "budget" meer?

Sure, spelletjes worden niet elk jaar netzoveel mooier als 10 jaar terug, maar dat kan ook gewoon niet, ook 10 jaar terug was die vooruitgang al aan het stagneren. Desondanks is die vooruitgang er nog steeds, en kan je nog steeds voor 200 euro prima een kaart kopen die nieuwe spellen prima draait op reguliere settings.

15 jaar terug kocht je voor die 200 euro een 6600GT, en je hoeft echt niet te denken dat je daarmee Far cry op 1080p/ultra kon spelen..
toen werd die resolutie ook amper gebruikt. FarCry kon je echter wel op ultra spelen op de meer standaard 1280x1024 resolutie.

Ook leuk om te weten is dat deze kaart op bijna alle games sneller was dan de 5950 ultra, het topmodel van de voorgaande reeks.
Klopt, 1080p was toen niet populair, maar ook al had je zon scherm (of 1920*1200), dan had een 6600GT het niet getrokken, 1080p is een hele berg extra pixels tov 1280*1024 (en volgens mij speelde ik op 1024*768 en later 1440*900)

De vergelijking met de 5950U is een leuke idd, maar dat was ook wel de perfect storm, de FX serie was een absolute flop, de 6 serie was gewoon geweldig, monsterlijk goede kaarten destijds.
op 1600*1200 (ongeveer evenveel pixels als 1080p) kon de 6600GT inderdaad maar 40fps halen gemiddeld. Toen werd dat nog wel als speelbaar beschouwd, maar tegenwoordig is dat net niet goed genoeg.

Indien ik de index op de verkoopsprijs bij release toepas kom ik uit op een prijs van 284 Euro, voor prestaties die ongeveer 20% achterliepen op het topmodel.
[quote[Maar als je nou eens even verder kijkt dan typenummertjes, zal je zien dat je met die 200 euro nog steeds een uitstekende budget kaart kan kopen, zoals de RX580[/quote]

Klopt, maar de RX580 is een RX570 met ietwat hogere clocks, op zich niet zo spectaculair aangezien de RX570 met moeite de GTX1060 kon bijhouden. De GTX1060 zit nu pas rond de prijs waarop hij rond de launch moest zitten

Je vergeet alleen even dat we vroeger kaarten hadden die voor een hoge adviesprijs geintroduceerd werden, onder adviesprijs verkocht werden en die prijs na 3 maanden zo laag was dat het betaalbaar werd voor de meeste mensen. De huidige kaarten doen qua prijs niet zo veel en kunnen zelfs in prijs omhoog gaan wat al helemaal absurd is. Videokaarten zijn geen collector's items, maar zo gaan we er wel mee om in deze tijden van schaarste en de monopoliepositie van Nvidia. Laten we even heel eerlijk zijn, AMD doet niet echt mee in deze race nu. De Vega kaarten konden met moeite de GTX1070 en GTX1080 bijbenen en komen nu al helemaal niet meer in de buurt van de snellere Pascal kaarten.

En dan nog iets: als Tweakers en consumenten moeten we niet de fabrikanten gaan verdedigen die ons uitbuiten. Het hele DRAM cartel, de Nvidia prijzen en releases (2060 heeft 3 verschillende geheugencapaciteiten die weer onderverdeeld zijn in 3 verschillende soorten ram per kaart), Intel die net als Nvidia lui was geworden en het nu heet onder de voeten krijgt omdat AMD opeens weer meedoet.

De "60 kaarten zijn altijd mid-range kaarten geweest. Dat is waar de consument en enthousiast het mee associeerd. Technologie wordt sneller, dat is toch logisch en dat was vroeger ook zo (en ging een stuk sneller), maar destijds betaalde je niet steeds meer voor producten omdat ze sneller waren dan de vorige generatie. Ik ben blij dat we nu met ray tracing beginnen, maar de instapprijzen zijn niet te verantwoorden. Ook het hele "Founder's Edition" schiet bij mij in het verkeerde keelgat. Reference kaarten, want dat zijn het, horen goedkoper te zijn dan board partner kaarten.

Deze video legt het hele Founder's Edition gebeuren beter uit dan ik dat kan: https://www.youtube.com/watch?v=ebxp0Ie_abI
Ik ben het geheel met je eens dat wij als tweakers/consument uitbuiting niet moeten verdedigen, maar dat doe ik ook niet.

De 2060 is gewoon geen budgetkaart meer, ongeacht wat eerdere x60 kaarten waren, de prijs is er niet naar en de performance is veel hoger dan je als budget bewust gamer nodig hebt, het enige probleem hier is dat nvidia het ding 2060 heeft genoemd en niet 2070 (wat als je bijvoorbeeld naar de stap 780>970 kijkt, en 2060>1080 prima te verdedigen zou zijn)

Ik ben het ook met je eens dat al die FE onzin van nvidia nergens op slaat, maar het probleem hier is niet dat nvidia 370 euro durft te vragen voor een 2060, maar dat ze het ding 2060 hebben genoemd, of dat ze geen duidelijk genoeg onderscheid maken tussen GTX en RTX, als je puur kijkt naar performance/€ is er niks mis met deze kaart en heb je ook meteen door dat je als budgetgamer hier niet naar hoeft te kijken, 1440p/ultra is hardcore-gamer land.

(overigens, de 580 is geen overklockte 570, de 580 heeft extra compute units, de 590 daarintegen is wel een 580 met iets hogere clocks, en die kaart heb ik ook weinig goeds over te zeggen)
Wat veel mensen lijken te vergeten is dat er op deze rtx kaarten daadwerkelijk extra hardware zit... Die tensor en rt cores zijn gewoon silicon waarvoor betaald moet worden, is de prijs voor waar je voor betaald hardware technisch gezien mis? Nee. Doet die extra hardware waar je voor betaald iets wat het 100 euro meer waard maakt? Tja....
Hier klopt dus helemaal niets van. Jij gaat er dus van uit dat videokaarten niet met de tijd meegaan. Vroeger was de 970 gewoon de mid-range kaart, en de 960 de 'budget'kaart. Tegenwoordig zijn dat gewoon de 2060 en 2070. Het enige wat er is verandert is dat de prijzen omhoog geschoten zijn. Dat de nieuwe kaart meer kan dan de 'oude' mid-range kaart heeft hier dus helemaal niets mee te maken, omdat het kaarten van een paar jaar geleden zijn. Als deze kaarten vergelijkbaar zouden zijn met de prijzen zoals ze nu zijn, zou dat diep triest zijn.
Met een 2060 kan je huidige games op veel hogere settings draaien dan met een 960 de games van die tijd, nvidia probeert gewoon een kaart die eigenlijk best een 2070 had kunnen zijn als 2060 te verkopen om daarmee alle "ik koop gewoon de nvidia budgetkaart" klanten een treetje hoger te krijgen.

1440p ultra is gewoon x70 territory, niet x60/budget
https://www.youtube.com/watch?v=BOsCvRRTAgw
Wist zelf niet goed hoe je het goed moest uitleggen, totdat ik deze video tegenkwam.
Gewoon een mooi verkoop praatje van Nvidia. Gewoon altijd ervan uitgaan dat bedrijven met gebakken lucht komen en mooie praatjes. Gewoon common sense gebruiken, totdat iemand die kritisch is en er wel alles van begrijpt iets zegt, of je begrijpt alles zelf al. De prijzen van de nieuwe 'budget'kaarten zijn gewoon veels te hoog.
Je kan ook nog verder teruggaan. In 2008 had je een Radeon HD4850 voor pakweg 150 EUR. Die zat toen in een vergelijkbaar segment als de GTX970. De prijzen van kaarten binnen hetzelfde segment zijn meer dan ver-3-dubbeld als je naar de huide prijzen de RTX2070 kijkt.

Het zou wel leuk zijn om dit eens op een grafiekje te zien. Heeft Tweakers historische data van videokaart prijzen 10 jaar terug? In de pricewatch vond ik niet veel.
Lijkt me interessant om dit eens te bekijken, natuurlijk wel de inflatiecorrectie meenemen! Heb geen harde cijfers, maar 150,- 10 jaar terug is natuurlijk niet hetzelfde als 150,- in 2018. (zal eerder rond de 200-210 zitten). Ook is het moment dat de prijs bepaald wordt belangrijk om vast te stellen: launch met adviesprijs of 1 maand na release en dan goedkoopste uit de pricewatch? Wellicht een leuk artikel waard: "20 jaar 3d gaming" :)
Naast inflatiecorrectie moeten we natuurlijk ook de component kosten meenemen. Er zit nogal andere hardware in een nieuwe GPU vergeleken met 10 jaar terug. Net zoals een Nokia van 20 jaar terug niet te vergelijken is met een moderne high-end smartphone.
Hmm, amd / ATI had toen de 4850 en 4870 die het opnemen tegen de gtx260, daarboven nog twee kaarten . En dan reken ik (van beide partijen ) de dual-gpu kaarten niet mee.

Een 4850 / 4870 was absoluut een mainstream kaart voor een topprijs (vergeleken met Nvidia sowieso) maar het was mainstream, niet enthousiast en hoger.

Dan nog, de 'mainstream' kaart van de gtx10xx serie was de 1060, en die was (zelfs in uitgeklede versies ) niet onder de 200 te krijgen en deze gtx2060 kost nu meer dan 300, dus ik snap je punt wel.

Maar een hd4850 zat niet in vergelijkbaar segment als de gtx979, maar eerder de 960 of zelfs de gtx950. (En je moet ze dus eigenlijk vergelijken met de Nvidia kaarten van die tijd, de gtx2xx serie).
De HD4870 legde het toen enkel af tegen de GTX280 (die was een dikke 10% sneller) en een dual gpu kaart. In mijn ogen is dat toch echt wel boven mainstream.

De HD4850 scoorde iets van 20% onder de HD4870. Om dan de HD4850 in hetzelfde segment te stoppen als de GTX960 en zelfs GTX950 vind ik wel wat ver gaan... Die zitten nogal wat verder van de topmodellen vandaan.
reviews: Club3D Radeon HD 4870 versus MSI Geforce GTX260 OC

4870 en gtx260 waren netjes aan elkaar gewaagd, en na prijsverlagingen van Nvidia ook qua prijs.
Daar komen dan de gtx275 en gtx285 nog bovenop, en AMD met de HD4890. Vandaar dat ik (ook toen) het om het 'mainstream' segment vond gaan.

Het verscheelt ook wel erg waar in tijd de review genomen is (bij launch van de hd48xx of later) want de drivers maakten best wat meer verschil in die tijd.
Maak je niet dik. Dit kaartje is getest met een 1000 Euro processor 10 core / 20 threads met 32GB DDR4 geheugen een lollige 1600 Watt voeding en twee SSD's (RAID 0?)

Valt een beetje uit het lood om dan de simpelste kaart te stoppen in een dure test setup die de meeste gamers niet eens hebben.

Tweakers heeft over heet algemeen leuke topics, maar hardware tests en de best-buy roundups zijn knullig.
Wat was de launchprijs van die 970?
dat staat in mijn post.
Er staat wat je betaalde, niet wat de msrp is.

Op zich denk ik dat je deze kaart wel kan vergelijken met de 970 in die tijd. Je kan met deze kaart op de meestgebruikte resoluties meer dan prima gebruiken. 1440p is prima te doen, zelfs 4k nog.
Vreemd resultaat w.b.t. Battlefield 1.

De RTX 2070 is op 1440p sneller qua minimum fps dan op 1080p @ ultra settings?
En de RTX 2060 is op 1080p sneller qua minimum fps dan de RTX 2070.

8)7

Prestaties/stroomverbruik verder best wel mooi... maar ik vraag me af of je in 2019 een videokaart met "maar" 6gb moet willen kopen.
Met Wolfenstein op 4k ultra gaat de 1070ti de RTX 2060 ruim voorbij qua minimum fps.
Zou dat door 8 gb versus 6 gb vram komen?

[Reactie gewijzigd door HugoBoss1985 op 7 januari 2019 15:28]

Battlefield 1 heeft geen ingebouwde benchmark, dus rijden we steeds hetzelfde rondje met een tank in de game.
Dat rondje zal vast nooit helemaal 100% hetzelfde verlopen.
Maar als dat al zo'n verschil geeft tussen dezelfde kaart met twee verschillende resoluties, hoe serieus kun je deze test dan noemen tussen 2 verschillende kaarten?
De minima uit die benchmark zouden ze eigenlijk moeten schrappen. Die hebben weinig waarde juist omdat de pieken kwa belasting aardig kunnen uitschieten waardoor ze niet goed te vergelijken zijn. Maar gemiddeld zal zich dat grotendeels opheffen. Bij de gemiddeldes zijn de resultaten ook logisch. Bij de minima zijn er wel meer gekkigheden. De Vega 56 krijgt met Ultra ook ineens hogere minima dan met Medium. Dat kan gewoon niet.
Ik denk toch dat de meeste gamers de minimum fps het belangrijkste vinden.
Waarschijnlijk zelfs in combinatie met 'hoe vaak' dat voorkomt. Als zo'n minimum maar een seconde van een paar uur durende game-sessie voorkwam, is dat alweer heel wat anders dan wanneer je bij elke keer dat je scherm wat drukker wordt niet lekker meer kunt spelen.

Maarja, om nou met allerlei percentielen of lopende gemiddeldes (moving average) enzo te gaan werken, daar wordt de presentatie van de resultaten natuurlijk ook weer niet duidelijker op.
Aan de andere kant: is minder overzichtelijke maar wel meer inzicht verschaffende informatieverstrekking niet te verkiezen boven simpeler maar "misleidender" informatieverstrekking?
Het feit dat het alternatief moeilijk te begrijpen is betekent niet dat de huidige tekortschietende manier van weergeven dan maar moet blijven. Is er niet een derde optie te bedenken?
Ja, ze zijn belangrijk maar de waarden die hier worden gepresenteerd zijn gewoon niet betrouwbaar omdat er geen vaste benchmark is. Om die waarde wel betrouwbaar te maken zouden ze een veel langere speelsessie moeten gebruiken.
Gemiddeldes geven de speelbaarheid van een game helaas absoluut niet weer.
Om het even extreem te nemen: als mijn benchmark van twee minuten de helft op 5fps draait en de andere helft op 200 fps dan heb ik een gemiddelde van 62,5 fps. 60+ fps is prima, maar dit voorbeeld is dus de helft van de tijd niet om aan te zien.
En daarom is de review van de buren veel nuttiger: zij geven ook de frametimes.
Beetje vreemd ook dat de "buren" dezelfde kaart testen. Ik ga er vanuit dat dit geheel losstaande tests zijn geweest. Als we even eerlijk zijn dat doorgaans hw info wat beter is in hardware testen, snap ik niet dat tweakers het niet gewoon uitbesteed? Het is immers hetzelfde bedrijf.

Ik kan er natuurlijk naast zitten, wellicht is er wel samengewerkt.
Dat zei ik ook niet. Minima zijn belangrijk, MAAR ze zijn alleen nuttig voor een vergelijking indien je een identieke benchmark hebt. Zodra er variatie komt in de benchmark is deze waarde nutteloos voor een vergelijking van de grafische hardware.
Bovendien geldt volgende regel in de statistiek: outliers mag je niet verwijderen tenzij je kunt bewijzen dat die onterecht worden meegerekend, dat is hier niet het geval. De minima zijn dus essentieel voor het correct interpreteren van de benchmark. eigenlijk zou je dan ook maxima moeten weergeven maar die zijn in deze context al helemaal niet relevant.
Outliers mag je niet zomaar zonder reden verwijderen. Dat klopt. Maar wat hier wordt gedaan is dat de grootste outlier als een benchmark wordt gebruikt en dat is natuurlijk statistisch totaal onbruikbaar als het testscenario niet helemaal zuiver is (en dat is hier absoluut niet het geval).

[Reactie gewijzigd door Darkstriker op 7 januari 2019 23:49]

Vreemd resultaat w.b.t. Battlefield 1.

De RTX 2070 is op 1440p sneller qua minimum fps dan op 1080p @ ultra settings?
En de RTX 2060 is op 1080p sneller qua minimum fps dan de RTX 2070.
[...]

Dat rondje zal vast nooit helemaal 100% hetzelfde verlopen.
Dat + ik ga er vanuit dat ze 1 test gedaan hebben per instelling waardoor het mogelijk kan zijn dat het een uitschieter (onderschieter?) is geweest
RTX gimmick... Toch maar een tweedehands GTX1080 scoren! :P
Als je met 'RTX gimmick' doelt op de raytracing techniek dan ben ik het niet met je eens. Voor zover ik mij erin heb verdiept lijkt raytracing een bijzonder natuurgetrouwe techniek om graphics te genereren. Het werkt vergelijkbaar met hoe de fotonen vanuit een lichtbron rondstuirteren op allerlei opvlakken voordat het in onze ogen valt. In dit filmpje wordt het uitgelegd.
Tegelijkertijd wordt het door niets ondersteund en is het nvidia specifiek. Dit is een gevalletje Hairworks. Als er voor 3 tientjes minder exact dezelfde kaart verkocht zou worden zonder raytracing dan zou niemand nog de RTX variant kopen.
hoewel ik het met je eens ben dat RTX niks wordt (in de huidige impl), geef ik je op een briefje dat 90% van de huidige RTX kopers die 3 tientjes graag extra zouden lappen, kijk maar eens naar wat mensen overhebben voor een factory OC van 3-5%, een koeler die 5 graden koeler blijft, of *gruwel* RGB ledjes...
Fair enough maar mijn gamesysteem is dan ook een absolute ghettobuild met een passief gekoelde Xeon, 1 hele case fan, overal kabels en de goedkoopste 1060 die ik kon kopen. Als je me 10 euro zou geven om hem nog lelijker te maken dan zou ik het doen :+
Dat het mooi en echt is, maakt het nog niet geen Gimmick

het is een Gimmick omdat het bijna nergens wordt gebruikt en als het al wordt gebruikt zijn de prestaties bagger
Even los van de definitie van een gimmick, ben ik het met je eens dat de huidige techniek nog niet ver genoeg is ontwikkeld. Ik doel daarentegen vooral op het potentieel van de raytracing techniek, die is wat mij betreft verre van een gimmick te noemen.

Hoe dan ook, de RTX serie zie ik meer als de eerste stapjes op een (vrij) zekere weg van het realtime renderen van 'realistische' graphics. Sterker nog: je zou de huidige techniek een gimmick kunnen noemen gezien daar d.m.v. trucjes allerlei grafische effecten worden gegenereerd, waar raytracing deze trucjes niet nodig heeft omdat het gewoon doet wat er in werkelijkheid ook gebeurt (tot op zekere hoogte in elk geval).
Het geeft anders een waanzinnig effect. Op de 2060 lijkt het inderdaad niet geweldig maar met 1 driver update konden ze 50% meer fps krijgen. Dat maakt het iig op 2080 TI dat ik ruim 110 fps heb in Battlefield op ultra en RTX aan.
Ja, op 1080P. Zit je dan met je €1350 kostende kaart op een resolutie uit 2005. ;)
Heb voor €550 een tweedehands msi 1080ti gaming x gehaald. Geen RT, wel 140 fps ultra 1440p.

En dat voor de helft :D
zonder rt ga ik naar de 200. resolutie is wat mij betreft prima. Het verschil in kleuren en licht is wel aanzienlijk. Misschien zie ik zo niet alles maar de game is wel echt prachtig zo.
Ieder zo zijn ding. Ik vind 200 fps 1080p geen €1400 waard.
Ieder zijn ding. Dit is ook de eerste keer dat ik zo veel uitgeef. Maar van de andere kant zit ik veel achter de computer en heb ik er uiteindelijk veel plezier van.
Hoewel de GTX1080 hier ontbreekt, kunnen we wel wat extrapoleren. En als ik dan een beetje extrapoleer en gok, denk ik dat een 1080 ietsjes sneller is een een 2060, maar geen schokkend verschil. Een tweedehands non-founders 1080 gaat voor €400-€450. Dus als ik echt heel optimistisch reken, dan heeft een tweedehands 1080 een vergelijkbare prijs/kwaliteit als een nieuwe 2060. Tot zover waarom ik tweedehands GPU prijzen niet begrijp. Maar ik zou ook echt dan niet aanraden om een tweedehands te kopen.
Die prijzen zakken dan nog wel wat na deze launch, hoewel ik 2e hands prijzen ook verder niet snap hoor, voor bijvoorbeeld RX570/580s loopt de 2e hands prijs uiteen tussen 80-110% van een nieuwe, maar dan zonder/minder lang garantie, en gegarandeerd gebruikt in een mining rig...
Ik vind een tweedehands 1080ti gaming voor €550 een zeer goede koop tbh.
Of je wacht tot ray tracing met mid range ook prima speelbaar word, ik vermoed ergens als Nvidia in 2019/2020 op 7nm zit en DLSS ook door "zelf leren" beter gaat werken. Jammer dat AMD wacht tot ray tracing prima speelbaar word op low end en tot dan nog geen hw ondersteuning bied wat wel nodig is . SLI schaalt overigens ook niet lekker voor een 2e kaart na mijn menig.
of gewoon w8ten tot de 11 serie
De weg is vrij voor AMD in het budgetsegment.
Vreemde keuze van Nvidia om de xx60 opeens zo'n stuk hoger de positioneren. Ten tijde van de 700-generatie kocht je voor dezelfde prijs bijna een 780. De 960 was ook een stuk goedkoper. De 1060 is niet echt mee te rekenen in verband met de mininggekte.
Achja, het is slechts naamgeving. Ik ben benieuwd wat een RTX2050 dan wordt.
Battlefield 1 heeft geen ingebouwde benchmark, dus rijden we steeds hetzelfde rondje met een tank in de game.
Als Battlefield 1 geen ingebouwde benchmark heeft, waarom blijven jullie er dan op testen?
Nu spelen er te veel variabelen. Deze vergelijking zegt bijzonder weinig, het lijkt mij nuttiger om die tijd in een andere game te stoppen, een game die wel over een ingebouwde benchmark bezit?
zo denk ik ook. De mining gekte is gebruikt om mensen aan hogere prijzen te laten wennen.
Zie de overstock van 1060 ed.

En iedereen vind het normaal en raar dat mensen klagen over de prijs van de 2060.

Eigenlijk vanaf de 400 serie uit mijn hoofd waren de kaarten in de 60 serie altijd rond de 200 euro.
Met verbetering etc.
Je kunt binnen kort nog wel wat meer 2060's verwachten IMHO.
3 GB, DDR5 versies en alle mogelijke itteraties.
Ik vraag me af waarom Nvidia haar producten zo duur heeft gemaakt.
Ik vraag me ook af hoeveel mensen een rtx 2070 of hoger hebben gekocht.

Ergens jammer voor de normale consument, ergens positief voor de workstation segment als ik Linus van YouTube mag geloven.

Klinkt gek, ik heb ooit een keer een EVGA 8800 GT gekocht. Het was toen een mooie midden segment kaart. Mooie tijden. Daarna had ik een 460 GT gehaald. Ook een mooie kaart. Jammer Nvidia.
Misschien omdat de hardware gewoon duurder is om te ontwikkelen/produceren
Dat is wel een mogelijke reden. Bedankt. Niet aan gedacht.
Ik vind de resultaten van de AMD Vega 56 een beetje teleurstellend. Waarschijnlijk is dit op basis dat de kaard stock draait. Maar er is algemeen bekend dat de Vega ge-undervolt moet worden met een kleine OC om op zijn best te presteren. Zo draait mijn Sapphire Vega 56 Pulse in games continu op 1600 MHz met geheugen op 945 MHz. En presteert mijn kaart een stuk beter dan wat bovenstaande grafieken laten zien. Nu is met benchmarks natuurlijk niet uitgegaan van OC omdat lang niet iedereen zal OC-en. Maar ik denk dat 80 procent van de mensen die juist een Vega hebben gekocht vanwege de performance met een undervolt en OC combi. Ik zou graag in dit soort grafieken een undervolted Vega ook nog terug zien komen. Ik verwacht dan dat deze zo'n 2 posities zal stijgen en tussen de RTX 2070 en GTX 1070ti uitkomt. Zeker gezien ik in veel games en benches dezelfde performance haal als een GTX 1080.
1070ti's draaien standaard ook op veel te lage settings, alleen al de power en temp target omhoog gooien geeft je 10%, mijn MSI gaming x draait op 2025mhz core en 4500 memory, ipv de standaard 1700 en 4000
Vreemd dat mensen een nagenoeg bijna performance van een 1070TI als budget bestempelen.

Of mis ik iets?
1070Ti is van een vorige generatie. Next GEN behoort beter te presteren en de "waardering" verschuift.
Los daarvan heeft budget meer met de prijs te maken dan prestaties en daarom is deze kaart eigenlijk nog te duur om onder budget te vallen.

[Reactie gewijzigd door NosferatuX op 7 januari 2019 19:30]

Betere prestaties dan ik had verwacht van deze kaart.
De prijs is inderdaad hoog, maar qua prijs prestatie is het in ieder geval geen achteruitgang, zoals het bij de andere 20xx kaarten.

De kaart komt akelig dicht bij de 2070 in de buurt met de overklok.

Qua RTX is het natuurlijk nog maar de vraag of iemand dit uberhaubt wil of weet te gebruiken.

Het is nu afwachten op AMD. Ik hoop dat ze een gelijkwaardig of beter product neer kunnen zetten voor een betere prijs. Ik ben zelf op zoek naar een nieuwe GPU, maar dan moeten de prijs en prestatie er wel naar zijn.
Ik wacht al jaren op een GPU van AMD, maar sinds de R290 is daar geen innovatie meer te vinden. Ik verwacht helemaal niets meer van AMD en deze kaart maakt dat weer pijnlijk duidelijk.

Jammer, dat wel.
De vega is opzichte niks mis, de crypto markt heeft die kaart geen goede reputatie gegeven en HBM2 geheugen helpt ook niet echt met de prijs.
nog 2 nachtjes slapen en je weet het (Woensdag 18:00 uur Nederlandse tijd).
Ik denk wel dat de VEGA kaarten innovatief te noemen waren.
Als ze verkijgbaar waren voor de adviesprijzen dan zouden vast ook een hoop meer mensen ze in hun PC's hebben.
VEGA bevatte al wat meer compute mogelijkheden waar NVIDIA zich nu pas op focust met de RTX kaarten. Bovendien was HBM2 een stuk sneller dan GDDR5, maar helaas ook duurder.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True