Renders tonen GeForce RTX 2060-videokaart van Zotac

Er zijn renders online verschenen van een GeForce RTX 2060-videokaart van Zotac. De videokaart is een stuk korter dan de RTX 2070- en 2080-versies en is geschikt voor itx-behuizingen, zo blijkt uit de afbeeldingen van een Spaanse site.

Zotacs uitvoering van de RTX 2060 lijkt op de Zotac RTX 2070 Mini, een kleine variant van de hoger gepositioneerde videokaart die het eerder uitbracht. De renders van de Zotac RTX 2060-videokaart werden ontdekt door de Spaanse website hd-tecnologia en lijken afkomstig te zijn van de officiële Zotac-website.

De uitvoering van Zotac heeft twee fans een een achtpinsaansluiting. Verdere details maken de foto's niet bekend. Eerder deze week bleek uit registraties van Gigabyte dat er waarschijnlijk RTX 2060-versies met 3GB, 4GB en 6GB komen. Ook komen er varianten met gddr6 en gddr5 of gddr5x.

Volgens geruchten krijgt de RTX 2060 een gpu met 1920 cudacores. De RTX 2070, 2080 en 2080 Ti hebben respectievelijk 2304, 2944 en 4352 cudacores. De RTX 2060 is het laagst gepositioneerde model met raytracingcores. Hoeveel RT-cores het model krijgt is echter nog niet duidelijk.

Nvidia heeft de RTX 2060 nog niet officieel aangekondigd, maar gaat dat waarschijnlijk doen tijdens zijn persconferentie op de CES-elektronicabeurs. Nvidia's presentatie is volgende week zondag. Naar verwachting toont het bedrijf dan ook RTX-videokaarten voor laptops.

Zotac GeForce RTX 2060-videokaartZotac GeForce RTX 2060-videokaartZotac GeForce RTX 2060-videokaartZotac GeForce RTX 2060-videokaart

Door Julian Huijbregts

Nieuwsredacteur

28-12-2018 • 15:30

67

Reacties (67)

Sorteer op:

Weergave:

Eigenlijk triest on dit RTX naamgeving te geven, een 2070 heeft niet eens genoeg power voor RTX op een fatsoenlijke resolutie.
Nou ja Raytracing is nog niet fatsoenlijk geoptimaliseerd waardoor het brak draait. Rond sinterklaas had Battlefield 5 een patch gekregen waardoor de framerates met +/- 50% toenemen. Ik merk zelf ook op mijn 2080TI (die ik tevens voor professionele redenen heb gekocht en niet voor de yolo) dat RT een heel stuk beter draait dan voorheen in BF5 (die ik gratis kreeg bij mijn videokaart en ik alleen de single player van speel)

Ik denk dat de 2060 uiteindelijk wel RT aankan. Maar ja ''uiteindelijk'' is natuurlijk bs. RT had vanaf het begin af aan fatsoenlijk moeten draaien en devs hadden veel eerder toegang moeten krijgen tot RT technologie om het te optimaliseren.

Link met vergelijkingen voor de andere RTX'en
""RT had vanaf het begin af aan fatsoenlijk moeten draaien en devs hadden veel eerder toegang moeten krijgen tot RT technologie om het te optimaliseren."

Ben ik het niet mee eens, weet je nog toen DX11 uitkwam met tesselation? Dat was een nachtmerrie om te draaien op moderne kaarten, ook omdat de optimalisatie er niet was. DX10 idem dito (crysis anyone?)

Dit is standaard met nieuwe technologie, als er een nieuwe game uitkomt in 2019 die RT ondersteunt gaat dit een 20% perfomance hit hebben (neem even nummers van de dx11 era games, die hadden ongeveer dezelfde prestatie hit als je dx 11 aanzette, behalve bij metro 2033, dat was onzin lol).

Het is niks nieuws in iedergeval.

En als de ps5 en nextbox uitkomen is raytracing toch standaard, dat gaat ook gewoon in die consoles zitten, net als dx 12 via een patch enabled is op xbox.
Ligt ook niet alleen aan de software kant, het kan nu enkel als gimmick worden gebruikt binnen games door de hardwarematige specificatie die meer gericht is als marketing. De specificatie die wordt genoemd is namelijk vrij misleidend. Om een volledige single-pass ray trace te doen heb je één foton per pixel nodig per frame. Op een standaard 1080p resolutie met een frame rate van 60 fps komt dat neer op 1920 * 1080 * 60 = 0.124 gigarays. Je zou denken dat 10 gigarays/s meer dan genoeg zou moeten zijn: maar zo makkelijk is dat ( helaas ) niet omdat er veel meer bij komt kijken.

Er zit een gigantische overhead in de techniek: de 10 gigarays die worden gesproken zijn enkel lineaire vector units die domweg de ray propageren bij elke clock cycle. Daar heb je natuurlijk niet zo heel veel aan, je wilt ook dat je rays kunnen interacten met de gesimuleerde wereld en zich kunnen propageren als reflectie, of zelfs kunnen refracten in twee, oftewel mogelijk exponentiele complexiteit.

Door slim gebruik te maken van gespecialiseerde instructies, pipelining en speculative execution kan dat heel efficient gedaan worden en kunnen andere vector units worden ontlast. De kosten hiervan zijn wel een hogere latency ( omdat er specifieke access moet worden gedaan naar de ray trace units ). Maar waar de bottleneck echt in zit is intersection detection en dat wil nvidia met deze techniek optimaliseren. Bounding Volume Hierarchy Traversal wordt in het algemeen toegepast om ray collision te bepalen en dit zal moeten worden gedelegeerd worden om miljoenen vertices te vergelijken met miljoenen rays. Wat nvidia heeft gedaan is deze raytrace techniek te optimaliseren door het op hardwarematig niveau te implementeren zodat het aantal instructies sterk kan worden gereduceerd en er meer kan worden gepipelined ( oftewel meer delay, maar veel hogere bandwidth ). Dit is eigenlijk wat in heel veel gevallen al gebeurd met de CISC -> RISC pipeline maar nu dus met een raytracing module. Die 10 gigarays zeggen dus niet zo heel veel, maar het is zeker een stap in de goede richting.

Softwarematig is er eigenlijk niet zo gek veel te verbeteren aan de raytracetechnieken: theoretisch is er eigenlijk alles al over gezegd. Het onderzoek gaat nu voornamelijk over technieken waardoor een redelijk of goed resultaat kan worden verkregen met minder rays of minder zware algoritmes ( bijv. denoising ). Een echte raycasting render is nou eenmaal een brute force en daarom investeert de filmindustrie honderden miljoenen in renderfabrieken.
DX12 was ook zo een drama, nog veel games die gewoon beter op dx11 draaien.
Met de nadruk op 'was'. In mijn geval (RX 580) draaien vrijwel alle games die DX12 ondersteunen, daar ook beter op. De performancebump loopt zelfs op tot zo'n 25%.
Je hebt het nu over softe waren maar RT zit in voornamelijk in de hardware.

Wat ze hadden moeten doen is RT op de 10 titens moeten gooien. (of alleen de 2080TI RT geven) zodat devs aan de slag konden met RT, en dan de generatie daarna was RT een enigszins volwassen product.
RT werkt gewoon goed op de huidige kaarten, dit is gevalletje hardware dat voorop loopt op de software, zoals gebruikelijk. Kijk naar BF5, na een patch steeg de fps met 50%, zo simpel is het.

Het ligt haast nooit aan de hardware, maar aan de software.
Als ik mij niet vergis, dan heeft BF5 een patch gekregen zodat er minder te raytracen valt, niet zodat raytracing zelf beter werkt.
Volgens mij doet BF 5 voorlopig alleen nog RT reflecties. Heel veel RT zit er dus nog niet in, wat ook zwaar op de performance zal leunen mocht het komen.

Full Raytracing, met alle features kost gewoon veel performance. We zullen straks zien hoeveel, maar ik vermoed dat het niet mals zal zijn.

https://www.ign.com/artic...nchmarks-in-battlefield-5
Het is maar de vraag nog eigenlijk, huidige ray tracing titels (is er maar 1 haha) is nog niet erg geoptimaliseerd helaas.
De Unreal Engine support ook raytracing naast de Frostbite engine.

Niet echt een probleem van optimalisaties, er zijn niet echt shortcuts in de berekeningen te maken, dat doen we namelijk al sinds 3d gaming een ding is geworden. Ray Tracing is het daadwerkelijk berekenen van de paden die de lichtgolven/deeltjes door zo'n level heen gaan. Dit zijn immens zware berekeningen waar de huidige GPU's (en CPU's) gewoon veel en veel te zwak voor zijn. Niet een beetje te zwak, maar compleet outclassed.

We zijn nog lang niet zo ver dat Ray Tracing fatsoenlijk inzetbaar is zonder te prerenderen. Ik ben er een beetje verbaasd over dat genoeg mensen (ook op Tweakers) verwachtte dat die RTX kaartjes in 1 generatie even Unreal Engine 4 tech demo kwaliteit games op ons beeldscherm te voorschijn konden toveren.
Ales er standaard alleen ray traces geschoten worden op te reflecteren voorwerpen scheelt het al enorm en dat deed BFV standaard bijvoorbeeld niet, die paste het lettelrijk op elk voorwerp toe. Daarnaast kan er ook ngo gespeeld worden met lagere framerates voor de reflecties zelf en dan kan er met slimme algoritmes de tussenframes gerendered worden bijvoorbeeld. Er zijn zoveel oplossingen mogelijk om het sneller te maken.
Licht moet ook alle kanten op reflecteren en niet alleen naar het gezichtspunt van de speler. Anders wordt het al gauw weer onrealistisch. Er zit niet veel speelruimte in het feit dat je het moet renderen op dezelfde manier als dat in de echte wereld werkt, mensen merken -veel- te snel dat iets niet echt is.

Om het momenteel er nog 'echt' uit te laten zien in games of films. Moet zo'n enkele RTX kaart een boel uren stoken per frame.

Het is nu nog echt een trend om er tof mee te doen zonder dat we er veel mee opschieten.
https://www.youtube.com/watch?v=rf045VYP3z4
Dat is waar we heen willen.

En dat is wat technisch dus al mogelijk is sinds dat Unreal Engine 4 uit is gekomen. Er ontbreekt nu, net als destijds, gewoon nog het vermogen spul op deze kwaliteit te realtime te renderen. Zelfs de huidige realtime ray tracing techdemos van EPIC en Nvidia komen nog niet in de buurt van deze prerendered ray tracing tech demo.
https://www.youtube.com/watch?v=uy5jGzh8qf4

Het gaat de goede kant op, maar als je ziet wat er in 4 jaar bereikt is van prerender naar realtime, dan zie je dat er nog een lange weg te gaan is. De huidige verbeteringen zijn slechts incremental, zoals we al een paar generaties voort tuffen.

[Reactie gewijzigd door batjes op 23 juli 2024 08:54]

Heel mooi. Als ik weg kijk van een lichtreflexie net als op de gele stoel of de vloer met het buitenuitzicht zal het licht met mij mee gaan of afstand nemen afhankelijk van mijn kijkhoek.

Realisme in rendering is er nog lang niet. Er zijn (7 miljard ) x (2 ogen) x (100 miljard hersencellen) x (oneindig veel interpretaties) x (2080) x (2070) x (2060) x.
Het is nu nog echt een trend om er tof mee te doen zonder dat we er veel mee opschieten.
https://www.youtube.com/watch?v=rf045VYP3z4
Dat is waar we heen willen.

En dat is wat technisch dus al mogelijk is sinds dat Unreal Engine 4 uit is gekomen. Er ontbreekt nu, net als destijds, gewoon nog het vermogen spul op deze kwaliteit te realtime te renderen. Zelfs de huidige realtime ray tracing techdemos van EPIC en Nvidia komen nog niet in de buurt van deze prerendered ray tracing tech demo.
https://www.youtube.com/watch?v=uy5jGzh8qf4
Is dat eerste echt waar je heen wil? Nog maar bij het binnenkijken in de eerste kamer daar valt me meteen op dat de belichting van o.a de luchter gewoon... waar is die? Dat ding lijkt enorm te moeten reflecteren, zeker met zo'n lichtbron buiten. Doet het niet. Het voelt gewoon niet 'lekker'. Te artificieel. Teveel nood aan uiterst gedetailleerd precisiewerk om het goed te doen, en te gemakkelijk om iets te missen. Nee. Doe maar weg.
Ja, ziet er strak uit zo, maar een detail als wat ik net beschrijf is genoeg om iemand uit de immersie te trekken.

En ja, op je Real Time RT vs Pre-rendered RT ga ik niet eens antwoorden. Je weet zelf dat je zoiets niet moet gaan vergelijken.
Het is ook nog niet perfect. Maar de techdemos van de Unreal Engine 4 uit ~2015 zijn dusver zo'n beetje de beste beelden die een game engine dusver geproduceerd heeft. Deze demo is er 1 van (er waren er 3 oid dacht ik) en bij het zien van deze demos was het voor mij de eerste keer dat een game engine beelden tevoorschijn toverde waarbij ik soms twee keer moest kijken om te zien of iets echt of niet was. EPIC gaf ons toen een hapje van de toekomst waar we heen gaan.

Momenteel doet Nvidia een beetje alsof we dat soort beelden op onze schermen nu in realtime tevoorschijn kunnen toveren dankzij hun RTX lijn kaarten. Wat dus nog niet zo is. Waarom mag ik het niet vergelijken, Nvidia is degene die tof doet met ray tracing, terwijl dat dusver realtime niet bepaald nuttig is en nog een prerender techniek blijft.
Je ziet ray tracing verkeerd, denk ik.
Of ik zie het gewoon anders, alleszins:

Het is mij niet zo zeer te doen om het er "beter" uit te doen zien in de zin van "fotorealistisch" (ja, de shading enzo in de UE demo is best cool en mooi).
Voor mij is ray tracing iets wat de beelden (in game, in film, ... whatever) er "juister" gaat moeten laten uitzien.
Mooi voorbeeld vond ik de reflecties in de wagen in BFV.
Het "klopte" gewoon niet met screen-space reflections. Gooiden ze de RT eroverheen, werd de scene ineens een stuk "geloofwaardiger" (daarom niet per se "mooier". En dan hoeft het er echt niet quasi-fotorealistisch uit te zien, en die verwachting heb ik ook helemaal niet bij Ray Tracing.

Nee, inderdaad. Er is geen kat die ook maar ietwat geinteresseerd is in reflecties in oogballen. Heel hard waar. Maar met Ray tracing zie ik dingen als molotovs en in meer sci-fi achtige games, plasma grenades enz. - Het gaat er beter uitzien omdat het er "juister" uitziet. Niet omdat het er per se "mooier" uitziet.

En nee, vergelijken mag je dat niet.
Ook al doet nVidia volgens jouw alsof we "pre-rendered kwaliteit in real time" kunnen krijgen, de vergelijking gaat toch volledig mank?
Hoe is Real Time RT ook niet echt nuttig*?De laatste patches voor BFV hebben een flinke performance increase laten zien en ik ben ook vrij zeker dat de andere gamedevelopers heel hard aan het werken zijn om de performance goed te krijgen in SotTR en Hitman enz.

Wat is "nuttig"?
Kijk, de huidige reeks kaarten is voor de Early Adopters. Early Adopters zijn bereid stukken van hun ziel/lever/nieren te verkopen om het nieuwste van het nieuwste te hebben. Of ze verdienen bakken met geld zodat ze zich zoiets kunnen veroorloven.
Dat jij geen 1500 euro voor over hebt voor de "first gen RTX owner" bragging rights, is gewoon jouw goed recht. Maar de tech markt is zeer dankbaar voor de halve zolen die wel fortuinen over hebben om het nieuwste van het nieuwste te hebben. Want die betalen een heel groot stuk van de R&D kosten. En als gevolg daarvan, zorgen ze er dan indirect voor dat jij volgend jaar of het jaar erna een RTX kaart kan kopen die wel aan jouw verwachtingen voldoet.

[Reactie gewijzigd door Tokkes op 23 juli 2024 08:54]

Er is geneog speelruimte. Grote lvel secties veranderen nooit qua licht. Dit hoef je dan dus maar 1x te renderen bijvoorbeeld. Een hoop wordt nu sowieso gefaked dus een combi hiervan biedt alsnog een hoop extra fidelity zonder dat de performance cap te hoog wordt.

Dat het nie tin d ebuurt omt van een deftige prerender ben ik met je eens. Maar nu zie je in games steeds duidelijker de screen space limitaties omdat er steeds meer met reflecties gewerkt wordt.
Veel van dat soort oplossingen worden al toegepast. Een RTX kaart is eigenlijk niet snel genoeg om een plaatje van 1080p in 1 seconde te raytracen, laat staan in 1/30ste of 1/60ste.

Dus de shortcuts die jij voorstelt worden al breed ingezet. In dit filmpje kun je zien hoe iedere render pass eruit ziet zonder het denoising algorithme: https://www.youtube.com/watch?v=tjf-1BxpR9c

Zonder dat algoritme heb je een verdubbeling van rays nodig om de noise te halveren. Dus ongeveer 32x zoveel power nodig om tot (bijna) 1% noise te renderen. En dat is voor 1 pass (alleen AO, reflecties, of GI). Wil je alles tegelijk, dan moet je dat nog een paar keer bij elkaar optellen.

Ik ben dan ook veel meer onder de indruk van het AI denoising algoritme op de Turing cores dan de ruwe rekenkract van de RT cores.
Als het zo minimaal is waarom dan zo'n kaart uitbrengen?laat staan kopen?zijn mensen dan echt zo naïef/achtelijk?

De duurste kaart van boven 1300 euro trekt het ook niet?

Dus waarom komt nvid met deze ontwerp?
De pc is trekt het niet en is niet ready ervoor.

Vind het het echt geld verspilling!!!
Kip en ei.

Als er geen kaarten zijn om het te draaien wordt het nooit geïmplementeerd en vise versa :).

Overigens is je informatiebron wat verouderd, nieuwe updates maken 1440p met 60-80FPS speelbaar in BF5.

En waarom komen ze hier mee? Alle ervaring die ze nu opdoen geeft ze een potentiële voorsprong in de toekomst (als raytracing de richting is waar het naar toe gaat, waar het nu tenminste voor de komende tijd wel op lijkt).

Reactie op hieronder:
Dat is voor iedereen persoonlijk.Voor de een is het peanuts, voor de meerderheid is het veel geld.

[Reactie gewijzigd door Epsilon op 23 juli 2024 08:54]

Uhu en dat is jouw 1300/1400 euro waard?
Het gaat nergens over.
Zoiets als deze kaart is echt to much money!(2080)
err, de 2080's gaan voor 7-800... 2080Ti's gaan voor (hier op Amazon.co.uk, de goedkoopste) 1150 Pond.

Gekken genoeg die meer hebben betaald voor een Titan die 6-9 maand later weer werd ingehaald door een nieuwe kaart.
Omdat het ontwerp nieuw is, en de eerste iteratie van een compleet nieuw product is meestal (lees: bijna altijd) nog niet optimaal, enerzijds omdat het bedrijf zelf er nog beter in moet worden, anderzijds omdat de software er niet voor geschreven is, en al zeker niet geoptimaliseerd.

Maar als je er niet mee komt, wordt er ook geen software voor geschreven/geoptimaliseerd en stagneert de vooruitgang, en dat is ook onwenselijk.
Nieuw product of software moet gewoon presteren/werken en niet (komt wel goed).er zijn teweinig games voor deze dure onzin das punt 1.
Jij koopt toch ook geen kreupele auto of krijg je flintstone ideeën?.
Zoveel ervan is er nog niet toegepast hoor hiervan. BF5 deed in eerste isntantie raytracing over het gehele scherm, Die video laat helemaal niks zien over hoe de Frostbite engine het afhandelde.

Nu doen ze wel meer localized raytracing op alleen te reflecteren oppervlakten maar nogsteeds niet ideaal. Naast er is meer aan raytracing dan alleen reflecties, mar ook global illumination etc en daar is ook nog winst te halen.Een hoop van het licht hoeft bijvoorbeeld maar 1x gerendered te worden.
Alles reflecteert licht, anders kun je het niet zien. Raytracing gebruik je voor natuurlijke materiaal uitdrukking. Als je alleen glas, water en hoogglans oppervlaktes doet is het half bakken, alsof je lens flares toevoegt om iets meer bling te maken. JUIST de NIET hoog glanzende vlakken laten oplichten/reflecteren maken het meer immersive.
Elke nieuwe techniek valt te optimaliseren, dat zal hier ook echt wel mee gebeuren. Maar hoe dan ook is de RTX hardware of flink onder de maat, of veel te vroeg gelanceerd (of beide... ;( ). Zelfs het allersnelste product (2080 Ti) kan geen acceptabele framerates op acceptabele resoluties neer zetten.

In die zin vind ik het helaas een vaporware product, zeker als je ook de prijs mee rekent.

Als Nvidia de prijzen gelijk had gehouden met de vorige generatie (bij lancering) dan was het een ander verhaal. Dan was dit nu een generatie waarmee de markt werd voorbereid en een lange termijn investering van Nvidia. Maar om de nieuwe techniek nu direct zo zwaar door te berekenen, zonder dat je er in de praktijk heel veel mee kan, is een foute keus. Zeker aangezien ze geen alternatief bieden zonder Raytracing, maar wel met de sneller traditionele (rasterization) performance.
Helemaal met je eens!
Een mening die goed uitgedrukt in de halvering van de beurswaarde van Nvidia.

https://www.techspot.com/...value-softbank-looks.html
Er is wel degelijk optimalisaties te doen, door bv nog beter te kijken naar welke objecten wel/niet interessant zijn om te raytracen en bv door minder traces te doen maar misschien verder verspreid wat mogelijk een visueel vergelijkbaar resultaat kan geven. Vaak is de eerste implementatie in de drivers/engines een redelijke grove implementatie, eerst maar kijken of we het uberhaupt aan de praat krijgen en wat visueels moois er mee kunnen doen, en daarna kijken hoe we de boel kunnen optimaliseren en de hardware nog beter kunnen gebruiken... Dat is bv ook de reden waarom je bij consoles vaak tegen het einde van hun levensduur zoveel mooier uitziende/draaiende games hebt dan aan het begin.. Alleen bij consoles hebben ze dan het voordeel dat het echt zin heeft om op de hardware te optimaliseren, bij GPU's voor PC's wordt dat al een stuk minder vanwege de ontelbare configuraties.
unrealed4.x engine vergt niet veel poespas voor de videokaart ,je kunt natuurlijk alles op low zetten en ook dan zien die graphics er best nog goed uit.Dat is het voordeel van de unreal engine.
raytracing bestaat al best lang,en de truk wat het meeste werk geeft is het berekenen van de licht inval of een schittering in een chrome of spiegel reflectie.Ik kan me nog herinneren dat ik met mijn vrienden uren zaten te wachten voordat alles fatsoenlijk gerenderd was.En dat alles na de render fatsoenlijk alles kon afspelen.
RTX is niet alleen raytraycing, maar ook de Hardware AI o.a. en daarmee DLSS.

Raytracing, lijkt nu nog niet veel, afhankelijk van resolutie en de minieme software die er nu is.
Wie weet wat de er nog komt.

Dit is nu een betere instap, als er een degelijk % RTX kaarten is zal het ook interessanter worden voor de games.
Om nog maar niet te spreken van alle shader varianten die een behoorlijke performance boost kunnen leveren. En de integer en floatingpoint pipelines worden apart berekend, wat ook weer een bak scheelt. Alleen is alles nog niet geoptimaliseerd. Het is ook niet alleen de TR die geopitmaliseerd moet worden. Als deze zaken worden bijgetrokken (en idd DLSS), dan blijft er ook meer overhead voor RT.

Dit gaat een heel leuk jaar worden wat betreft hardware. Ik denk dat we zelfs nog best een leuke RTX 2050 tegenmoet kunnen zien.
Nvidia bakt gewoon 1 grote chip met daarop de RT cores. De afgedankte chips die bepaalde validatie niet haalde komen in lagere modellen. Dat is wat je hier ziet.
Ik denk dat je niet begrijpt wat raytracing inhoud, en waarom het zo zwaar is. nVidia heeft een behoorlijk staaltje vakmanschap getoond, wat weinigen weten te waarderen, mede door desinformatie.

Raytracing = Physics of light, de heilige graal onder lichtberekeningen en fotorealistisch gamen. Van alle 'physics' in een game (ragg-doll/fluid/gasses/smoke/wind en dus licht) is licht verreweg het moeilijkst en zwaarst. In de filmindustrie wordt raytracing al jaren gebruikt, alleen niet 'realtime'. Hele renderfarms in Hollywood staan uren op een frame te renderen, en dat zal voorlopig nog wel zo blijven. Met de RT en Tensor cores op de RTX kaarten is het nu voor het eerst mogelijk om een stukje van een game in realtime te raytracen.

Hoe goed de RTX kaarten daarin eigenlijk zijn kan je je bijna niet voorstellen. Om een indicatie te geven, de 'Star Wars Unreal Engine Raytracing demo' draaide met moeite op een nVidia DXG systeem met 4(!) Titan V's, Dat is al snel 50.000 euro aan hardware, en 14000 euro aan GPU power, zie: https://arstechnica.com/g...time-raytracing-can-look/ Dezelfde demo draait prima op een enkele RTX2080Ti... Dat is nog eens vooruitgang, toch?

Natuurlijk mag je zeuren over de flink aanschafprijs, en of het wel zin heeft om nu zo'n kaart te kopen is ook nog een puntje van discussie. Kijk eens naar de introductie van Tesselation, hoe zwaar dat was, en hoe ingeburgerd het nu is, en nauwelijks performance impact heeft. Die weg gaat Raytracing de komende jaren ook afleggen, hoe meer wel er in investeren, hoe sneller het 'gemeengoed' wordt.. en dat mag je best aan de early adopters overlaten.
Een 1060 verwacht je ook geen ultra settings van, hop battlefield V tests zijn op 1440P op Ultra settings, de 2060 is er vast meer voor 1080p op medium/high settings.

Wat ikzelf triester vind is dat er 6 verschillende versies worden uitgebracht met 3,4 of 6GB geheugen en in de versies GDDR5 en GDDR6.
Gigabyte bijv, komt totaal met 40 verschillende versies van de RTX 2060 en het is de verwachting dat anndere fabrikanten hetzelfde doen.
Er komt dus een enorme hoeveelheid vaan RTX2060 kaarten aan die eigenlijk al met al niet eens zo heel veel van elkaar zullen verschillen, paar FPS meer of minder maar ook weer niet zoveel meer dat de 2070 in gevaar komt.
Eigenlijk triest on dit RTX naamgeving te geven, een 2070 heeft niet eens genoeg power voor RTX op een fatsoenlijke resolutie.
Het is nog even afwachten in welke mate DLSS en andere 'ai' zaken aan slaan. Om Nvidia te quoten:
The NVIDIA RTX platform fuses ray tracing, deep learning and rasterization to fundamentally transform the creative process for content creators and developers through the NVIDIA Turing GPU architecture and support for industry leading tools and APIs.
Applications built on the RTX platform bring the power of real-time photorealistic rendering and AI-enhanced graphics, video and image processing, to enable millions of designers and artists to create amazing content in a completely new way.

The RTX platform provides software APIs and SDKs running on advanced hardware to provide solutions capable of accelerating and enhancing graphics, photos, imaging and video processing. These include:
Ray Tracing (OptiX, Microsoft DXR, Vulkan)
AI-Accelerated Features (NGX)
Rasterization (Advanced Shaders)
Simulation (CUDA 10, PhysX, Flex)
Asset Interchange Formats (USD, MDL)
Eerder deze week bleek uit registraties van Gigabyte dat er waarschijnlijk RTX 2060-versies met 3GB, 4GB en 6GB komen. Ook komen er varianten met gddr6 en gddr5 of gddr5x.
Way to go Nvidia. Tig varianten van één kaart, om nog maar niet te spreken van de verschillende varianten waar third party vervolgens weer mee komt. Eigenlijk ook belachelijk dat ze met een 3GB en 4GB variant komen. De 1060 3GB is het nu al net niet eigenlijk. Hoe haal je het dan in je hoofd om de opvolger ook met 3GB uit te rusten én nog een 4GB variant uit te brengen?

Hou het gewoon simpel:
- 2050 4GB
- 2060 6GB
- 2070 (ti) 8GB
- 2080 (ti) 11GB

Vier kaarten waarvan de duurste twee een snellere Ti-variant hebben. Veel beter dan de clusterfuck die eraan zit te komen. Diverse varianten van de 2060 en vervolgens ook nog een 11-serie die alles waarschijnlijk nog eens dunnetjes over doet. Lekker verwarrend allemaal.
Inderdaad, 2 jaar geleden bleek al dat 4GB eigenlijk het minimum is wat je moet hebben. Zie o.a. de laatste regel in de conclusie op reviews: Nvidia Geforce GTX 1050 (Ti): gamen voor weinig "... maar in onze benchmarks bleek 2GB niet altijd genoeg te zijn, waarmee de 30 euro meer voor een 1050 Ti een goede investering lijkt te zijn."

Nu, 2 jaar later, en omdat de 6GB al gemeengoed is bij de GTX 1060, zul je daar als Nvidia niet meer onder moeten produceren. En wat doen ze, ze gooien tussen de 3GB en 6GB zelfs nog een langzamere 4GB versie. Ik vind het een mooi rijtje wat je daar neerzet, zo zou het inderdaad moeten zijn.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 08:54]

Dat ligt zeer sterk aan het gebruiksscenario. Sommige titels hebben op 1080p meer dan zat aan 3gb. Denk aan esports titels waar hoge framerates dan weer wel heel belangrijk zijn. Deze kaarten kunnen daar dan in voorzien voor een lagere prijs dan de 6gb modellen. Er zal zeker een markt voor zijn. En keuze is altijd goed.
Voor esports koop je over het algemeen geen 1060 ;)
Bovendien kun je dan ook net die drie tientjes meer neertellen, anders is een 1050 prima. Maar een 1060 met 3GB is onnodig bottlenecken.
Als ik overwatch wil spelen op high settings 1080p met 120fps heb ik wel een 1060 nodig maar zeker geen 6gb vram als dat het enige is wat ik met m'n pc wil doen.
Als je op hoge settings op 120 wilt spelen, zou ik sowieso een paar tientjes meer uitgeven voor de 6GB. Deze heeft namelijk niet alleen het dubbele geheugen als voordeel. De 3GB is over het algemeen een budget versie van de 1060, niet alleen betreft het geheugen. Heb al meerdere reviewers horen zeggen dat dit eigenlijk de 1050Ti had moeten zijn.

Maar goed, als we het over esports hebben, zit Overwatch wel direct aan de bovenkant van het spectrum wat betreft systeemeisen. ;)
Nu, 2 jaar later, en omdat de 6GB al gemeengoed is bij de GTX 1060, zul je daar als Nvidia niet meer onder moeten produceren.
Voor wie dan?
Kan mij prima voorstellen dat voor gros van gebruikers minder dan 6GB voldoende is in een grafische kaart.

Daarnaast ben ik het er verder wel mee eens dat het er niet duidelijker op wordt zo, maar op Marketing/Sales vlak is dit natuurlijk veel slimmer. Het wordt zo gemakkelijker om (veel) hogere prijzen te vragen voor nagenoeg dezelfde hardware, en de meesten zullen toch al niet voor instap model gaan en die extra 30€ (uit voorbeeld) voor een kaart neertellen.

Bah, kapitalisme/marktwerking :+

edit: woordje te veel

[Reactie gewijzigd door Lukosje op 23 juli 2024 08:54]

Nou ja, die test wijst uit dat 4GB toch wel het minimum is. En je gaat mij niet wijsmaken dat je (als Tweaker of digibeet) op een kaart van 200-300 euro niet 2 of 3 tientjes extra lapt voor een verdubbeling van je geheugen. Er zijn er zelfs die liever de 1050 Ti 4GB kochten dan de 1060 3GB, simpelweg omdat ze dachten dat meer geheugen belangrijker was. Maar goed, ik ga hier verder geen tijd aan verspelen, mijn Zotac 1060 6GB wordt 2 januari bezorgd. :) Ik ga niet wachten en het dubbele betalen voor een nieuwe 2060, de mijne kostte slechts 218 euro incl verzending via Amazon.de. :)
. Maar goed, ik ga hier verder geen tijd aan verspelen, mijn Zotac 1060 6GB wordt 2 januari bezorgd. :) Ik ga niet wachten en het dubbele betalen voor een nieuwe 2060, de mijne kostte slechts 218 euro incl verzending via Amazon.de. :)
Laatste geruchten zijn dat de RTX 2060 de 1070 ti evenaart qua performance. De MSRP (adviesprijs) zou op 350 dollar ipv 449 dollar liggen. Dus 100 dollar goedkoper dan de 1070 Ti nu is. In euro's zit die momenteel rond de 450 euro. Maar goed, ik kan natuurlijk niet in jouw portemonnee kijken, duurder dan 218 euro zal het voorlopig ongetwijfeld zijn. Wie 1070 prestaties went kan beter wel even wachten. Zelf zou ik dat overigens wel even afwachten aangezien ik een 1070 sinds 2016 heb en er steeds meer games komen waarbij de 1070 duidelijk de bottleneck is.
Ik snap zelf ook niet waarom er nog 3 en 4GB modellen worden uitgebracht. Als ik naar moderne games kijk, zit ik standaard over de 5GB. Ook de GTX1060 3GB krijgt gewoon een flinke performance klap (ook door de mindere en lagere geklokte chip) terwijl je voor 2 a 3 tientjes meer de 6GB variant hebt. Ik snap dat ze geld willen verdienen, maar onder de 6GB ben je in mijn ogen de klant aan het belazeren.

En inderdaad, helemaal gelijk, het geugen hoort gewoon te passen bij de chip. En daarvoor SomerenV gewoon precies het goede lijstje op. Hoewel ik de 2070Ti liever op 10 of 12GB zou zien.
Inderdaad, 2 jaar geleden bleek al dat 4GB eigenlijk het minimum is wat je moet hebben. Zie o.a. de laatste regel in de conclusie op reviews: Nvidia Geforce GTX 1050 (Ti): gamen voor weinig "... maar in onze benchmarks bleek 2GB niet altijd genoeg te zijn, waarmee de 30 euro meer voor een 1050 Ti een goede investering lijkt te zijn."

Nu, 2 jaar later, en omdat de 6GB al gemeengoed is bij de GTX 1060, zul je daar als Nvidia niet meer onder moeten produceren. En wat doen ze, ze gooien tussen de 3GB en 6GB zelfs nog een langzamere 4GB versie. Ik vind het een mooi rijtje wat je daar neerzet, zo zou het inderdaad moeten zijn.
Dat is toch niet hoe logisch redeneren werkt. Als iemand stelt, los van of dat klopt, dat 2 GB niet voldoende is en 4 GB wel voldoende is dan zegt dat helemaal niets over 3 GB. Het kan prima zijn dat 2.2 GB ook voldoende is, of dat het keerpunt pas bij 3.9 GB zit

Verder is het geheugen gebruik voor ieder leek tegenwoordig prima op te vragen. Waar je vroeger tools als MSI Afterburner (EVGA precision, enz) nodig had om het VRAM gebruik uit te lezen kun je sinds Windows 8 bij taakbeheer op elk moment zien hoeveel GPU geheugen er wordt gebruikt. Druk op ctrl+shift+escape en ga dan naar GPU 0 en daar zie je dedicated GPU memory netjes staan. Momenteel staat daar bij mij 0.5/8GB. Ik geloof niet dat ik het ooit boven de 6GB heb gezien (ultra textures).

Daarnaast zijn er ook steeds meer games die bij het instellingen menu al een schatting geven van het benodigde geheugen. Ga maar eens spelen met zo'n game (GTA V, Rainbow six Siege, enz) en je zult zien dat het vooral de texture details zijn die het grootste deel van het geheugen vullen. Dat betekend automatisch dat je eigenlijk anno 2018 nog perfect met een 3 GB kaart over weg kunt, zo lang je maar de texture details zo instelt dat je nooit geheugen te kort komt. In een heel veeleisende game zou je dan best eens naar medium textures terug kunnen vallen. Of dat dan het prijsverschil waard is blijft een persoonlijke keuze, maar er is prima mee te werken.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 08:54]

2060 3gb kunnen ze in kant en klare systeem stoppen en aan jouw verkopen als "game pc". Zie winkels als media markt. Mensen die dat kopen weten de verschillen toch niet.
Als hij een beetje in de buurt komt van een 1070 zal het een meer dan prima kaart zijn voor de meeste gebruikers, zelfs leken. Alleen de 3GB is licht beperkend, maar niet zo verschrikkelijk.
Ik denk dat hij er precies tussen in gaat zitten. 1440p op medium.
Hoe hoger de resolutie en grafische intellingen hoe zwaarder de 3GB gaat wegen. En ik denk dat de 3GB een grote hinder is.
Kaarten zoals een 780 of een 970 komen nog prima mee op 1080p/60Hz, zelfs met de beperkte hoeveelheid geheugen die erop zit. Ik denk dat "grote hinder" erg overdreven is voor de doelgroep van deze kaart.
Ik ben met je eens dat ze eigenlijk alleen een 6GB (of meer) versie uit zouden moeten brengen en ook maar met 1 variant aan geheugen. De markt overspoelen met teveel verschillende modellen is ook niet goed, mensen weten dan niet meer wat ze kopen en denken, oh ik heb toch een 2060, dus die moet wel goed zijn, maar dan blijkt het dus een 2060/3GB/gddr5 te zijn ipv de 2060/6GB/gddr6 die vele malen sneller zal zijn.
Tja, misschien had nVidia het nog beter aan moeten pakken, gewoon alleen 2080 Ti, niks meer, anders wordt het maar verwarrend, en keuzevrijheid is overrated.
Lijken meer op renders dan op foto's ?
True, aangepast :)
En wat is het verschil tussen de AMP en Twin Fan?
Zo te zien hebben ze beide een "twin fan"
Zal wel zoiets zijn als dat de "twin fan" stock snelheden draait en de AMP een OC vanuit Zotac meekrijgt oid.
Dit moet de melkkoe voor Nvidia gaan worden net zoals de 1060 was bij de vorige generatie. Zou erg dom zijn wanneer ze deze kaart te hoog geprijsd in de markt zouden zetten. Als ze hem duurder maken dan 350 euro is het een verloren zaak. Dan word het simpelweg te duur voor de mid-range gamer. Zeker gezien de Ray-trace functies waarschijnlijk zinloos worden als ze er überhaupt al opzitten.
Ray tracing is ook niet bedoeld voor de mid-range gamer, die hebben geen geld voor dat soort zaken, die kunnen lekker met de 1160 aan de slag.
Zo verwarrend is het allemaal niet hoor, een uurtje research en je bent helemaal op de hoogte welke modellen er zijn, wat de verschillen zijn en wat je persoonlijk nodig hebt. Er is zoiets als teveel keuze, maar 3 verschillende varianten van 1 model is naar mijn mening positief als de prijsverschillen gunstig zijn.
Een 2060 met 3GB die ook nog eens ray tracing kan weergeven. Wordt genieten met 1 frame per seconde... |:( 8)7
$350 (€305,92 wisselkoers) Dat is al gauw €350,- met BTW en dat is te duur voor een midrange kaart (vroeger waren deze midrange kaarten al gauw rond de €250) waar vroeger juist al High-End mogelijkheden had vanaf €350 bijvoorbeeld de Radeon R9 290-reeks als voorbeeld genomen.

Zelfs de goedkoopste RTX 2060 (prijsklassen GTX 1070) is niet echt goedkoop

Op dit item kan niet meer gereageerd worden.