Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Nvidia gaat GeForce GTX 1660 Ti met 1536 cores en gddr6 uitbrengen

Nvidia heeft een GeForce GTX 1660 Ti-videokaart op de planning, volgens geruchten. De kaart zou 1536 cuda-cores krijgen en met gddr6-vram uitgerust worden. Het gaat om een GTX-kaart, dus zonder ondersteuning voor ray-tracing.

Het gerucht is afkomstig van Videocardz, dat vaak correct informatie over nog onaangekondigde videokaarten publiceert. De site beroept zich op twee bronnen en publiceert een marketingafbeelding met de naam, die overigens nog niet zeker zou zijn.

De GeForce GTX 1660 Ti zou de eerste videokaart met Turing-gpu zijn die Nvidia onder de GTX-vlag uitbrengt. Die gpu zou de TU116 zijn, met 1536 cuda-cores, waar bijvoorbeeld de RTX 2060 de TU106 met 1920 cores ingeschakeld heeft. Volgens de bronnen van Videocardz krijgt de GTX 1660 geen gddr5 of gddr5x, maar gddr6 en is de geheugeninterface 192 bits breed.

Hoewel de site geen releasedatum weet, gaat die ervan uit dat Nvidia deze uitbrengt als de GTX 1060 van de markt verdwenen is, wat niet lang meer zou duren. Er gaan al langer geruchten dat Nvidia met een GTX 1xxx-serie naast de nieuwe RTX 20-modellen komt; eerder werden daarbij de namen GTX 1660 Ti en GTX 1160 genoemd.

Door Olaf van Miltenburg

Nieuwscoördinator

17-01-2019 • 20:29

112 Linkedin Google+

Reacties (112)

Wijzig sortering
Ik snap de RTX2060 ook niet echt. Een kaart gericht op een bepaalde nieuwe techniek terwijl hij eigenlijk (net) niet snel genoeg is voor die techniek. Nvidia had eigenlijk gewoon één RTX-kaart uit moeten brengen. Het paradepaardje met ondersteuning voor de nieuwste grafische technologie van Nvidia.

Helpt ook niet echt mee dat de kaarten inmiddels ~5 maanden uit zijn maar dat er vooralsnog maar één game is die raytracing ondersteunt. Het is echt eeuwig zonde dat AMD momenteel geen goede concurrentie kan bieden. Ze hebben wel goede kaarten, maar geen nieuw high end spul. Nvidia heeft het met hun 20-serie wat mij betreft verprutst. Te vroeg, te duur en nagenoeg geen ondersteuning. De GTX1160 lijkt hun fout ook te onderstrepen. 20-serie is niet populair genoeg om bovengenoemde redenen dus brengen ze maar een non-RTX variant uit die gewoon doet wat ie moet doen zonder fancy features waar je niks aan hebt.
Ik moet zeggen dat het een gedurfde actie is van Nvidia om realtime ray tracing te ondersteunen.
Natuurlijk is dat in het begin nog erg buggie, niet snel en eigenlijk nog helemaal niet toepasbaar. iig voor nu. Want je ziet dat BF5 grote stappen heeft gemaakt in het optimaliseren van de techniek, samen met nvidia medewerkers proberen ze het echt aan de man te brengen.
Zelf kan ik hier als liefhebber alleen maar blij van worden.
Echter is de RTX line-up veel te duur en zijn er naast BF 5 helemaal geen games die Ray tracing ondersteunen en zelfs geen DLSS. Alle nieuwe features die met veel tamtam zijn gehyped zijn nog niet beschikbaar (op BF5 na...). Dat rechtvaardigt die premium price helemaal niet.

Wat dan overblijft is een opvolger van een twee jaar oudere kaart. Natuurlijk verwacht je dan een betere performance, maar als je sec naar de cuda core optimalisatie kijkt blijkt die ontwikkeling helemaal niet zo groot te zijn. Pascal is door gebrek aan concurrentie nog steeds erg goed en dat is een voordeel van Nvidia dat ze nu uitbuiten.

[Reactie gewijzigd door TheTeek op 17 januari 2019 21:21]

Even een paar punten om de RTX releases in perspectief te zetten:

1) Real Time Ray Tracing support komt niet van de grond als niemand hardware maakt die het ondersteunt. Het is dus best moedig van NVIDIA om de RTX serie op de markt te zetten. Als NVIDIA een 1100 serie had gemaakt met CUDA cores op de plaats van de Tensor en RT cores dan hadden we nu kaarten gehad die waarschijnlijk minstens 2x zo snel waren geweest voor traditionele rasterization, maar wat schieten we daar nu echt mee op op de lange termijn? Alle gamedevs zien in dat de hoeveelheid werk die nodig is om traditionele rasterization te verbeteren exponentieel aan het toenemen is, wat een onhoudbare situatie is.
2) RTX heeft tot gevolg dat de GPU qua oppervlak groter geworden is, grotere chips zijn over het algemeen duurder te produceren (grotere kans op uitval tijdens productie, minder chips per wafer dus hogere overhead). Daarnaast is GDDR6 nieuw en dus ook duurder (productie is nog niet efficiënt als de vorige generatie en dus zijn de kosten hoger). Dit alles draagt bij tot een hogere prijs voor de consument.
3) Pascal was een onverwacht betere GPU dan Maxwell. De performance boost van Pascal t.o.v Maxwell was beter dan die van Maxwell t.o.v. Kepler. Turing t.o.v. Pascal is meer in lijn van M vs K. De verwachtingen waren dus overspannen voor de RTX serie.
4) Het implementeren van een fundamenteel ander rendering mechanisme kost tijd. Developers hebben nog niet zo lang de beschikking gehad over RTX technologie (of DXR, wat ze eigenlijk gebruiken onder Windows). NVIDIA heeft gewed op Battlefield 5 als partner gezien het succes van de vorige delen in de Battlefield reeks om deze technologie snel geïmplementeerd te krijgen. Dat is niet zo goed gegaan als ze gehoopt hadden. Hopelijk komt in de loop van dit jaar meer RTX ondersteunende content beschikbaar waar Ray Tracing zijn sterke kanten kan laten zien.
Mijn kijk op RTX....

1) RTX is een afterthought. Nvidia had een Titan Volta met tensor cores, en RT is interessant voor hun Quadro lijn (dáár biedt het grote voordelen voor content creators en is het realtime aspect helemaal zo boeiend niet, maar hogere snelheid in je workflow wel). Geforce bungelt daar onderaan ergens omdat je daar inderdaad ook wel iets zou kunnen doen met RT. De enige reden dat Turing Geforce kaarten bestaan is omdat er een Quadro lijn bestaat waar ook minder functionele dies uit komen.

Daarom was er ook bijna geen content bij de launch. En het is helemaal niet gezegd dat er nu enorm veel content gaat komen - vooralsnog is de lijst met aankondigingen vrij armzalig. De enige game met DLSS wordt niet meer doorontwikkeld en de enige game met DXR speelt iedereen zonder, want het is online multiplayer.

'It just works'...? Volgens mij niet.

2) RTX gaat nooit lekker schalen. We hebben voorlopig alleen nog maar zicht op een shrink naar 7nm. Daarna? Niemand weet het eigenlijk echt. Er ligt een bult opties op de plank om kleiner te gaan, maar ik vraag me sterk af of dat voor consumenten nog economisch haalbaar is. Iemand moet mij nog eens uitleggen hoe dat zich verhoudt tot het verspillen van 20-30% van je die space aan RTX.

3) Consoles gaan (nog) niet mee. AMD heeft mbt Navi nog niets laten horen over RT maar David Wang heeft wel gezegd dat ze er pas iets mee gaan doen als het werkbaar is van low- tot high-end GPUs. Tegelijkertijd is Navi nog een groot vraagteken en Radeon VII is een Vega shrink, nergens is een nieuwe GCN-iteratie op de radar mét RT hardware. Kortom: ergens in de pruimentijd. Daarmee is massa-adoptie er simpelweg niet. PC gaming gaat deze kar echt niet trekken, en zéker niet met een kleine selectie overpriced RTX kaartjes die voor juist high-end gamers niet interessant is, want die hadden al een vrijwel gelijk presterende Pascal kaart.

4) Als je nu developer bent, to RT or not to RT? Het perspectief is dit: je verdient er nul euro aan, het kost je extra dev tijd en inspanning, en je doet het voor een minimale niche in de PC gaming markt, terwijl consoles niets met je code kunnen. Zeg het maar :)

5) Wij, gamers, helpen onszelf helemaal niet door RTX als geweldige ontwikkeling te bestempelen. GPUs worden simpelweg te duur en er was een goede reden om dingen rasterized te doen. Efficientie is en was altijd het sleutelwoord om realisme te benaderen. En nu, aan het eind van onze node shrinks, gaan we alles maar even brute forcen?! Het slaat als een lul op een drumstel.

6) De enige reden dat Nvidia nú Turing pusht is deze: de midrange kan de meest gangbare resolutie op volle kracht prima aan, dus er was een nieuwe incentive nodig om mensen te laten upgraden. Hogere resoluties zijn ook eindig. Wat is er dan beter dan een nieuwe, slecht te controleren trucendoos waar je prachtige marketing omheen bouwt en waarin je 'prestatie' herdefinieert? Shareholders' dream toch? Weg met die lineaire prestatiewinst, we maken het totaal abstract en zo kunnen we weer járen door met nagenoeg dezelfde hardware.

Ik trap er niet in. Ze kunnen RTX steken waar de zon niet schijnt. En.. gedurfd? Kom op, we krijgen de restjes van een Titan Volta en Quadro lijn. Meer is het niet. Nvidia nam zelfs niet de moeite om wat meer content te produceren voor de launch. RTRT moet opboksen tegen vergevorderde screenspace reflecties en doorontwikkelde licht- en schaduw technieken, die ook nog eens vrij goedkoop zijn en breed worden ondersteund. De kwaliteit van RTRT moet hoog zijn omdat het verschil anders niet noemenswaardig is. En tegelijkertijd moet de prijs omlaag. Succes ermee ;)

En dan is er nog DLSS. Die is helemaal mooi. Een slechte vorm van downscale vanuit een hogere resolutie met 'free performance'... met blur, artifacts en allerlei inconsistenties én implementatie per game, terwijl normale AA overal werkt. Ook dat kun je rustig links laten liggen.

[Reactie gewijzigd door Vayra op 18 januari 2019 13:26]

Helemaal mee eens, maar AMD staat mss toch iets verder als je denkt met RTRT ontwikkeling:
https://www.overclock3d.n...ing_gpus_in_development/1
https://www.pcworld.com/a...en-raytracing-radeon.html
https://www.golem.de/news...fikmenue-1803-133464.html

[Reactie gewijzigd door Clukers op 18 januari 2019 13:42]

Wie weet, bij AMD is het pas realiteit als er hardware in de schappen ligt - en goed beschikbare hardware, ook. We weten dat dat bij de GPUs nogal wat moeite kost de laatste jaren ;)

Maar goed, in het artikel staat eigenlijk hetzelfde: pas als de consoles mee komen, wordt het interessant. Dit gaat rustig nog een jaar of 2-3 duren. En dan begint het pas.

[Reactie gewijzigd door Vayra op 18 januari 2019 13:45]

Mijn response:

1) RTX is geen afterthought. NVIDIA gaat echt geen geld investeren in kaarten die ze niet kunnen verkopen. Dan was een 1100 serie strategie zinniger geweest. RTX is waar NVIDIA heen wil voor gaming. En aangezien Microsoft DXR gemaakt heeft en ook AMD ervoor wil gaan lijken ze niet de enigen te zijn die realtime raytracing als toekomstig groeipad voor graphics tech zien. BTW er zijn meer spellen in ontwikkeling die DLSS gaan ondersteunen dan Final Fantasy XV. Bijvoorbeeld Anthem heeft aangekondigd DLSS te gaan ondersteunen en ze zijn niet de enigen.

2) Hoe RTX schaalt is iets waar NVIDIA waarschijnlijk meer zicht op heeft dan iemand die hier op tweakers commentaar geeft (ik neem mezelf hier ook in mee). RTX is een combinatie van CUDA cores (voor ray berekeningen) en RT cores (voor BHV acceleratie). Hoever NVIDIA dit kan opschalen of zelfs verbeteren zullen we in de toekomst zien.

3) Consoles lopen traditioneel minstens twee generaties achter op de mainstream PC graphics capabilities. Dat komt omdat console bouwers niet de latest en greatest willen hebben omdat daar een navenant hoog kostenplaatje aan hangt. Wat de volgende generatie consoles zullen zijn en welke mogelijkheden die zullen bieden is nog niet duidelijk, maar verwacht niet dat die op het niveau van de vorige generatie top end GPU zullen zitten, verwacht eerder low tot midrange.

4) NVIDIA zal zeker met budgetten en assistentie bij de developers aankomen om ervoor te zorgen dat zij DXR/RTX gaan ondersteunen, zeker in de aanloopfase. Zij hebben er belang bij dat deze technologie breed gedragen gaat worden. Ze zullen dat zeker niet voor iedere developer doen, maar voor grote titels zeker. Als RTX/DXR eenmaal een bepaalde kritische massa heeft bereikt in install base, dan zullen kleinere developers er zeker ook naar gaan kijken. Dat dit even gaat duren moet denk ik duidelijk zijn voor iedereen.

5) Gamers hoeven helemaal niet mee te gaan met producten die zij te duur vinden. Ik snap het soort mensen niet die altijd de latest en greatest moeten hebben, maar continue lopen te zeuren over de kosten. Doe dan langer met je bestaande kaart of koop een lower level kaart.

6) Prima, als het je de moeite niet waard lijkt, schaf het niet aan. Niemand dwingt je om te upgraden naar de RTX 2000 serie. Koop dan een GTX 1000 serie kaart als je die nog niet hebt. En als je die al wel hebt dan hou hem nog een tijdje langer. Of ga naar AMD. Jeminee, het klinkt of NVIDIA je persoonlijk leed aangedaan heeft met de RTX serie. It's just a GPU!
Ik vind er niets gedurft aan eigenlijk, alle fanboys roepen dat raytracing fantastisch is, het is gewoon onderdeel van de marketingmachine. Ondertussen heb je er nog geen zak aan, maar het verkoopt.

Anders konden ze net zo goed 1 nieuwe kaart uitbrengen, wat ze eigenlijk ook doen, want de rest kun je vrijwel tegen de oude generatie wegstrepen.

[Reactie gewijzigd door hrichard op 17 januari 2019 21:25]

precies wat ik zeg, je hebt er nog niets aan, maar dat het een mooie ontwikkeling is durf je toch niet te ontkennen.
Afgezien van de prijs is het een heel toffe ontwikkeling.
Ik ben geen fanboy overigens, bezit nu zelfs een RX 480, maar zou zo overstappen op nvidia mits de prijzen zakken.
Zolang we geen voordelen zien, zie ik niet hoe het een mooie ontwikkeling is. Ze stoppen een gimmick die nergens op werkt in een kaart, en vragen de hoofdprijs. Tegen de tijd dat het ondersteund wordt door veel games (als devs de meerwaarde uberhaupt gaan inzien, want hun demographic is niet alleen Nvidia-gebruikers) zal de volgende rits kaarten (die dan vast ook RTX, en een betere variant hebben) al te koop zijn. Mensen die nu een 20xx hebben gekocht om een slaatje te slaan uit Raytracing, hebben een miskoop gedaan.
Beetje kip-ei verhaal hè. Zo kun je bijna elke discussie over nieuwe ontwikkelingen op computer gebied proberen te beslechten. Iemand moet de eerste stap zetten...

En in dit geval heb je toch echt een eerste generatie van de nieuwe techniek nodig voordat game developers er iets mee kunnen. Zo ging het vroeger ook met shaders, hardware T&L, texture compression etc.
Ja op zich, maar er is nog niets wat mij kan bewijzen dat het echt veel meerwaarde heeft. Dus over een paar jaar kun je daar pas zinnige uitspraken over doen als het echt goed is geïmplementeerd in games. In Battlefield 5 vind ik het helemaal niet zo indrukwekkend.
tja, dan heb je dus ook geen zak aan bumpmapping en al die extra enhancements......
Ik vind persoonlijk ray tracing echt wel een stap voorwaarts, zeker in realistische games onafhankelijk of het nu van Nvidia of Amd is. Het is wel iets wat niet nodig is, maar ik veronderstel in de toekomst dat dit redelijk standaard gaat komen.

De manier waarop is een ander verhaal een videokaart die meer kost dan sommige "deftige" pc's is toch in mijn ogen overdreven.
Ik wacht wel tot dit wat meer betaalbaar word.

De pc community heeft dringend goedkopere hardware nodig om een extra boost te krijgen.
Tenzij je vol plezier geniet van BFV in zijn volle glorie dan heb je er zat aan en ben je alvast voorbereid voor volgende games die gaan komen.
De 2060 doet het overigens prima in BFV met ray tracing aan echter zal je iets lagere settings op bepaalde fronten moeten accepteren en dat komt niet eens door de gpu maar door de domme keuze om dezekaart maar 6gb ram mee te geven ipv 8 aangezien BFV echt gewoon die 8 GB nodig heeft.

Dat hele fanboy argument is ook gewoon te achterlijk voor woorden. Nvidia heeft ons heel veel mooie tech bezorgd iets dat amd alleen kopieert en er een open source variant van maakt of implementeert om dat toch maar een antwoord te hebben op nvidia.
Nvidia fan of niet dat moet je gewoon herkennen.

Als technische vooruitgang je niet boeit dan kan je net zo goed weer tomb raider 1 gaan spelen.

@plankhorst het werkt prima echter niet up ultra en dat kan je ook nieg verwachten. Veel internet testers hebben dacht echter wel geprobeerd en ja dar gaat niet met de laagste kaart uit de lineup. Als je texture reso van ultra naar high set haalt ie gewoon 60 fps met high ray tracing.

[Reactie gewijzigd door computerjunky op 18 januari 2019 00:11]

De 2060 doet het overigens prima in BFV met ray tracing aan echter zal je iets lagere settings op bepaalde fronten moeten accepteren en dat komt niet eens door de gpu maar door de domme keuze om dezekaart maar 6gb ram mee te geven ipv 8 aangezien BFV echt gewoon die 8 GB nodig heeft.
Wat is het nou dan? je geeft eerst aan dat de kaart prima werkt met BFV met ray tracing, maar vervolgens zeg je weer dat BFV echt gewoon de 8GB nodig heeft? Volgens mij heeft @hrichard hier gewoon een erg sterk punt. Ik zie eerlijk gezegd ook niet de meerwaarde van de raytracing mogelijkheden van de RTX2060, aangezien deze kaart zover mij duidelijk is simpelweg onvoldoende rekenkracht heeft om grafisch gezien een meerwaarde te kunnen behalen bij het gebruik van raytracing.
Dat hele fanboy argument is ook gewoon te achterlijk voor woorden. Nvidia heeft ons heel veel mooie tech bezorgd iets dat amd alleen kopieert en er een open source variant van maakt of implementeert om dat toch maar een antwoord te hebben op nvidia.
Ik weet eerlijk gezegd niet wat ik van deze alinea moet vinden. Wat mij betreft mag je Nvidia geweldig vinden, maar zeggen je geen "fanboy" bent om vervolgens als argument te geven dat Nvidia beter is omdat ze "heel veel mooie tech bezorgd hebben" is toch echt wel het slechte argument om dat te ondersteunen.
Het is eerder andersom. ;)
op ultra word er anders max 4gb aan vram gebruikt door BfV op 1080p, volgens RSS en met een 1070ti

[Reactie gewijzigd door Zuury op 18 januari 2019 10:27]

Op 1080P zit BFV standaard rond de 5GB. Zelfs BF1 zit al standaard rond de 5GB.
Ongelovelijk...

Ik ben alles behalve een fanboy ik heb niks voor of tengen 1 fabrikant ik heb ook het liefst iets dat goedkoper is maar ik koop wat het beste is op de langere termijn (4+ jaar) en dat is niet altijd het goedkoopste of beste prijs prestatie.
Dat kan komen doordat er lager stroomverbruik is wat op lange termijn kosten bespaart of doordat er betere features zijn of doordat het product iets duurder is maar mijn rig langer mee laat gaan waardoor efficient de kosten per jaar omlaag gaan.

Ik ben wel biased tegen merken zo zal ik asus bij de huidige build die ik wil gaan doen links laten liggen. Dit omdat ik een asus gpu en een asus moederbord heb gehad waar ik nul support voor kreeg en zelf de fix op hun forum heb moeten aandragen na 6 maanden klooien zonder enige tech support om de oplossing te vinden (pcie ssd probleem).
Ook gigabyte zal ik niks van kopen omdat die me in het verleden een belabberd moederbord aangesmeerd hebben.

Of ik amd of intel ga nemen licht nog helemaal open omdat ik de benches van amd/intel/nvidia zelf niet meer geloof en de echte reviews af wil wachten. Is het echt beter dan de 9900k en goedkoper in totale build zonder missende features of compromissen dan zal ik gewoon een amd build hebben staan.
Ik heb voor de GTX 1070 die ik nu heb 6 amd kaarten gehad dus als ik echt zon nvidia fanboy was....
Die waren echter voor de prijs interresant amd heeft nu gewoon niks boeiends en mijn oude inmiddels stoffige 7970 oc zal dan voorlopig de laatste zijn tot ze weer mee kunnen komen zonder compromis (momenteel energieverbruik en mogelijk features).

En mensen als jij blijhven roepen dat je helemaal niks heb aan RTX maar er zijn 2 games op de markt die gebruik maken van of RTX of DLSS dus als mensen daarvan gebruik maken in die games waarom heb je er dan helemaal niks aan?
Het word gebruikt mensen hebben er plezier van dus het heeft nut.
En de 2060 met 1 tweak in textures haalt 60 fps. Voor de die hard competative fps gamer ondermaats ja die wil 144 fps maar voor het gros dat gewoon wil gamen en genieten van de effecten is het prima.
En veel mensen die een lower end gpu kopen hebben niet eens een high end 144hz paneel dus hebben helemaal niks aan een high end gpu die hoge fps tevoorschijn tovert.
Ik had alleen graag gezien dat ze een variant met meer ram hadden uitgebracht want 8gb heeft gewoon al nut in games (of simpelweg een hogere geheugenbus.) want er lijkt iets geheugen tekort te zijn (in gb of in doorvoer) vandaar ook dat ze texture res op high adviseren.
Correctie hij doet geen raytracing maar een klein deel van raytracing namelijk reflectie. Echte raytracing is het pas als hij alle drie doet.
ja dat klopt die reeks wat Nvidia heeft uitgebracht in het highend segment de 2070 en 2080 zijn idd veel te duur.En ik ben nu ook best verast dat Nvidia een gehele nieuwe lijn van videokaarten op de plank heeft liggen van de 2000 serie tevens hadden ze natuurlijk ook de oudere 1000 serie nog op de plank liggen.Ik hoop dat ze die 1000 serie met een flinke prijsdaling aan gaan bevelen in de webshops ik vind zelfs de prijzen van de 1000 serie nog te duur.maarja een 1660 ti met voldoende cores en gddr6 aan boord wil ik best ook graag hebben, alleen rijsr nu de vraag hoeveel hij mag kosten.
RTX chips hebben ook voordelen buiten gamers. Raytracing werdt al gebruikt voor niet-real-time applicaties(denk films). Als dat opeens veel sneller wordt is dat voor veel bedrijven de prijs al waard.

Er zat ook een stuk in deze chips voor neurale netwerken en AI, wat ook toepassingen kan hebben voor servers en supercomputers. Al met al zouden ze beter eerst de quadro en tesla chips RTX moeten maken.
...Pascal is door gebrek aan concurrentie nog steeds erg goed en dat is een voordeel van Nvidia dat ze nu uitbuiten.
Ja, inderdaad. Ray-tracing kan echt fantastisch zijn voor spellen, dus ik verwacht dat game developers dit wel gaan omarmen, maar het moet niet de doodsteek van concurrentie worden. Als Nvidia bijvoorbeeld 2 generaties ray-tracing voordeel heeft, dan is dat vermoedelijk heel lastig in te halen.
Ik vind de RTX-lineup relatief niet te duur gezien de prestaties die het laat zien. Ik heb een RTX 2070 aangeschaft omdat hij beter presteert dan een GTX 1080 en veel modellen ook nog eens goedkoper zijn (+-550 euro). Ik ben vooral benieuwd naar de ontwikkelingen in raytracing-land aangezien het in BV5 wel degelijk een genot is om de details tot leven zien te komen.
Uit marketing stand punt is de focus op ray tracing en AI (voor dlss) een logische stap denk ik. De 10** was al 1,5 jaar op de markt en de 7nm kaarten van nvidia kunnen nog wel een jaar op zich laten wachten. Nvidia had wat nodig om deze tijd te overbruggen. De 20** serie is maar een tikkeltje sneller dan de 10** serie en daardoor heeft nVidia geen keus om de marketing afdeling vol in te zetten op AI in ray tracing om de klant te overtuigen dat de nieuwe kaarten wel degelijk meerwaarde bieden.
Die RTX cores zijn voor de grafische industrie en machine learning, maar nvidia heeft er een creatieve draai aan gegeven om ze ook aan gamers te kunnen slijten.

Amd's vega is ook niet op gaming gericht dus dat is geen bedreiging.
Als het echt zo simpel zou zijn hadden ze wel gewoon een kaart gemaakt zonder die cores. Dat had veel goedkoper geweest en dus potentieel winstgevender. De die space kost keiharde dollars en daar betalen wij nu voor.
Als het echt zo simpel zou zijn hadden ze wel gewoon een kaart gemaakt zonder die cores.
Dat lijken ze nu dus ook te doen.
Vermoed dat je dan te weinig geïnformeerd bent of de kaart wel of niet voldoet. Volgens mij werkt de 2060 toch prima met de rtx features. Bovendien is deze conclusie gebaseerd op 1 game die het ondersteunt?
De 2060 is nog amper uit, dus er kan sowieso nog niet over 'fout' gesproken worden, zelf vind ik het helemaal niet fout. Tenzij de 1160 vele malen goedkoper is dan de 2060, ga ik toch wel voor de 2060, onder andere vanwege de RTX, ik geef wel wat fps op voor een mooier plaatje. En die RTX hebben developers nog niet onder de knie (inclusief dat de drivers er voor ook nog steeds niet optimaal zijn), en je kunt de optie beperkt gebruiken zodat het wel wat visueel toevoegt maar niet veel impact op de performance heeft, maar dat betekent dus eerst beter leren hoe je het moet gebruiken.
Deze kaart is wat mij betreft onlogisch, als de 2060 presteert op het niveau van een 1070 TI, dan zal deze kaart ongeveer op 1070 niveau moeten presteren. Als je al een 1060 hebt is het een weinig toekomstbestendige kaart.
Beetje apart dat nvidia iets te vroeg uitbrengt terwijl er nog geen concurrentie is.
Dit maakt de line-up er nou niet bepaald overzichtelijker op.
De reden van dit bericht is volgens mij dat Radeon iets nieuws heeft aangekondigd. Bij dat vorige artikel over VII moest ik ook wel goed lezen om te snappen wat de doelgroep nou precies is, van welk type.

Iedereen die even dacht "hm, misschien neem ik die wel" gaat nu toch overwegen om nog even ook de nvidia reviews af te wachten.. :+
Iedereen die een beetje de boel volgt weet dat deze kaart niet in de buurt van de Radeon VII komt. De RVII mag het opnemen tegen een RTX2080, kwa specs komt dit ding op 75% van een 2060 uit, kersen en appels vergelijken
Ik ben het spoor inderdaad een beetje bijster. Hou met niet bij. Heb me nu maar even gefocust op de msi geforce rtx 2070 gaming z8g voor als morgen mijn radeon7079 het begeeft of de haperingen zat ben...
Ze willen toch die chips kwijt van de vorige generatie denk ik. Gewoon een rebrand met beter geheugen misschien?
Hij heeft het met name over de keuze voor 16xx, een 2e serie naast de rtx lijn dus gewoon de gtx lijn ernaast houden vind ik nog wel een logische keuze. Maar waarom in godsnaam 16xx, en niet gewoon met 11xx beginnen...
Ja dat is een naamkeuze, denk dat 1660 groter klinkt dan 1160.. bovendien lijkt het dan aan te geven dat het slechts een tijdelijke lijn is, dus niet dat er nog een 1260 aan komt o.i.d.

[Reactie gewijzigd door TJRef op 18 januari 2019 11:56]

Zeker niet als je dit in het achterhoofd houdt.
Niks mis met keuze, maar er kan wel degelijk wat mis zijn met de keuze die je kunt maken. 3GB was al te weinig bij de 1060 en 4GB is anno 2019 ook een gevalletje net niet voor een mid range kaart. Dan heb je nog de verschillen in het soort VRAM dat gebruikt wordt. Dus de ene 3, 4 of 6GB versie is de andere niet. Dus het kan zo maar zijn dat een gemiddelde consument denkt een goedkopere 2060 te kunnen scoren, blijkt het de kreupele versie te zijn.

Da's gewoon makkelijk scoren over de rug van de ongeïnformeerde consument.
Prijs en prestaties. Als de prijs naar verhouding is, is die te overwegen.


Zelf denk ik dat de kans klein is dat dit soort kaarten massaal apart worden gekocht, ze zullen vaker in pre-builds zitten. Dan is het de verkoper die je niet goed informeert.
Wat ik vreemd blijf vinden is dat nvidia een markt ziet in gpu’s die waarschijnlijk niet helemaal 100% functioneerde. Dan moet het gaan om grotere getallen.
Juist een goede zaak, want niet iedereen hoeft ray-tracing per se, maar wil wellicht wel een snellere kaart dan hun oude GTX 1080 Ti.
De GTX 1080Ti nu al oud noemen...
de 1080ti outperformt de 2080.
maar waarom iemand zou willen gamen met raytracing snap ik niet, de 2080ti heeft moeite met 60fps op 1080p (met ray tracing aan).
Sorry, nu moet je wel appels met appels vergelijken :-p De 2080 levert daadwerkelijk betere prestaties met dezelfde settings (dezelfde settings, want appels met appels)

Anderzijds met je eens, lekker veel poen voor 0 winst (mits je geen bfV speelt, en zelfs dan: beter niet in multiplayer; las ik hierboven ergens, ik speel geen bfV)

Ik houd 't nog even bij m'n 1070Ti, prima prestaties :-)
Juist een goede zaak, want niet iedereen hoeft ray-tracing per se, maar wil wellicht wel een snellere kaart dan hun oude GTX 1080 Ti.
De Geforce GTX 1080Ti zal een stuk sneller wezen dan de GeForce GTX 1660 Ti, en dus dan is de GeForce GTX 1660 Ti geen goeie keuze als je een kaart wil die net zo snel is als de GeForce GTX 1080 Ti.

Zo als je kan zien is de Geforce GTX 1080Ti rond de snelheid van de Geforce RTX 2080, die gemiddeld maar maar 5 a 10fps sneller is, en met een paar spellen is de Geforce GTX 1080Ti zelfs sneller (ik kijk naar 1440P benchmarks).

https://www.guru3d.com/ar...0_gaming_z_review,12.html

Edit spel fouten.

[Reactie gewijzigd door AmigaWolf op 19 januari 2019 00:20]

De vraag was niet wie duurder was, maar of een GTX 1080 (Ti) het wint van een RTX 2080 (Ti), zoals hierboven beweerd wordt.
Dan mankeert er wel het een en ander aan je leesvaardigheid. Jij maakt er een TI versus TI vergelijking van, niemand anders. En dan is prijs toch wel een dingetje. Als je een snellere kaart wil als de 1080ti is de 2080ti je enige keuze en die is veel te duur. En een 1660ti met 1500 shaders gaat ergens rond 1070 niveau presteren, maximaal.

Appels en peren zijn GPUs op hetzelfde prijsniveau, niet GPUs met een gelijkend naampje.

[Reactie gewijzigd door Vayra op 18 januari 2019 13:29]

Nee, er mankeert iets aan de jouwe. Om suljo dan maar even letterlijk te citeren "de 1080ti outperformt de 2080." En ja, dat is appels met peren vergelijken (hoe hard ik ook weggemod wordt). Als je die twee chips wilt vergelijken met elkaar, moet je en 1080 zetten tegenover eem 2080, of respectievelijk de twee Ti versies daarvan. En dan is de RTX 2080 toch beduidend sneller.
Nee dat is het niet. De 1080ti en de 2080 zitten ongeveer op hetzelfde prijspunt. Dus die vergelijk je met elkaar, want dat is wat je als koper aan keuzes hebt op dat prijspunt. Het hele nut van nieuwe GPU generaties is dat de prestaties per euro vooruit gaan - en laat dat bij Turing nou niet het geval zijn - en dat is ook de reden dat er mogelijk een 1660ti (oid) aankomt.

Jij was het zélf die deze discussie aanslingerde met de stelling dat mensen willen upgraden van hun 1080ti. Dat betekent dus wel dat je 1,5x zoveel centen kwijt bent voor die upgrade als voor je vorige.

Dat Nvidia handig met de naamgeving en prijspunten schuift is totaal niet relevant als je als consument een budget hebt voor een GPU.

[Reactie gewijzigd door Vayra op 18 januari 2019 13:41]

"Nee dat is het niet. De 1080ti en de 2080 zitten ongeveer op hetzelfde prijspunt. Dus die vergelijk je met elkaar, want dat is wat je als koper aan keuzes hebt op dat prijspunt."

Maar nu kom je op een soort 'beste waar voor je geld' discussie uit. Mijn punt was echter, dat eenzelfde Ti van de volgende generatie (een RTX 2080 Ti dus) wellicht sneller is, maar dat mensen (zoals ik) niet per se zitten te wachten op real-time raytracing, maar wellicht wel geinteresseerd zijn in een snellere opvolger van de 1080 Ti (maar dan zonder ray-tracing dus). En tja, dat dat dan allemaal wat al gaan kosten, dat laat ik even buiten beschouwing.
Ja, okee, dat snapt iedereen wel, maar dat slaat nergens op onder een artikel dat spreekt van een GPU met 1536 shaders. Het ging over snellere kaarten dan de 1080ti en de nieuwe line up. Kom jij met een 2080ti verhaal aanzetten...

[Reactie gewijzigd door Vayra op 18 januari 2019 13:48]

Maar nou vergelijk je appels met peren: je moet een GTX 1080 Ti niet vergelijken met een RTX 2080, maar met een RTX 2080 Ti. En dan is de laatste gewoon sneller. :)
Waarom niet, de Geforce GTX 1080 was +/- 35% sneller dan de Geforce GTX 980 Ti, daarom is de Geforce RTX 2*** series niet zo bijzonder, het verschiel is niet groot, daarom wacht ik op de Geforce RTX 3*** serie, of die van AMD na de Radeon VII serie, en de Geforce RTX 2080 Ti is +/- €500,- duurden dan toen de Geforce GTX 1080 Ti uit kwam, wat gewoon absurd is, en niet het geld waard is voor mij, heb geen €1300,- over voor een Grafische kaart toen hij net uit kwam, en nu met €1150,- voor de goedkoopste ook niet.

Maar ik had het over de GeForce GTX 1660 Ti, en ik gaf antwoord op:
Juist een goede zaak, want niet iedereen hoeft ray-tracing per se, maar wil wellicht wel een snellere kaart dan hun oude GTX 1080 Ti.
En de GeForce GTX 1660 Ti zal niet sneller wezen dan de Geforce GTX 1080 Ti, die bijna net zo snel is als de Geforce RTX 2080, en de GeForce GTX 1660 Ti zal zeker weten niet in de buurt komen van de Geforce RTX 2080.

[Reactie gewijzigd door AmigaWolf op 19 januari 2019 00:38]

Die specs klinkt meer als een 1050 opvolger...
1536 cuda-cores ten opzichte van 1280 bij de GTX1060 (+20%) lijkt me niet verkeerd. Daarnaast wellicht de kloksnelheid 20% hoger en een 5% betere architectuur, en het is al gauw een meer dan 50% snellere gpu dan een GTX1060. Gddr6-geheugen kan dat mooi bijbenen. Prima product wordt dit denk ik.
Is natuurlijk wel afhankelijk van de prijs en natuurlijk het aantal geheugen, de huidige 1060/3GB is zeer beperkt tegenover de 6GB variant. En de 1160 zal toch wel een heel stuk goedkoper moeten worden (denk toch zeker zo'n 100 euro) dan de 2060 om niet in het vaarwater van de 2060 te komen.
Als je kijkt naar de prestaties van de 2060 en dan puur naar corecount kijkt gaat deze kaart iets onder de 1070 presteren, ver boven de 1060.
Als de kaart inderdaad GTX1*6*60Ti gaat heten zou ik dat erg verwarrend vinden.
kan bijna niet anders dan dat dit niet accuraat is, 1160 oke, maar 1660?????

de sprong naar de 20** voor de RTX was al raar, nu doen ze toch een GTX generatie maar mixen ze 16 en 11? wut
Misschien komt er wel een 1460 met 4 gig. Dan is de naam ineens wel heel duidelijk.
Kom ik aan met mijn budget build die ik dit jaar nog wil maken, met een GTX 1060 wat waarschijnlijk binnenkort van de markt verdwijnt. :P
Kijk beter uit naar een RX590 of RX580.
En als je kunt wachten even kijken naar de volgende kaarten van AMD.

Laat de GTX1060 3GB sowieso links liggen ;)
AMD is niet voor mij haha. De 3G ga ik ook niet voor, ik ga waarschijnlijk voor deze: pricewatch: MSI GeForce GTX 1060 6GT OC :)
O waarom niet als ik vragen mag? De RX580 is namelijk net iets sneller dan de 1060 op het moment en heeft 8GB ipv 6 van de 1060. Plus goedkoper ;)
Mooi dom, want de 1060 is helemaal zo geweldig niet tov het huidige AMD aanbod op dat prijspunt. Sterker nog, voor een paar tientjes meer vind je al Vega 56.

[Reactie gewijzigd door Vayra op 18 januari 2019 13:35]

Jouw keuze,
Maar uit de testen blijkt alweer dat "Oude Wijn" echt waar is en dat de AMD 580 die in de nieuwste games toch echt besteerd dan de Nvidia.
En voordat je me een AMD fan noemt, Ik heb een GTX 1060 6GByte. Leuke kaart zeker en toen ik hem 2 jaar geleden kocht sneller dan de RX 480. Maar, met DX12 die nu echt er is en niet meer alleen toekomst muziek is de RX 580 niet alleen goedkoper maar ook sneller, in meeste titels.

Ik hoef nog niet te upgraden, maar als je puur nieuw gaat is AMD geen slechte optie. Oude wijn he! En een stuk goedkoper ook nog!
Zie hierboven. Had dezelfde keuze 2 maanden geleden en me deze RX580 laten aanpraten hier. Uitermate tevreden over. Wel 275 voor betaald maar prijzen dalen nu.

[Reactie gewijzigd door gas0line op 18 januari 2019 10:41]

Is het tegen wordig een trend om de line-up te verpesten??

Het zelfde wat apple heeft gedaan met hun ipad
De iPad lineup is anders echt niet complex. De lineup van Intel daarentegen, dat is wel een goed voorbeeld van een complexe lineup.
Nou ja niet complex ja maar nou niet echt logisch

Die van intel is inderdaad ook niet echt meer wat het geweest is
Ik weet niet wat ze aan het doen zijn bij nVidia, maar van vele logische reeksen, wordt het nu wel erg ondoorzichtig voor gemiddelde potentiële klant (als deze trend zich werkelijk doorzet). En dan bedoel ik niet de mensen die hier komen, die weten meestal wel van de hoed en de rand.

[Reactie gewijzigd door Jumpman op 17 januari 2019 20:45]

1160 had meer in de lijn gelegen dan 1660 het Verschil tussen de 1 en de 2x serie is wel duidelijk.
Het enige wat ik kan verklaren is dat ze het 16xx noemen vanwege het feit dat er DDR6 op komt. Maarja hoe ga je de opvolger van deze dan weer noemen...
Dus die naam is nog niet zeker, maar zonder die naam zegt die 'marketingafbeelding' ook niets. Dus ze brengen 'iets' uit in de toekomst. Prima informatie dit.
Zucht...
Echt élk gaatje in het productspectrum moet worden dichtgesmeerd. Je ziet soms maar 30 euro verschil tussen 2 opvolgende modellen.
Het zou toch mooi zijn als je per generatie gewoon maximaal 5 kaarten hebt, die je ook duidelijk van elkaar kan onderscheiden. Iets met heldere naamgeving...
Maar helaas: Dan propt de concurrent daar net een kaart tussen en dan moet je natuurlijk ook...

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True