Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Nvidia GTX 1660 Ti komt over drie weken uit voor 279 dollar

Nvidia zou zijn GeForce GTX 1660 Ti over drie weken willen uitbrengen voor 279 dollar. Dat meldt HardOCP. Andere kaarten met Turing-gpu's, maar zonder raytracing-ondersteuning zouden binnen enkele maanden moeten uitkomen.

Na de TI-versie volgt volgens HardOCP begin maart de GTX 1660 voor 229 dollar en ook in maart komt er een GTX 1650 voor 179 dollar, claimt de site. De exacte releasedata en prijzen zouden nog kunnen veranderen voor de release.

De goedkopere kaarten zouden geen raytracing ondersteunen, zoals de duurdere RTX 2000-kaarten doen, maar zouden wel gpu's op de nieuwe Turing-architectuur hebben. Nvidia heeft zelf nog niets bekendgemaakt over nieuwe GTX-kaarten. HardOCP beschikt niet altijd over juiste info, maar heeft in het verleden vaker bewezen vroegtijdig over correcte gegevens te beschikken.

Er gaan al langer geruchten over een GTX 1600-serie. Ook daarbij kwam informatie naar voren dat de GTX 1660 Ti de eerste zou zijn. Volgens dat gerucht heeft die kaart een TU116-gpu met 1536 cuda-cores. De RTX 2060 heeft een TU106 met 1920 cores.

Door Arnoud Wokke

Redacteur mobile

24-01-2019 • 13:54

91 Linkedin Google+

Reacties (91)

Wijzig sortering
Wat wordt er verwacht qua vergelijking met, bijvoorbeeld, een GTX 1070 Ti?
RTX 2060 presteert net iets beter/gelijk dan de 1070 TI.

Verder weten we alleen het aantal CUDA cores en volgens het bericht heeft de 1660 1536 en de 2060 er 1920. Dat zou de 2060 +/- 20% trager (dank) zijn als het aantal CUDA cores gelijk zou staan met prestatie (maar dat is waarschijnlijk niet zo)

Persoonlijk denk ik dat dit een OEM kaart wordt zoals de GTX 745.

[Reactie gewijzigd door rickboy333 op 24 januari 2019 15:42]

Dat zou de 2060 +/- 20% sneller zijn
1920 / 1536 = 1.25x ;)
Ja goed, ik deed het schatten uit het hoofd gezien ik bij de bushalte stond. (vandaar die +/-) :)

384 (delta van de cude cores) is bijna 400 en je weet dat je 5 stapjes van 400 moet maken om bij 2000 (bijna 1920) uit te komen. 400/2000 is gelijk aan 1/5 is gelijk aan 20%, dus vandaar ;)

[Reactie gewijzigd door rickboy333 op 24 januari 2019 14:34]

. 400/2000 is gelijk aan 1/5 is gelijk aan 20%, dus vandaar ;)
Zo werken procenten niet.. ;)
Het is nieuw / oud of verschil / oud, niet verschil / nieuw.
(nieuw-oud)/oud = verschil

(1536-1920)/1920 = -0,20
Dus 20% langzamer.

Maar andersom:

(1920-1536)/1536 = 0,25

25% sneller

Wat doe ik hier fout? :?
Of klopt dit gewoon. Deze rekenmethode heb ik onthouden van Management & Organisatie.
_/-\o_
Één iemand die in ieder geval weet hoe die het moet uitrekenen.

En je conclusie klopt gewoon, je doet niets fout:
De GTX1660 is 20% langzamer dan de RTX2060.
De RTX2060 is 25% sneller dan de GTX1660.

[Reactie gewijzigd door knirfie244 op 24 januari 2019 15:55]

Dus: De GTX1660* is +/= GTX 970 4GB :+ maar zou energie zuiniger kunnen zijn? En als deze GTX1660 uitgerust zou zijn met 8GB, zou dit een leuk VR kaartje kunnen worden.

*= Al verwacht ik dat de GTX1660 misschien 5% sneller zou kunnen zijn met; https://gpu.userbenchmark...a-GTX-1060-6GB/2577vs3639
Maar ''oud'' is toch de RTX 2060 en niet de GTX1660 TI toch? Verscheel/oud wil toch niet automatisch zeggen verscheel/hoogste of wel?

Het kan dat ik gewoon dom ben, ik heb pas leren hoofdreken toen ik op het HBO zat gezien het middelbaar onderwijs hier in NL hoofdreken totaal verwaarloost.
Maar ''oud'' is toch de RTX 2060 en niet de GTX1660 TI toch?
Kan, dan is de 1660 20% trager (0.8x) dan de 2060. Maar dat is niet wat je schreef.
Jup je hebt gelijk :)

[Reactie gewijzigd door rickboy333 op 24 januari 2019 15:42]

Om precies te zijn moet je dan eigenlijk het omgekeerde doen van wat je deed :

1536/1920 = 0.8
Dus je krijgt naar verwachting 80% van de performance van de 2060.
Jij bedoeld net iets beter als de 1070ti. De 2060 is stukken beter als de 1070 als k de benchmarks mag geloven
yes, bedoelde ook de 1070ti.

[Reactie gewijzigd door rickboy333 op 24 januari 2019 15:43]

Lijkt me sterk, the 2060 was iets beter toch?
Ik denk dat een betere verwoording is: Hoe gaat deze opwegen tegen een GTX 1070 Ti?
Voor zover ik de geruchten geb gevolgd zal de GTX 1660 iets minder cuda cores krijgen dan de RTX 2060. Aangezien de RTX 2060 meestal tussen de GTX 1070 Ti en GTX 1080 ligt qua performance zou ik zeggen dat de GTX 1660 tussen de GTX 1070 en GTX 1070 Ti zal liggen. Maar dat is vooralsnog pure speculatie.
Ik geloof dat ik vind dat ze het daar weerlekker ingewikkeld maken.

Ik vond het tot de 900 serie best overzichtelijk (gtx580, gtx570 etc). Maar nu een 1070, 1070ti, 1660 en RTXen :D Ik ben in de markt voor een kaartje, wacht nog wel ff :D
Ja ik vind het er ook niet duidelijker op worden. Gelukkig is de performance van mijn 1070 nog steeds goed in huidige games dus ik sla in ieder geval Nvidia's huidige line-up over.

Ben zeer benieuwd wat AMD gaat doen met Navi. Ik denk niet dat ze Nvidia zullen overtreffen zoals sommige mensen beweren maar een beetje concurrentie mag wel eens.
Ik heb verschillende dingen gezien, sommige bronnen zeggen 1070 performance, andere zeggen maar ~15% sneller dan een 1060.
De RTX 2060 is vergelijkbaar kwa prestaties met een GTX 1070 Ti. Realistisch gezien zullen de prestaties waarschijnlijk ergens tussen de GTX 1060 en de GTX 1070 in zitten, of misschien is het direct vergelijkbaar met een GTX 1070
Vroege benchmarks zaten op 16% verbetering tegenover de GTX 1060 maar waarschijnlijk zullen release versies eerder 20% beter zijn in gaming. Dus dat betekent vergelijkbaar met een GTX 1070 maar wel met 2GB minder geheugen. Dus in sommige games waarschijnlijk gelijk, in een andere iets minder.

De GTX1660 zou dan een lichte performance boost leveren tegenover de 1060 en de GTX1650 zou performance van een GTX 1050 Ti evenaren. Klinkt wel allemaal verwarrend zo.
Net als alle andere edities, 30% sneller als zelfde serie uit de vorige generatie.
Waar zijn de tijden gebleven dat je na drie jaar gamen een nieuwe videokaart kocht voor hetzelfde bedrag en achteroversloeg van de vooruitgang in performance?

De afgelopen decennia mag je blij zijn als je na drie jaar voor hetzelfde bedrag 25% extra performance krijgt.
Ik denk dat die bij de standaardisatie van 8k weer gaat plaats vinden. Dus over ongeveer 2 jaar. 8k is 4k per oog voor Vr, en waarschijnlijk de nieuwe standaard voor films. De eerste kaart die 8k op 60fps kan gaat 4 jaar mee
Over 2 jaar 8K standaard? Uit welke glazen bol tover je dat?

De overgrote meerderheid mensen zit nog steeds op 1080p (>60%), een kleine minderheid zit op 1440p (<4%), en een nog kleinere minderheid zit op 4K (<1,5%), aldus Steam. Vooralsnog is 1080p dus nog steeds de standaard. 4K is bij lange na nog niet de standaard, laat staan dat 8K dus over 2 jaar al de standaard zou zijn.

Hogere resoluties worden normaal gezien pas standaard zodra het betaalbaar wordt. Zowel qua displays als qua de prijsklasse videokaart die vereist wordt voor bepaalde prestaties op zo'n resolutie.
Vanwaar nou weer die 16?
Ik gok psychologische naamvoering. De logica is waarschijnlijk dat 16 dichter bij 20 dan 10 staat en dus de consument de kaart als 'nieuw' beschouwd. Waarom dan geen 19? De 20 serie wordt als duur ervaren en dit zijn 'budget' kaarten.

Althans, dat lijkt mij een verklaring. Het kan ook dat men deze methode heeft gebruikt: https://www.youtube.com/watch?v=wz-PtEJEaqY
Dan had 2010, 2020, 2030, 2040, 2050 en de 20x5 range ook nog beschikbaar geweest veel duidelijker en komt meer overeen met de snelheid.
Nu hebben ze een enorm rare naam die ze forceert in de toekomst weer het hele naam schema op de schop te gooien.
Om het verwarrend te maken voor de klant.
Ik davht al dat ik de enige was die de typeaanduiding belachelijk vind.
Ik bedoel, RTX geeft toch al aan dat het Raytracing bevat tegenover GTX?

Als ze nu gewoon lineair blijven is in mijn optiek logisch en het geeft je meer ruimte voor nieuwere modellen.
Maar goed dat ben ik...
Als de geruchten kloppen zijn de kaarten voor een zeer mooie prijs te koop. Afwachten maar!
Als de geruchten kloppen kost deze kaart, inclusief BTW, bijna 340euro en is hij nog geen 20% sneller dan een GTX 1060. Op dit moment zijn er aftermarket 1060's te koop voor minder dan dat, plus dat dit een kaart is die uit juli 2016 stamt en bij release 380euro kostte ongeveer...dus zo mooi lijkt mij die prijs niet :'(
In 2012 had ik voor 400 euro een topkaart (GTX680), tegenwoordig heb je een middenklasser voor dat geld. Voor een topkaart moet je minimaal het dubbele neerleggen. Idioot vergeleken met overige hardware. Moederbord van 200 euro en dan een videokaart voor 800 euro en dan heb je nog niet eens het topmodel want dan moet er nog een keer 400 euro bij.

[Reactie gewijzigd door -Moondust- op 24 januari 2019 16:57]

Voor een topkaart moet je minimaal het dubbele neerleggen. Idioot vergeleken met overige hardware.
Hoezo idioot? Als je de performance bekijkt kloppen die hogere prijzen prima. Per FLOP is de prijs grofweg gelijk gebleven. Hou in de gaten dat Moore's law alleen spreekt over de verbetering van de hardware niet over lagere prijzen.

Er zijn nu dingen mogelijk die in 2012 niet mogelijk waren. Maar omdat het allemaal complexer is is het niet goedkoper. Sneller, beter = duurder.
Processoren zijn in de loop der jaren toch ook een veelvoud sneller geworden maar niet 2x of zelfs 3x duurder?
Sneller, beter = duurder? Kijk aub eens terug in de geschiedenis zou ik zo zeggen.

Je kunt beter stellen: geen concurrentie, mensen kopen het toch wel (jouw gedachtegang en dat je +2 krijgt van genoeg mensen) = duurder.

En mensen verdedigen het ook nog, de ideale consument voor bedrijven. Zie je terug komen in games, Apple producten etc.

En ik zal wel weer -1 krijgen :+

[Reactie gewijzigd door hrichard op 24 januari 2019 22:35]

Dat is natuurlijk niet helemaal waar. Ik betaalde in 2006 al 650 euro voor de nvidia top kaart was toen bijna 1600 euro voor de 2 kàrten in sli +water koeleing. Bijbehorende fx55 was nog eens 950 euro.
Welke topkaart was dat?
8800gtx waarschijnlijk.
Die start op ong. 550 euro. Een superdeluxe waterkoelervariant kan natuurlijk een stuk duurder uitpakken. Maar goed, het moge duidelijk zijn dat we prijzen van dik over de 1000 euro nog niet eerder hebben gezien voor een topkaart zoals de RTX2080Ti. Hetzelfde geldt b.v. ook voor telefoons. 10 jaar geleden waren telefoons van over de 1000 euro ondenkbaar. Inflatie heeft natuurlijk zijn rol maar daarmee is de enorme prijsstijging van de laatste jaren natuurlijk niet verklaard. Ik vermoed dat de ontwikkeling van snellere hardware duurder is geworden (mede omdat men begint aan te lopen tegen grenzen) en dat moet natuurlijk terugverdiend worden. Ook de enorme hoeveelheid aan functionaliteit die op telefoons zit tegenwoordig is geen vergelijking met wat het 10 jaar geleden was. Software ontwikkeling is natuurlijk ook niet gratis, ook daar moet meer geld aan worden uitgegeven wat ook weer terugverdiend moet worden. Aan de andere kant zie ik grote techbedrijven jaar op jaar grotere winsten maken. Kijk voor de gein eens naar Nvidia. Hun netto winst is de laatst 2 jaar vervijfvoudigd. Daar maak ik uit op dat ze hun producten dus voor veel minder geld hadden kunnen verkopen. En blijkbaar komen ze ermee weg, want de consument keert hen nog niet massaal de rug toe. Uitiendelijk is de vraagprijs natuurlijk meer gebaseerd op wat consumenten bereid zijn ergens voor te betalen en niet op wat het kost om iets te ontwikkelen en produceren. De huidige prijzen voor videokaarten zijn nog nooit zo hoog geweest, zoveel is duidelijk. Ik ben benieuwd waar het heen gaat en op welk prijspeil het blijft steken. Voorlopig hou ik nog de hand op de knip en stel ik een upgrade uit.

[Reactie gewijzigd door -Moondust- op 24 januari 2019 16:56]

In 2007 was de 8800 Ultra volgens tweakers 830 dollar, volgens mij kom je dan met inflate ed. heel dicht bij de 1100/1200 van de goedkoopste 2080ti. Introductie prijzen waren zelfs 999 dollar.

nieuws: Nvidia GeForce 8800 Ultra officieel geïntroduceerd

[Reactie gewijzigd door kluyze op 24 januari 2019 22:19]

Blijft staan dat het huidige topmodel nog steeds veel duurder is dan toen. Moet inflatie nog verrekend worden maar dan nog. Dergelijke prijsverhogingen kunnen niet ongelimiteerd doorgaan lijkt me. Ik lees al tijden dat mensen de aankoop van een gpu uitstellen of voor een lager gepositioneerd model gaan omdat men de prijzen zo hoog vindt. Dat hoorde ik 5 jaar geleden niet meen ik mij te herinneren. Het lijkt mij dat er een limiet zit aan de prijs die mensen kunnen en willen betalen. Ik heb nog een GTX980 gekocht voor zo'n 600 euro en ik zie mezelf nog wel 700-800 euro uitgeven als ik 4-5 jaar niet heb geupgrade maar ver over de 1000 euro ga ik hoogstwaarschijnlijk niet doen. Hetzelfde met telefoons. Een goede telefoon voor zo'n 600 euro vind ik nog ok maar tegen of zelfs over de 1000 euro dan haak ik af, zeker als de middenmotors ook prima presteren voor wat ik nodig heb. Als de lijn wordt doorgetrokken dan vraagt Nvidia bij de volgende generatie tegen de 1500 euro, de daaropvolgende generatie tegen de 1800 euro. Where does it end?
Die 830 dollar is de prijs uit het artikel van tweakers, in het introductie artikel van de 2080ti op tweakers staat een prijs van 999 dollar. Als je de inflatie van 2007 tot 2018 telt gaat die 830 dollar ook rond de 1000 dollar uit komen (ik heb wat met online calculators gespeeld).

Dus nee dan is het niet veel duurder.

Nvidia heeft op dit moment geen concurrentie dus door de marktwerking gaat dan de prijs omhoog. Daarnaast zit in de 2000 reeks ook niet eerder gebruikte technologie waar je nu de hoofdprijs voor neerlegt en waarbij je nog weinig ondersteuning hebt. Maar dat heb je vaker met een nieuwe technologie.

Waar stopt het dan? Daar waar niemand de producten koopt, maar blijkbaar is dat punt nog niet bereikt en kan nvidia zijn dure kaarten en apple/samsung zijn dure telefoons nog kwijt raken.
Is dat dan de schuld van die bedrijven? Want dat is wel de ondertoon die ik uit jouw berichten haal.
Het maakt ze minder sympathiek. En dat zeg ik als eigenaar van diverse Nvidia kaarten en een topmodel telefoon van Samsung. Ik hoop dan ook van harte dat er meer concurrentie gaat komen van AMD en in 2020 ook van Intel.
Maar die ultra moet je misschien vergelijken met de titan.
Ik meen me toch ook te herinneren datik voor de 8800gtx belachelijk veel geld betaald heb. Het was dan nog een oc editie oid.
Ja, die trend is in meerdere productcategorieën te zien helaas. Ik heb eind vorig jaar ook lekker een PS4 gekocht, voldoet prima aangezien ik op de PC ook maar op 1080p speel en de exclusives ervoor zijn, vind ik, beter dan de meeste PC games.
De 2060 is $350 dollar en 375 euro, denk dat deze eerder 300 euro is dan 340 als de $280 prijs klopt.
Dan nog, een 1060 kost 250 euro en een 1660 wordt ongeveer 300 euro.
Kom ik op een prijsstijging van 20 procent voor misschien 15 procent extra prestaties. ;)
tja, de 1060/6GB's zijn nu eindelijk in prijs aan het dalen, maar dat heeft ook lang geduurt, die hebben de afgelopen maanden nog redelijk tegen de 300 euro aan gezeten.
Het is waarschijnlijk niet alleen prestaties, maar ook misschien iets zuiniger en de virtualink connector.
Hoop dat de Geforce GTX 1650 een LP woord, dan zou hij passen in kleine PC's die je onder je TV heb zitten.
Dat zou inderdaad een betere prijs zijn.
Helemaal mee eens. Staat meteen op mijn lijst om in de gaten te houden.
Waar komt die naam vandaan, waarom geen GTX11xx? En de hele vroege geruchten van een eventuele GTX2060/GTX2050 zijn dus niet waar?

Enfin, ik hoop dat deze kaart redelijk wat performance kan laten zien, wellicht een nieuwe versie van de GTX1070(Ti)?
Nee de 2060 komt gewoon 1 deze dagen maar rond de 380 a 400 euro. De 2050 heb ik niks over gelezen of gehoord.

En je moet blij zijn als deze 1660 in een deel van de games 1070 standaard prestaties haalt. en in een deel dat geheugen vret zal hij altijd trager zijn omdat hij maar 6 gb ipv 8 gb krijgt en dus moet gaan swappen en dat levers prestatievermindering op in die games.
RTX2060 weet ik dat die bestaat, heb het over de GTX2060/2050...

6 ipv 8 is natuurlijk een klein verschil, maar hij is er wel.
Woepsie. Blame nvidia...

de 2060 zit trouwens rond de 1070TI prestaties dus dat alleen is al reden dat deze kaart trager zal moeten zijn. nvidia gaat echt niet zijn eigen hogere model waar ze er als we van de 10xx serie uit mogen gaan het meeste van hebben aan het einde van de productie chain na binning.
Games als Forza 4 lijken erg dol op geheugen.
Nee, lijkt me ook niet. Het kan zijn dat ie iets trager is... Sowieso heeft ie geen Raytracing Cores ;)
eerst maar eens de benchmarks afwachten...en natuurlijk de prijs!
..en het stroomverbruik, en wat AMD er tegenover kan zetten.
Stroomverbruik zit wel goed daar heeft amd momenteel heen antwoord op.
Meer als 150 watt gaat het in ieder geval niet zijn gezien dit het verbruik van de 1070 serie is en de 1660 ongeveer even snel gaat zijn (anders zitten ze hun 2060 in de weg qua prestatie).

Verder zijn er niet eens geruchten van amd over een lower end kaart en die radeon 7 is gewooon een lachertje.
Vreet meer stroom en in 1 geheugen intensieve game was hij ongeveer even snel als de 2080 maar had wel 16 GB HBM2 nodig ipb 8 gb Gddr5. Hij kan dus in andere games die niet zo veel ram vreten wel eens gaan tegenvallen.
En dan heb je nog het feit dat hij geen RTX en DLSS ondersteund en dus minder futureproof is.
Volgens mij was de radeon 7 een kaartje voor de ces demo om de fans blij te houden en om aandeelhouders om de tuin te lijden want verder is er helemaal niks aan die kaart om over naar huis te schrijven. Het is gewoon een Vega 2 met alle problemen en de prijs van dien.

Niet dat ik momenteel heel blij word van het 'falen' van amd ten opzichte van nvidia en intel want het kost me gewoon heel veel geld als ik nu een rig ga bouwen (en dat ben ik wel van plan).
Lijkt mij een mooie middenweg, ik ben zeer benieuwd!
Erg benieuwd. Misschien dan toch een betaalbare vervanger voor mijn GTX 970 gevonden. Was destijds iets duurder dan 300 meen ik.
Hier hetzelfde. Heb voor m'n Asus Strix 970 OC destijds ook iets van 300 betaald.

Op 1080p doet ie het nog prima overigens maar ik ben aan het overwegen om de stap naar 1440p te maken.
Deze 1660 Ti zou wellicht een goede kandidaat zijn daarvoor. Ik hou 'm in ieder geval in de gaten!
Precies in dezelfde situatie. 1080P draait super maar mijn 2k scherm had hij toch wat meer moeite.
Ik heb in mijn game pc 2xgtx970 (waterkoeling, dus vervang ik niet zomaar); alles draait als een zonnetje op 1440p. Wel benieuwd welke single kaart daar nu ongeveer tegenop kan (en wanneer dat voor eennormaal bedrag aan te schaffenis D)
Ik zit te kijken naar de 2060 om exact hetzelfde te doen, ik moet mijn 970 gaan vervangen om betere VR games te kunnen draaien. Over het algemeen ben ik nog erg tevreden met mijn oude kaart, maar soms trekt ie het net niet en zo hoop ik voor de komende vier jaar weer voorzien te zijn.
Ik ben benieuwd naar de performance van deze kaarten. Als deze gelijk is aan de GTX 1070 Ti en het is een leuke prijs, wie weet of ik dan upgrade. Dat hele RTX gebeuren hoeft van mij niet zo, vooral omdat het je performance nekt.
Deze kaart zal zeker langzamer zijn dan een RTX 2060 (die zelf ongeveer op het niveau van een GTX 1070Ti presteert) als gevolg van het feit dat hij aanmerkelijk minder cuda cores aan boord heeft (1536 versus 1920).
Ze hebben de RT cores en Tensor cores gewoon uitgeschakeld. En nog wat meer shaders disabled.
De meerwaarde tov Pascal is beperkt. Enige voordeel is dat deze leverbaar blijven waar Pascal op = op is.
"Enige" is wat overdreven, er zijn meer verschillen tussen Pascal en Turing dan RT en Tensor.
De meerwaarde is misschien beperkt maar is dat een probleem?

[Reactie gewijzigd door Olaf van der Spek op 24 januari 2019 14:28]

idd de kans in zeer groot dat dit afgekeurde RTX kaarten zijn die op deze manier toch nog iets op gaan leveren!


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True