Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Foto's en renders tonen GeForce GTX 1660 Ti-videokaarten

Er zijn foto's online verschenen van de doos van een Galaxy GeForce GTX 1660 Ti-videokaart. Ook zijn renders verschenen van kaarten van andere merken. Naar verluidt is de videokaart vanaf 22 februari te koop.

De foto's van de Galax-variant staan op reddit en zijn waarschijnlijk in een distributiecentrum gemaakt, blijkt uit een reactie van de uploader. De doos van de GeForce GTX 1660 Ti bevestigt eerdere geruchten over de komst van de videokaart. De kaart heeft 6GB gddr6-vram, net als de RTX 2060. Ook staat op de doos dat de videokaart Turing-shaders heeft. Dat duidt op de aanwezigheid van een Turing-gpu, zonder de RT-cores voor raytracing.

Op VideoCardz staan renders van GeForce GTX 1660 Ti-kaarten van EVGA en van Palit. Beide merken komen met twee varianten, waarvan één is overgeklokt. Bij Palit heeft de overgeklokte gpu volgens de geruchtensite een snelheid van 1815MHz en bij de reguliere variant is dat 1770MHz.

De GTX 1660 Ti-videokaarten zijn vrij compact en van één ventilator voorzien. EVGA zou later met modellen met twee fans komen. Volgens VideoCardz is de videokaart vanaf 22 februari verkrijgbaar. Eerder werd 15 februari genoemd, mogelijk presenteert Nvidia de kaart op dat moment. Volgens eerder uitgelekte informatie krijgt de GeForce GTX 1660 Ti een TU116-gpu met 1536 cudacores en gaat de kaart 279 dollar kosten in de VS.

Door Julian Huijbregts

Nieuwsredacteur

11-02-2019 • 13:07

97 Linkedin Google+

Reacties (97)

Wijzig sortering
Ik hoop eerlijk gezegd dat er nog een 1670 of 1680 gaat volgen aangezien Raytracing in de huidige vorm mij gestolen kan worden. De prijs voor de 1660 is in ieder geval een stuk schappelijker dan die van de RTX reeks. Ben alleen niet van plan om mijn gtx1070 te upgraden naar een 1660. Dan moet er minimaal een 1670 komen.
Waarom zou NVidia zichzelf in de vingers snijden? Als zelfs de high-end gamers 16xx-serie kaarten gaan kopen, dan breekt RayTracing niet door. Aan de andere kant, als kopers voor AMD kiezen, dan breekt RayTracing óók niet door. NVidia's belang is dat game-makers RayTracing gaan supporten, zodat de RTX kaarten de standaard worden. En daarvoor is een kritische massa nodig.

Om jouw concrete voorbeeld te nemen: jij gaat je 1070 ook niet upgraden naar een Navi 7, dus NVidia kan wachten. Als ze jou dit jaar een 1670 zouden verkopen, dan koop je volgend jaar geen 2070.
Raytracing wordt ook in Direct X ondersteund (DXR), RTX is de nVidia technologie om dat te ondersteunen. AMD heeft aangegeven dat ze het niet zullen ondersteunen totdat men het in al haar product ranges van low-end tot high end kan ondersteunen. Daarachter zit gewoon een financiele risico afweging, de technologie ontwikkelen kost nu eenmaal geld en AMD heeft in dat opzicht minder R&D budget als nVidia.
AMD wacht af of het nVidia lukt om hier een markt mee aan te boren, lukt dat niet dan laten ze support achterwege en gaat het geld naar andere prio's in de GCN ontwikkeling. Lukt dat wel, dan zien we het niet eerder terug als in Navi20 vermoed ik zo.
Dubbed Radeon Rays, the company’s ray tracing developer suite will now support real-time ray tracing in Radeon Rays 2.0. The new engine is compatible with OpenCL 1.2. Built on Vulkan, Radeon Rays 2.0 leverages the API’s advanced support for asynchronous compute to make real-time ray tracing a reality. AMD is offering Radeon Rays 2.0 for free, the latest version of the SDK can be downloaded directly from GitHub.
Amd gebruikt open source ray tracing .
Dat lijkt me een faire inschatting van AMD's positie, en NVidia weet dat ook. Dat is waarom ze RayTracing als een high-end oplossing kunnen pitchen. Nu kunnen ze er nog een goede high-end marge op maken; zodra AMD het ook implementeert kan NVidia de 1660 droppen en een nieuwe 2050 midrange kaart introduceren. Waarom zou je nu al je eigen high-end beconcureren?
Omdat men ze nu vanwege de te hoge prijs ook niet koopt. Iets wat Nvidia zelf ook al toegegeven heeft vanwege de tegenvallende verkoopcijfers van de RTX kaarten. Niet meer dan logisch dat er dan een goedkopere kaart op de markt gezet wordt zonder RT.
En waarom zou Nvidia moeten bepalen wat voor nieuwe soorten technieken gebruikt "moeten" worden? Een halfbakken RT technologie die de prestaties van je veel te dure videokaart alleen maar naar beneden haalt. Dan is het toch niet meer dan logisch dat men daar liever niet voor betaald?
Daarom bekijk ik het puur vanuit het oogpunt van een consument.

Dus wellicht hebben ze zichzelf al in de vingers gesneden door RT te vroeg te introduceren.

[Reactie gewijzigd door Enyalios2011 op 11 februari 2019 17:22]

nVidia heeft zichzelf al in de vingers gesneden met de belachelijke RTX prijzen, de schaarste van de GPU's en de belabberde drivers.

Voor mij hoeft er ook geen non-rtx 2070/80/ti te komen, dat zou simpelweg gewoon te veel aanbod zijn, wat waarschijnlijk ook niet de PC-gaming (optimalisatie) ten goede zou komen. Maar wel graag even 2-300 euro in prijs zakken met hun GTX-paardje.
AMD met hun nieuwe Radeon 7 dan nog meer want die kost hetzelfde als een 2080 en heeft geen raytracing.
Zolang het niet in consoles zit en het ook niet cross-platform is, heb je geen drol aan RayTracing helemaal in-game niet "Ook aangezien alleen Nvidia sponsored games het hebben". (oh, oh, je kunt je eigen reflectie zien "mega mieters high-tech mn jonge")

voor het geld heb je er geen drol aan, helemaal in-game niet.

[Reactie gewijzigd door stewie op 12 februari 2019 01:00]

Amd fanboy ? Ik vid dat elke vooruitgang gesupport moet worden. En ook bij niet nvidia gesponsorde games kunnen de devs het implementeren. En wij kunnen ook nog niet weten wat de volgende de generatie consoles ondersteunen. De huidige generatie kan het misschien niet maar de volgende waarvan de dev kit naar de game ontwikkelaars is gestuurd misschien wel. AMD heeft zojuist hun nieuwe kaart uitgebracht voor dezelfde prijs met dezelfde performance maar zonder raytracing. Dus blijkbaar moeten we gewoon meer gaan betalen voor deze generaties. En dan betaal ik liever voor een feature met toekomst perspectief.
Tuurlijk fanboy dat is het!!!! Realist, er is niet of nauwelijks support en dat komt er ook niet de komende paar jaar omdat het ook niet in de next-gen consoles gaat zitten..
Ik zeg niet dat non-gesponsorde games het niet kunnen implementeren, maar zolang Nvidia ze niet betaalt doen ze het niet.. (De winst is te klein om er ontwikkel tijd in te steken, ook omdat het alleen Nvidia only is en het ook niet op console werkt)

het is nu gewoon een gimmick, en om volledig geraytracde games kun je nog wel 2 console generaties wachten want dat trekt de 2080 en 2 generatie van nu echt niet(10/12 jaar)
En leuk dat jij nog in fanboys gelooft anno 2019, want dat bestaat niet meer. (Bijna alle chips zijn hetzelfde, en AMD zal ook tensor cores/DXR krijgen in de volgende generatie)

[Reactie gewijzigd door stewie op 12 februari 2019 14:23]

Die nieuwe AMD kaart is de Radeon VII. Deze is nog steeds gebaseerd op Vega, gezien Navi nog niet klaar is op dit moment om uitgebrachtte worden.

Zelf ben ik echter wel groots voorstander van raytracing, maar zoals Nvidia het nu doet met RTX denk ik persoonlijk niet dat het gaat werken. Ik zit op dit moment nog steeds met een GTX 970 en ben niet van plan te upgraden tot Navi op de markt komt.

De RTX-lijn aan videokaarten zijn op dit moment vrij duur en je hebt weinig waar voor je geld om bijvoorbeeld een RTX 2070 te kopen over een GTX 1080, wat eigenlijk vrij jammer is voor ons als consumenten gezien wij hadden gehoopt op hetzelfde effect dat Pascal had.
Ik hoop eerlijk gezegd dat er nog een 1670 of 1680 gaat volgen aangezien Raytracing in de huidige vorm mij gestolen kan worden. De prijs voor de 1660 is in ieder geval een stuk schappelijker dan die van de RTX reeks. Ben alleen niet van plan om mijn gtx1070 te upgraden naar een 1660. Dan moet er minimaal een 1670 komen.
De denkfout die hier achter lijkt te zitten is dat RTX de kaarten duur maakt. Reken er maar op dat Nvidia zonder ray tracing dezelfde prijzen hadden gerekend. Ze hebben in 2018 immers geleerd dat de consument meer dan 400 euro bereid was te betalen voor kaarten als de GTX 1060 6GB. AMD Radeon geeft verder geen tegengas dus voorlopig kunnen ze de hoge prijzen verantwoorden, ook zonder RTX.

Of navi hier verandering in gaat brengen weten we nog niet, maar wat we wel weten is dat we Navi niet voor september 2019 hoeven te verwachten.
Helaas geeft AMD inderdaad geen tegengas. Anders had ik het gerust eens aangedurfd om de overstap te maken. Maar met de huidige AMD kaarten is er zelfs voor mijn GTX1070 niet eens een geschikte vervanger qua prijs/prestaties.
Ik zit er over na te denken om een GTX1080ti aan te schaffen of om een generatie over te slaan.
Ik begrijp echt weinig van het versiebeheer van Nvidia. Het begint onderhand wel een zooitje te worden na mijn mening. Van (GTX) 10xx naar (RTX) 20xx, okee, Maar nu weer terug naar 16xx? Niet 1160 omdat het de GTX reeks is? Vraag me af of we meer 16xx kaarten gaan krijgen / waar de volgende versies heen gaan.

Misschien gaan ze voor minst voorspelbare versie namen.

En is de Ti nu het nieuwe 'normale' model en de non-ti straks een underclockte versie?
Je bent niet de enige die daar niks van begrijpt :P
Maar dat Nvidia schijt heeft aan zijn klanten is zeker.
Al een aantal keer zijn klanten voorgelogen (gtx970 verhaal bv), Een dure Titan uitbrengen en dan ietjes later een veel goedkopere 80ti kaart uitbrengen die minstens even snel is. Nu een ti kaart voor ruim over de 1000 Euro en een Titan voor 2500 Euro, een te dure 2000 reeks, een 1100 reeks en een 1600 reeks.

Damm, dit snapt geen enkele consument meer, wel dat de prijzen omhoog gaan :P

Nvidia is een concurent van zichzelf......Amd heeft nog een lange weg te gaan helaas.
Anno 2019 als consument is er geen concrete "vervanging" voor een 1080 het komt in de buurt maar is het nét niet of je kunt diep in je portemonnee graaien. Met zoveel verwarrende releases in vrij korte tijdstek, hoe kan men zich een keuze maken voor een midrange GPU?
Ja, waar die 16 vandaan komt is me ook een raadsel.

In een eerdere leak bestond de rtx 2060 helemaal niet en hadden ze een gtx 2060. Waarschijnlijk denken ze geen ~300 euro te kunnen vragen voor een kaart die gtx 2050Ti heet en heeft marketing dus maar iets nieuws uit hun duim gezogen.
eigenlijk is het niet moeilijk :)
GTX vs RTX het gaat om nieuwe techniek dus ze hebben dit gewijzigd naar raytracing.
alle 20xx kaarten hebben minstens 1920 (afronden naar 2000) cuda cores en 8k support
16xx heeft geen raytracing dus GTX kaart en max 1280 cuda cores en max 4k support
TI is niet normale model want GTX 1660 is verkrijgbaar in 2 versies.
Ik gok dat de serie tussen 10 series en de RTX 20 allemaal in die vorm worden benoemd: GTX 1550 1660 1770 1880 en dan 20 series en zo verder tellen tegen die tijd stoppen ze waarschijnlijk met GTX? Mss een nieuwe tag naast RTX of alles RTX vanaf dan? Wie weet...
Dit soort naamgeving is echt om het moeilijk te maken voor de klant om een duidelijk lijn te trekken in wat nu met wat moet vergeleken worden. Beetje opzoekingswerk doen? Je komt er gewoon niet uit en doet dan maar "het nieuwste" wat dat ook moge wezen.

Plus, dan kunnen ze de onwetenden van die leuke gedachten doen maken zoals 1060 -> 1660 wow 60% beter!
en toch ben ik benieuwd waar deze kaarten staan qua prestaties...je zou zeggen tussen de GTX1080 en de RTX2060 in, maar eerst zien en dan pas geloven.
Hij komt duidelijk onder de 2060 te zitten en wel boven de oude 1060 maar ik gok daar ergens in het midden.
Waarschijnlijk tussen de 1070 en de 2060. Een 1080 is beter dan een 2060.

Waarschijnlijk is dit nvidia's antwoord op Navi, mid range GPU's zonder toeters en bellen.
Ligt aan je workload, als je 4K DLSS gebruikt dan is de 2060 sneller
Alleen zijn er geen applicaties of spellen die daar nu gebruik van maken, dus die snelheidswinst is relatief.

https://gpu.userbenchmark...vidia-GTX-1080/4034vs3603
Alleen zijn er geen applicaties of spellen die daar nu gebruik van maken, dus die snelheidswinst is relatief.

https://gpu.userbenchmark...vidia-GTX-1080/4034vs3603
Final Fantasy XV is een titel die het wel degelijk gebruikt maar als ik eens op YouTube kijk heb je het over 24~30fps op 4K mét DLSS en 14~22fps zonder DLSS, als je 4K wil ga je gewoon niet voor een 2060. (of een 1080)

Edit: En dus al helemaal niet voor een 1660 Ti.

[Reactie gewijzigd door Evernote op 11 februari 2019 14:17]

Je bedoelt de benchmark voor FF XV die niet perse representatief hoeft te zijn voor échte prestaties?
Een beetje achterdochtig ben ik dan wel, maar het zou ook gewoon kunnen dat die benchmark dingen aanpast ;)
Ondanks dat dit wellicht niet representatief is moge het duidelijk zijn dat een 2060 net als deze 1660 ongeschikt zijn voor 4K.

DLSS is uiteindelijk ook een extraatje, je kan AA ook helemaal uit laten als je betere prestaties wil.
Ja het maakt er gebruik van, alleen is dat niet echt een nieuwe game. En de developers worden best hevig beinvloed door Nvidia, kijk maar eens naar hoe flawed die benchmark van de laatste Final Fantasy is. Het spel zelf is wel geniaal
Dit is alleen met een nog niet-matured technologie. DLSS is een deep-learning algoritme en kan dus nog heel veel verbeteren.

[Reactie gewijzigd door NotCYF op 11 februari 2019 22:45]

[...]


Final Fantasy XV is een titel die het wel degelijk gebruikt maar als ik eens op YouTube kijk heb je het over 24~30fps op 4K mét DLSS en 14~22fps zonder DLSS, als je 4K wil ga je gewoon niet voor een 2060. (of een 1080)

Edit: En dus al helemaal niet voor een 1660 Ti.
Ja want 24~30fps op 4K zijn realistische snelheden bij een First-person shooter 8)7

Ja je hebt gelijk een 2060 en 1080 zijn niet kaarten voor om op 4K te gamen, al helemaal niet met een First-person shooter.

En hoop dat er een Low Profile versie komt van de GeForce GTX 1660 Ti, net als van de Geforce GTX 1050 Ti, dan kan je in een heel klein behuizing doen, die net zo groot is als een Xbox One.

[Reactie gewijzigd door AmigaWolf op 12 februari 2019 16:14]

Vanaf morgen is DLSS te gebruiken in Battlefield V na de patch, dus valt het vanaf dan te gebruiken.

Desondanks is dat alsnog maar 1 spel en is het de vraag naar hoeveel spellen dat uitgebreid gaat worden over de komende jaren.
ja true dat is waar !

er zullen dit jaar :

Ark: Survival Evolved
Anthem
Atomic Heart
Battlefield V
Dauntless
Final Fantasy 15
Fractured Lands
Hitman 2
Islands of Nyne
Justice
JX3
Mechwarrior 5: Mercenaries
Metro Exodus
PlayerUnknown’s Battlegrounds
Remnant: From the Ashes
Serious Sam 4: Planet Badass
Shadow of the Tomb Raider
The Forge Arena
We Happy Few
Darksiders III
Deliver Us The Moon: Fortuna
Fear the Wolves
Hellblade: Senua’s Sacrifice
KINETIK
Outpost Zero
Overkill’s The Walking Dead
SCUM
Stormdivers

maar of dit genoeg zijn zijn om gamers over te halen blijft de vraag. RTX is voor de meeste nog steeds een flop, en de snelheids winst komt niet door hardware, maar gewoon software trucjes uit te halen. Hun aandeel spreekt boekdelen. Ze zijn vandaag alweer gedowngrade, en het ziet er niet goed uit voor Nvidia. We beginnen nu te zien wat er gebeurt als een bedrijf te veel leunt op fanboyism en monopoly.

RTX/DLSS gaat hem niet worden, en dat weten de stock holders ook. Het is niet interresant, en de gamers ervaren het als een downgrade/flop omdat qua rasterization niet veel sneller is als Pascal.
het is jammer dat de markt nu zo is geworden.
Een antwoord op een kaart die, helaas, nog steeds niet is aangekondigd.

Voor midrange is deze kaart, met de prijsstelling in acht genomen, een doodslag voor AMD. Zolang AMD geen Navi kaarten aankondigt en ook daadwerkelijk gaat leveren, lopen ze qua prestaties in het middensegment gigantisch achter. Vooral het verbruik (in watt) van AMD baart mij zorgen, het lijkt wel alsof ze dit niet goed onder controle kunnen krijgen.

Erg jammer want mijn videokaart (AMD) is eigenlijk wel aan vervanging toe, en ik ben eerlijk gezegd geen fan van hoe nvidia omgaat met drivers voor non-Windows.
Omdat ik een stille gaming rig wil, ben ik sinds de GTX 760 weer in het Nvidia kamp (de jaren daarvoor was AMD iets langzamer, maar veel zuiniger en dus stiller) en ik zou ook graag die concurrentie weer zien. Met de 590 heeft AMD op dit moment de meest interessante mid-range kaart (overall sneller dan de 1060 en verbruik is voor de meesten geen factor / argument) maar het moge duidelijk zijn dat de GTX 1660 Ti daar een abrupt einde aan gaat maken. Dan wordt het minimaal tot Q3 en eerder Q4 wachten op een potentieel antwoord van AMD...da's toch geen situatie die voor ons als consument goed is.
Met de 590 heeft AMD op dit moment de meest interessante mid-range kaart (overall sneller dan de 1060 en verbruik is voor de meesten geen factor / argument) maar het moge duidelijk zijn dat de GTX 1660 Ti daar een abrupt einde aan gaat maken.
Ik vind de 570 en 580 veel aantrekkelijker, de 590 is niet veel sneller maar wel flink duurder.
Ik had me er niet heel erg in verdiept, maar inderdaad, de RX 590 is niet echt interessant. Zoals het er nu bijstaat is de RX 580 in de meeste gevallen wat sneller dan de GTX 1060 en daarnaast goedkoper. De RX 570 zit er wel een stukje onder wat betreft performance (en prijs) dus hoe interessant die is, hangt af van je behoefte. Hoe dan ook is de RX 570 een stuk sneller dan de GTX 1050 Ti op ongeveer hetzelfde prijspunt en de RX 580 is doorgaans sneller dan de GTX 1060 op ongeveer hetzelfde prijspunt. Duidelijk een goede positie voor AMD.

Rond de RX 570 zal weinig gebeuren, maar het zou zeer vreemd zijn als de GTX 1660 Ti niet merkbaar beter gaat presteren dan de RX 580/590 tegen een flink lager verbruik en waarschijnlijk op eenzelfde prijspunt. Nvidia zal niet inzetten in een blijvend goede verkrijgbaarheid van de GTX 1060 en dan zal het er snel op neerkomen dat als je meer wil dan wat de RX 570 biedt, je eigenlijk automatisch bij de GTX 1660 Ti uitkomt.
Opzich geen verkeerde zet vind ik... Als het nou rond de 230 euro gaat kosten ga ik het wel aanschaffen. Kan het niet meer veroorloven om achterlijke bedragen uit te geven. Pas een huis gekocht 8)7
voor ons zijn consoles juist zo mooi, goedkope aanschaf en je kan het verkopen als Blu-ray speler aan je vrouwtje, beste vent die mijn vrouw weet te overtuigen dat een 1000+ PC waar ik alleen achter mag het geld waard is.

Videokaarten/dikke pc build is niet voor iedereen weg gelegd.
Hoewel dat waar is, op lange termijn bespaar je door "1000+" neer te tellen. Zo duur hoeft een pc niet te zijn trouwens. Ik heb deze maand een leuke budget game pc samengesteld (2e hands en nieuw gecombineerd). Heeft me 825 euro gekost.

Wat zit er in?

Ryzen 7 2700: €268,95 (Nieuw)
Mobo: Asrock-X470 - €129 (Nieuw)
Corsair Vengeance RGB 16 GB 2666mhz DDR4 geheugen (dual channel) - €126,45 (Nieuw)
GPU: GTX 980 (vraag & aanbod) €160
PSU: Corsair VS Series VS650 - €57,85 (Nieuw)
HDD/SSD - HAD IK TOEVALLIG LIGGEN (WD BLACK, 2x SSD 256GB SAMSUNG EVO) €0
Case: Thermaltake View 28 RGB - €78,13 (Nieuw)

Dit alles bij elkaar: € 825

Windows 10? Heb ik op mijn microsoft account als digitaal licentie, verloopt nooit.
Toetsenbord/Muis/Monitor? Ik heb een Toetsenbord en een muis nog liggen van mijn oude PC, anders koop ik wel de goedkoopste, LOL.

Monitor kan ook wachten want je kan elke moderne TV als (tijdelijk) monitor gebruiken.

Waar een wil is, is een weg zeg ik dan maar. Je kan besparen door ALLES tweedehands te kopen. Het enige wat ik in mijn systeem 2e hands heb gekocht is videokaart, want, NAVI :9 :*)

met consoles betaal je 60 euro(!) per spel.. dat vind ik doodzonde van mijn geld.

[Reactie gewijzigd door D.Demirel op 11 februari 2019 16:20]

Even snel deze calculatie omver helpen dan maar? Xbox one of PS 4 op marktplaats 150/250 met spellen daarnaast kosten spellen op marktplaats of budgetbak misschien 10/30 euro.

825 is nog steeds veel te veel voor wat je ervoor terugkrijgt.

[Reactie gewijzigd door Vieuxtje op 11 februari 2019 17:29]

Totdat de ps5 uitkomt....

Een PC heeft geen houdbaarheidsdatum... met een console is dat niet het geval. Zo bedoelde ik het meer in de zin van "op lange termijn". Het klopt dat je oudere spellen voor een 10tje kunt krijgen op MP. Op de PC? Soms wel 35/40 euro op release. Doe je niet na op een console. Ik heb zelf ook consoles gehad naast een PC. Ik doe voortaan meer dan alleen spelletjes spellen vandaar dat mijn voorkeur gaat naar een goed doordacht Pc configuratie. Videobewerken, 3d modeling,photoshop, websites maken etc.

[Reactie gewijzigd door D.Demirel op 11 februari 2019 18:51]

de PS4 is uit 2013 dat is bijna 6 jaar... een 6 jaar oude pc is ook wel een beetje klaar en aan upgrades toe.

dan is jou pc ook deels werk en meer dan een game pc.

[Reactie gewijzigd door Vieuxtje op 11 februari 2019 19:44]

Je vergelijkt dan een console aan het einde van z'n levens cyclus met een pc die nog wel even vooruit kan en mogelijk alleen over een tijd een sneller kaartje nodig heeft... En waar de games veel goedkoper op zijn ;p En online gratis is. Om de afgelopen generatie games te kunnen spelen hoef je op pc gebied nog veel minder uit te geven, daar was zijn voorbeeld dan ook niet voor bedoeld.
Online is €2/3 per maand, games zijn altijd in de aanbieding ergens betaal nooit meer dan 40 voor AAA titel en vanaf start tot eind van de cyclus is het 6x 50 euro per jaar voor een console.

Videokaart alleen is al 100+ per jaar.
In het stuk staat dat dat het vermoedelijk 279 dollar gaat kosten in Amerika, voor Europa dus nog wat meer.
In het stuk staat dat dat het vermoedelijk 279 dollar gaat kosten in Amerika, voor Europa dus nog wat meer.
Als ik 279 dollar omreken naar euro's kom ik uit op €245,90. Dit is natuurlijk exclusief import kosten en al dat gedoe. Zal niet 300 euro gaan kosten denk ik na alle kosten erbij opgeteld?
Alleen al 21% BTW over 245 is iets meer dan 51 euro. Deze kaart zal dus al snel richting de 300 euro gaan..
Oei.. dan is ie niet zo aantrekkelijk en budget vriendelijk. Kan beter een 2e handsje van vorige generatie kopen. Of AMD.


Edit: de RTX 2060 heb je voor ~360 euro. Wie zal dit kaart gaan kopen als het boven de 300 euro wordt geprijst?! Je krijgt minder voor je geld... geen raytracing cores...

[Reactie gewijzigd door D.Demirel op 11 februari 2019 17:25]

Voor zover ik de reviews lees, geeft de 2060 je een betere prijs/prestatie verhouding dan de 1080.
Het gat tussen een 1080 en een 2060 qua performance is.. heel klein... ~5-10 fps... Iets daar tussenin zetten is onbegonnen werk.
Volgens mij bedoel je GTX1060 en niet 1080. Met 1536 CU's gaat de 1660Ti nooit de performance van een 1080 (2560 CU's) evennaren.
Met 1536 CU's betwijfel ik ten zeerst dat de GTX1660 beter zal zijn in games dan de GTX1070 met 1920 CU's. GDDR6 memory is erg leuk voor de synth benchmarks maar games willen meer spierkracht niet meer doorvoersnelheid.
Deze kaart zal ongeveer 15% sneller zijn dan een GTX1060 maar dat is het.
Er is meer dan enkel Cuda Core Count. Maar tot er kaarten naar reviewers zijn gestuurd en er benchmarks wereldkundig zijn gemaakt, blijft het speculeren op basis van cijfertjes.
Deze kaart zal ongeveer 15% sneller zijn dan een GTX1060 maar dat is het.
De GTX 1660 heeft al 20% meer Cuda Cores dan de GTX 1060 (6GB) en heeft daar bovenop GDDR6 vs GDDR5. Het zal eerder 25-30% sneller zijn, tenzij de GDDR6 trager is dan GDDR5.
20% meer Cuda cores betekent niet per se 20% meer performance. En nogmaals, het hebben van GDDR6 zal niet veel invloed hebben op de performance van deze kaart. Dit is namelijk echt een 1080p kaartje en zal dus niet echt veel voordeel halen uit de hogere doorvoersnelheid van GDDR6. 20% zou nog kunnen, maar ik zou echt niet op 30% meer performance rekenen. Daarvoor zijn Cuda cores toch echt nog te veel de doorslaggevende factor in Nvidia videokaarten.
Maar hoe kom je dan bij 15% sneller? Zoals ik al aangaf blijft het speculeren maar ik zie echt geen reden waarom 20% meer cores én sneller geheugen niet in minimaal 20% winst zal resulteren.
20% meer Cuda cores betekent niet per se 20% meer performance.
Daarvoor zijn Cuda cores toch echt nog te veel de doorslaggevende factor in Nvidia videokaarten.
:?

Daarbij hangt het ook sterk van de omstandigheden af en zaken als koeling, driver support/optimalisatie, enzovoorts. Maar onder identieke omstandigheden zal de 1660 minimaal 20% beter presteren dan de 1060.

[Reactie gewijzigd door musje83 op 11 februari 2019 15:34]

Wat boeit dat nou. De verwachting simpel. Het ding is ietsje sneller dan de GTX1060 en trager dan de 2060, klaar! Waarom dan een eeuw doormekkeren over percentages? Mij lijkt het geheel heel duidelijk. Een paar procent meer of minder zal niemand overtuigen om deze kaart WEL of NIET te kopen. Het is in elk geval heel duidelijk geen boeiende kaart als als je al een 1060 hebt. Dat je dan perse wil horen dat hij MINSTENS 20% beter is... whoaah :P topkaart :P
Boeit ook weinig. Maar Tim2010 zei vrij stellig "Deze kaart zal ongeveer 15% sneller zijn dan een GTX1060 maar dat is het.". En daar ging ik tegenin :)
De reden waarom ik dat doe is omdat ik hier percentages en vergelijkingen langs zie komen die (gezien de kleine sprong voorwaarts qua hardware specs vergeleken met de 1060) totaal niet realistisch zijn. GTX1070 niveau qua performance moeten we niet verwachten. En de schatting maak ik op basis van het CU verschil tussen de GTX1060 en 1070 en hoe groot de performance verschil tussen deze twee is. Het blijft natuurlijk natte vinger werk maar ik zie mensen totaal onrealistische verwachtingen hebben voor deze kaart gebaseert op...niets?.

[Reactie gewijzigd door Tim2010 op 11 februari 2019 16:10]

nou nu lijkt de 1070 me wel een mogelijk doelwit voor deze kaart, om je eigen metings methode te gebruiken.

de 980 ti met 2816 cuda cores meet zich met de 1070 van de volgende generatie die er maar 1920 heeft.
en de 1080 met 2560 cuda cores kan zich meten met de RTX 2060 die er 1920 heeft

nu is de prestatie winst t.o.v. de vorige generatie voor turing nie zo hoog als voor pascal en zou de kaart zeker een oc nodig hebben om zich echt te kunnen meten met de 1070 maar is zeker niet kansloos.

helaas zou daarom deze kaart voor mij oninteressant zijn, zal mogelijk even snel en met even veel vram als mijn huidige 980ti zijn, leuke vooruitgang maar voor mij niet snel genoeg.

zou wel een grappig voorbeeld zijn van hun vooruitgang, eerst 2816 cuda cores nodig, generatie erna nog maar 1920, en generatie daar na nog maar 1516 voor dezelfde prestaties (als het zo uitkomt als ik verwacht)

[Reactie gewijzigd door anub1s17 op 11 februari 2019 23:05]

Er speelt natuurlijk meer mee inderdaad, zoals clock speeds bijvoorbeeld maar aangezien deze niet zoveel afwijkt (1815Mhz voor de 1660Ti OC versie terwijl de clocks voor de standaard 1070 rond de 1800Mhz zijn) zal de prestatie niet de 1070 evenaren. Verder zijn er geen grote wijzingen in de architecture van Pascal naar Turing. Een die shrink en de toevoeging van Tensor en RT cores.
De reden waarom de 1070 net zo goed was als de 980Ti was dankzij de flink opgevoerde clock speeds (1280Mhz tegen 1822Mhz).
Is 't waard om een 1060 te upgraden naar een 1660? Twijfel of deze of de 2060
Je kan dan beter een 2e hands 1070 of 1080 op de kop tikken. De 2060 kan niet fatsoenlijk RT'en eb deze 1660 zal wss tussen de 1070 en 2060 zitten.
De 2060 kan wel fatsoenlijk RT'en, het is maar wat je er van verwacht. De reviews zijn juist verrast dat de 2060 toch nog redelijk presteert op RT gebied.
Dat inderdaad, zie voor uitgebreide informatie daarvoor: https://www.youtube.com/watch?v=E2pMxJV4xr4
Bottom-line: met wat optimalisaties en een kleine overclock, kun je Battlefield5 op 60 fps al vrijwel stabiel krijgen, met een RTX2060. Daarnaast, de DLSS patch voor Battlefield is hierin niet meegenomen en ook lijkt Battlefield nog niet echt rekening gehouden te hebben met de komst van de 2060. Dus er is ruimte voor verbetering in de game zelf.

Met de ondersteuning voor DLSS / VRS op de 2060 ben je meteen een stukje toekomst gericht zelfs als raytracing niet je interesse heeft. Beide technieken kunnen de performancewinst van een 2060 in niet RT games nog verder omhoog helpen. Neemt niet weg dat men ook gewoon een 2e hands 1070 (ti) of 1080 op de kop kan tikken maar doe dat niet omdat de 2060 geen capabele kaart is :)
ik zou dan persoonlijk eerder naar een 1070ti of 1080 2de hands gaan :)

Als je op een budget zit (nja budget kan je het eigenlijk niet noemen met die prijzen) is de prijs kwaliteit van een 2de handse kaart die nog garantie heeft eigenlijk veel beter :)
Ik heb er ook over zitten denken.. Of een 2060FE voor 380 of een 2e hands 1080Ti voor 540. Ben maar voor het laatste gegaan, kost de helft meer maar een boel meer performance.

Raytracing is voor mij nog iets te pril en ik wil de kaart vooral voor VR. Mijn 970 is net iets te krap tegenwoordig.
Hij zal ~30% sneller zijn, ~300 euro?
Als hij niet teveel wattage wegstoot lijkt het me een kaartje voor mij.
Antwoord op de RX590 of niet krachtig genoeg?
ben ik de enige die zich afvraagt waarom ze dit dan niet gewoon een GTX 1160 Ti noemen?
Ik dacht juist dat GTX 1660 Ti > GTX 1050Ti, en is nieuwere gen, dus waarom niet GTX2050Ti ?

Of ben ik helemaal in de war met de type nummers bij Nvidia ? Feit is dat deze kaart een gebin-de TU116 heeft zonder raytracing cores.
Helemaal niet zo raar, idd GTX2050 TI

Maar ik denk dat ze de optie open willen houden om nog een GTX kaart tussen de RTX2060 en RTX2070 uit te brengen, als dat nodig is om tegengewicht te bieden wanneer NAVI van AMD uitkomt?! En dan is het een duidelijker onderscheid om deze dan GTX16x0 te noemen.
Als ik alle recente benchmarks van zowel het groene als het rode kamp zie, ben ik eigenlijk steeds blijer met mijn GTX 1080 Ti . Het nieuwe aanbod wordt steeds waziger.
nou die prijs zal weer in nederland over de 300 euro zijn,lekkere hebberige prijs weer van Nvidia.slaat nergens op zo, ja dit krijg je als AMD verder blijft slapen.
En als gebruikers verder blijven slapen en blind toch bij Nvidia blijven.
Koop gewoon een AMD, hoe meer mensen bij Nvidia weglopen des te eerder gaat Nvidia de prijzen aanpassen.
Het is me nou niet meer duidelijk wat nou de betere versies zijn bij nvidia.

Je hebt de 1080 ti, de 2080 ti, 1660 ti, en als je naar de nummertjes kijkt zou je zeggen 2080 > 1660 dus 2080 beter.... Maar jah, het zal.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True