Door Willem de Moor

Redacteur

Nvidia's GTX 1660 Ti Review

Turing zonder Turing

22-02-2019 • 15:00

154

Singlepage-opmaak

Conclusie

Als we alle cijfers op een rijtje zetten, is de GTX 1660 Ti op de full-hd-resolutie een dikke 40 procent sneller dan de GTX 1060. Op wqhd is dat bijna 44 procent en op 4k 46 procent. Gemiddeld over alle games en resoluties komen we uit op afgerond 43 procent snelheidswinst.

Kijken we naar de volgende stap, de GTX 1070, dan is er nog steeds een voorsprong, maar die is gereduceerd tot een procent of vier op 1080p en 1440p. Op 4k is de 1070 vooral op de Ultra-settings iets sneller, maar veel scheelt het niet, want alle prestaties gemiddeld genomen is de 1660 Ti nog altijd ruim 4 procent sneller dan de 1070.

Nog een stapje sneller, en duurder, is de GTX 1070 Ti. Op full hd is die ongeveer vijf procent sneller dan de 1660 Ti en op 1440p is dat met bijna 6 procent iets meer. Op 4k loopt de 1070 Ti verder uit naar een voorsprong van bijna 9 procent. Over alle games gemiddeld is de 1070 Ti bijna zeven procent sneller, maar uiteraard ook een stuk duurder.

In dit segment is weinig van AMD te koop. De Radeon RX 590 is wat goedkoper dan de 1660 Ti, maar mondjesmaat verkrijgbaar en bovendien een stuk trager. Het zou zinniger zijn naar de Vega 56 te kijken; die is iets beter verkrijgbaar, maar wel iets duurder dan de 1660 Ti, hoewel je drie games cadeau krijgt. De prestaties zijn op lagere resoluties echter iets minder. Op 1080p is de 1660 Ti net één procent sneller, op 1440p is dat vrijwel hetzelfde en op 4k is de Vega-kaart meestal iets sneller, ongeveer 3 procent. Alle scores gemiddeld komen we op een verschil van niets uit. Dan hangt het een beetje af van je wensen: wil je een AMD-kaart voor iets meer geld, die een stuk minder zuinig is, of de kaart van Nvidia? Als de prijzen inderdaad rond de 300 euro voor de GTX 1660 Ti uitkomen, zou dat de logischere keuze zijn.

Als je nog een oude kaart te verkopen hebt en je je budget van 300 euro met pakweg 75 euro kunt verhogen, is het grote broertje van de 1660 Ti, de RTX 2060, misschien een optie. Die is een ruim tien procent sneller en niet zo gek veel duurder, en ook bij de 2060 krijg je een game cadeau. Bovendien heb je dan in ieder geval de optie om dlss en raytracing eens te proberen.

Lees meer

Reacties (154)

154
150
91
1
0
38
Wijzig sortering
Aardige prestaties, maar voor wie is deze kaart nu bedoeld? ik heb zelf een 1060 en als ik meer prestaties zou willen, dan zou ik destijds wel een 1070 (Ti) hebben gekocht of tussentijds zijn overgestapt op een 1070 (evt. tweedehands). mijn overstap nu zou eerder een 2070 zijn.
Deze kaart komt op mij een beetje over als een upgrade die eigenlijk al lang aanwezig was in de vorm van de Gtx1070, tenzij je misschien een nieuwe build doet of nog bijvoorbeeld een Gtx960 hebt.
Desondanks denk ik dat dit een betere keus is voor een nieuwe build, dan de RTX2060, waar de raytracing eigenlijk overbodig is omdat de kaart niet krachtig genoeg is.. of zie ik het verkeerd? :?
"Aardige prestaties, maar voor wie is deze kaart nu bedoeld?"

Als niet-meer gamer ben ik denk ik een vreemde eend in de bijt, maar voor mij een mooie kaart op het goede moment.
4 jaar geleden een 4770K incl 750ti gekocht. Als GPU zuinig, stil en gaf wat extra voor editing icm een 4770K. De CPU en GPU ontberen beide helaas hardware matige decoding van actuele zwaardere video formaten. Dus bv HEVC 100+ Mbps materiaal kan met geen mogelijkheid vloeiend worden bekeken en ook zocht ik iets met 6GB VRAM.
Ipv een volledige systeemupgrade (cpu/mobo/ram/koeler) a ~1100euro excl GPU, heb ik nu enkel een 1660ti genomen waardoor ik een bredere upgrade nog even kan uitstellen.

HEVC 10bit 400Mbps wordt nu met 6-10% CPU belasting vloeiend afgespeeld.

Keuze voor de 1660ti ipv de 1060 bv is dat de Turing modellen weer een bredere hardware encoding/decoding support hebben dus ik hoop daarmee voor mijn gebruik weer wat future proof te zijn. En daarnaast weer een zuiniger dan de vorige generatie, wat op de lange termijn ook telt.

En misschien met deze gaming paardenkrachten toch maar weer een wat spellen oppakken;-)
heb een bijna 3 jaar oude gtx1060 gamelaptop en die gaat dit jaar een upgrade krijgen.

Vind raytracing nog niet interessant met maar 2-3 games die het nu ondersteunen en de 2060 kan het amper aan heb ik begrepen.
Laptops met een 2070 of 2080 zijn onbetaalbaar voor mij. Conclusie voor 1080p of 1440p gamen is die 1160 een prima kaart en denk dat het mijn opvolger gaat worden van de 1060.
Ik heb nog even bij de buurman gekeken (guru3d) en met een goeie overclock heb je ongeveer GTX1080/ RTX2060 performance, mocht de kaart voor 275 euro te koop zijn, dan is het denk ik wel een interessante keuze, nu is overclocken in een laptop iets minder relevant, maar dat terzijde..
De 2060 voegt dan naar mijn mening niet veel meer toe en lijkt deze kaart inderdaad de betere keuze.
De kans bestaat natuurlijk wel dat als er laptops uitkomen met de GTX1660 chip dat deze gedownclocked zijn, de vraag is dan hoeveel procent de kaart dan nog sneller is dan een 1060? is het dan nog financieel aantrekkelijk om je 'oude' laptop met GTX1060 te upgraden naar de 1660?
Die downgrade fase is eigenlijk niet meer aan de orde. Dat was nog in de tijd met de GTX960 en gtx960m, waarbij 'm' de mindere laptop versie was. De gtx1060 in mijn laptop is dezelfde als die ze in de pc's stoppen.
Aangezien een 1660 bijna 50% sneller is dan een 1060, zelfs met een kleine downgrade blijft het een grote upgrade denk ik.

Maar dan zijn er ook nog andere varianten dan de stock 1660. Msi en andere bedrijven kunnen de boel een beetje opschroeven dus moet die markt ook in de gaten blijven houden. Prijs van een 1660 is 279 dollar of 299 euro dacht ik.
Die chip mag wel hetzelfde zijn, afhankelijk van de fabrikant van de laptop kan de klokfrequentie nog steeds (flink) verschillen met de desktop modellen.
Het is dezelfde chip, maar dat wil niet zeggen dat hij op dezelfde kloksnelheid loopt. Vooral de koeling speelt ook een belangrijke rol. Genoeg laptops die het niet aankunnen waardoor de GPU vrij snel terug moet klokken (throttlen) om niet te heet te worden.
en met een goede overclock op een rtx2060 heb je ongeeer rtx2070 performance.
De 2060 heeft 1900 cores vs de gtx1660 1500 cores, de 2060 kost 40 euro meer.
25% meer performance voor 15% meerprijs.
Zelfde met de RTX 2070. Dat is nu wel de zweetspot kwa prijs en performance. Met een OC haal je zo stock 1080TI snelheid. Battefield V 1440p met alle toeters en bellen (ray tracing) 60fps. zelfde voor metro exodus helemaal met DLSS. En dat voor 500 euro terwijl de 1080TI veel meer kost en al die all die dingen niet heeft. ;)
Nou ik heb een 970 en zie deze kaart opzich wel zitten! De 970 heeft het altijd prima gedaan maar hij mag toch echt wel vervangen worden ondertussen.

Als ik de 970 voor +- 100 euro kan verkopen is het ineens niet zon dure upgrade meer.
Dit lijkt inderdaad een goede koop voor gamers die elke tweede generatie een midrange kaart kopen. Dat is heel veel goedkoper dan elke generatie de topkaart kopen - niet alleen zijn die duurder, maar dan geef je ook veel vaker geld uit. De 970 is al weer 4 1/2 jaar oud; elke 50 maanden een kaart van 300 euro kopen is maar 6 euro per maand.

Maar om die reden is je 100 euro vraagprijs voor eee 970 optimistisch. Misschien als je'm op heel korte termijn verkoopt, maar er gaan er dus veel op de tweedehands markt komen. En je hebt rond dat prijspunt concurrentie van 980's en 980Ti's, afkomstig van de nieuwe bezitters van RTX kaarten.

[Reactie gewijzigd door MSalters op 23 juli 2024 13:22]

Ik denk dat het ook zal afhangen van de 2e hands markt. Ik denk dat een 2e hands 1070 of 1080 dan prijs/performantie gunstiger gaat zijn dan een nieuwe 1660ti
Op V&A is de goedkoopste 1080 al 55 euro duurder dan de goedkoopste nieuwe 1660. Zelfs voor een 1070Ti ben je 22 euro duurder uit, tweedehands. Pas als je naar de 1070 gaat kijken vind je goedkopere modellen.

Inderdaad, 1070 < 1660 < 1070Ti is ook de volgorde in het artikel. Maar je hebt dus voor feitelijk geen meerprijs een nieuwe kaart. Als je toch voor een tweedehands kaart gaat: afdingen.
De prijzen waarvoor kaarten worden aangeboden tweedehands zijn vaak niet de uiteindelijke verkoopprijzen, die liggen lager. Een gtx1070 tweedehands koop je voor rond de 220 euro, toch dik 100 euro goedkoper dan een nieuwe 1660, plus je hebt 8gb vram wat de komende jaren nog een verschil kan maken tegenover de 6gb van de 1660
Ik heb zelf ook een 970 en zit dus ook te twijfelen om deze kaart te kopen. Maar hierboven is al aangegeven dat de RTX 2060 ook een goeie keus is omdat je voor 15% duurder 25% meer performance krijgt. Daar zit ik nu dus echt over te twijfelen. Iemand die mij daarover advies kan geven ?
uhh, maar de GTX1070 is NOOIT voor een prijspunt van 300 euro geweest, ding is amper ooit onder de prijs van 400 euro geweest (en dan waren het al extreme aanbiedingen of de minimale versies).

En de reden dat je niet de 1070 hebt gekocht is niet omdat je vond dat de prestaties van de 1060 goed waren, maar omdat de prijs van de 1070 gewoon te hoog was, want was de 1070 de prijs van de 1160 dan had je zeker wel de 1070 gekocht.

Het is maar wat je overbodig noemt mbt raytracing, de 2060 is ook nog steeds wat sneller, dus EN meer prestatie EN meer opties. Maarja wil je 4k gamen, dan zijn geen van deze kaarten echt interessant, tenzij je alles op low zet.
Feit is dat er vanaf begin dit jaar een GTX 1070 (Zotac mini) te koop is bij de mediamarkt voor 275 euro, helaas alleen bij de duitse fillialen van de Mediamarkt.
Staat er nu nog voor 289, je vraagt je af hoe het kan als die op andere plaatsen daarna minimaal 100 euro duurder is. Dat is dan ook een extreme uitzondering, weet niet of ze naar nl verschepen. Maarja, nu ben je dan toch eigenlijk wel beter af met een 1160 mits je die voor 300 kunt krijgen
Nieuw was een 1070 destijds inderdaad een stuk duurder, maar een tijdje terug was er al een 1070 voor 250 euro, (geen Ti) Ik doelde er meer op dat mijn upgrade vanaf een gtx1060 eerder een Rtx2070 zou zijn. Nu is deze inderdaad stukken duurder en ik dacht dat de 1660 rond de 350 euro zou kosten..
Maar als de prijs nog iets zakt word de 1660 toch wel een interessante upgrade vanaf mijn 1060.
Denk dat nvidia voornamelijk de 10xx kaarten wil uitfaseren.
+ je krijgt meer performance voor dezelfde prijs.
Ze moesten toch iets doen als de rtx reeks niet goed verkoopt.Toveren ze gewoon iets nieuwe uit de mouw laten gewoon terug gtx noemen dat lusten ze wel.
Nou deze kaart heeft een MSRP van $280 terwijl de 1070 volgens mij $380 ofzo was en de 1070ti nog hoger?
Wat dacht je van mensen met ongeveer 300 te besteden voor een videokaart? Dan is dit de beste keuze.
Nou deze kaart is <€295 en daar heb ik een GTX1070 nog nooit voor gezien, laat staan een 1070ti. Ik neem aan dat dit nog gaat dalen het komende jaar (mocht er geen mining revive komen).
Dus als je 1440p wilt gamen maar niet €400 uit wilde geven aan een GTX1070 en niet wilt spelen met een Vega of de €450 uitgeven voor een goede Sapphire nitro is de 1660ti je kaart.
Ik was al een tijdje opzoek naar een opvolger voor mijn gtx970, deze lijkt een goede optie te zijn.
Goede informatieve review. Dank hiervoor Tweakers.

Interessante kaart als upgrade voor mijn 970. Gemiddeld zo'n 40% betere prestaties voor -hopelijk- iets rond de 300 a 330 euro zie ik wel zitten.

Ik hou de pricewatch extra goed in de gaten de komende weken :)
Goede informatieve review. Dank hiervoor Tweakers.

Interessante kaart als upgrade voor mijn 970. Gemiddeld zo'n 40% betere prestaties voor -hopelijk- iets rond de 300 a 330 euro zie ik wel zitten.

Ik hou de pricewatch extra goed in de gaten de komende weken :)
De 1e die uit zijn gekomen zijn +- €340,- en voor 4 tientjes meer heb je een RTX2060
Hier een lijst van de beschikbare 1660Ti kaarten bij Alternate.
https://www.alternate.nl/NVIDIA/GeForce-GTX-1660-Ti

De goedkoopste is 299,- en de duurste 349,-
Launch prijzen dus. Dat gaat zeer waarschijnlijk wel dalen na een tijdje.

En ja, ik hou ook de RTX2060 in de gaten; Prima kaart inderdaad. Alleen met zo'n 380 Euro voor de goedkoopste vind ik dat net even te prijzig.
inmiddels zijn er meer zag ik net ja, alleen is PW niet bijgewerkt
1660Ti's bij Azerty ook mooie mini-itx. dan denk ik nog, voor 8 tientjes meer liever een RTX2060. maar als je budget €300,- is, heb je er een mooie kaart aan.
Zotac AMP is €369 op amazon, krijg je kleine compacte doch redelijk fabrieksoverclock.
precies, voor 4 tientjes meer heb je 25% procent meer performance, de 2060 is een betere koop.
Waar haal je die 25% vandaan? Uit de HWI prestatie index kom ik uit op gemiddeld 10%, tot maximaal 14% op 4K ultra.
Ik vind het wel tegenvallen, marginaal sneller dan een gtx1070,
Kan je dan niet veel beter een 2060 kopen?
Of gebruikte 1070 ti genoeg te koop voor mooi prijsje 250 euro meer performance.
Ik vind het ook een goede informatieve review, alleen ik kom tot een compleet andere conclusie... Namelijk dat deze kaart weinig bestaansrecht heeft. Alleen als je precies genoeg budget hebt voor de 1660 Ti, maar niet voor de 2060, dan is de 1660 Ti een goede optie. Tenzij het ding nog een stuk in prijs zakt kun je veel beter een 2060 kopen (zeg ik terwijl ik RTX weinig waard vind).
Sorry, maar als je over 'iets duurder' praat voor een Vega56... dan varieert dat met slechts een kleine ~11-15 euro bij meerdere winkels tot aan een edities die 200 extra kosten. Voor 15 euro vraag ik me zeer af of je dan niet gewoon even moeite moet doen met een Vega56 te zoeken of een generatie ouder te pakken.

De conclusie is mij wat te positief gesteld voor een Nvidia kaart die bijzonder onnodig lijkt te zijn.
Waarom is die kaart onnodig? Een Vega56 is dus ruwweg vergelijkbaar in prijs, en zeer vergelijkbaar in prestaties. Waarom zou je dan per se die kopen, dan is het op het eerste gezicht toch gewoon een kwestie van voorkeur?

Je krijgt dan wel weer 3 games bij een Vega56, maar zijn verbruik is ook echt serieus hoger. En even los van elektriciteitskosten (wat niet enorm is, maar wel optelt), je hebt dan ook een zwaardere voeding nodig, je kast moet beter zijn warmte kwijt kunnen, en waarschijnlijk is een 1660 gewoon stiller omdat hij minder hoeft te koelen.
kuch zwaardere voeding kuch

450-550W heel zwaar...... enkele eur verschil

warmte heb je een punt, maar dan nog 1 enkele 80-92cm fan dezer dagen of een 120cm fan enkel in je voeding is meer dan voldoende om die boel buiten te trekken
120cm ja? Dan moet jij wel een flinke kast hebben ;-)
Ik hou niet zo van dat stofzuigergeluid in huis, daar moet je echt een liefhebber van zijn. Ook dat vervelende feit dat fans slijten is voor mij niet zo aantrekkelijk.

Maar ja, dan heb je wel een AMD die verder... uhm... waaropm?

Ik ben echt geen nVidia fan per se, maar je suggestie dat de 1160 onnodig is vanwege een bestaande kaart die objectief gezien gewoon aanzienlijk slechter is snap ik niet.
Niks met fan te maken... die Vega56 komt te vaak boven die 1660 uit in prestaties... en is vergelijkbaar in prijs. Jouw 'objectief aanzienlijk slechter' zie ik niet in die grafieken die Tweakers aanlevert, of je focust serieus op een paar grafieken die jij belangrijker vind.

Meer prestaties en dus hitte en dus geluid tegen een paar cent stroom meer is logisch, ook daar zie ik voor deze kaart geen winst over een V56. En ik noem deze 1660 nog steeds onnodig als segment vuller, want dan kan je imo beter een 1070 kopen of die werelds euro's stroom overwegen voor een 1080.

[Reactie gewijzigd door Freaky_Angelus op 23 juli 2024 13:22]

Objectief is nou eenmaal dat hij warmer wordt, dus meer geluid maakt en de fans harder slijten.

Je aanhalingstekens kan je dus gerust weglaten, Het is vrij simpel. of je wil snel maar staat meer herrie toe (en dat gaat in de loop der tijd bij elke kaart toenemen), of je wil dat niet.

IK hou niet van de stofzuiger. Jij vindt dat prima. Dat is helemaal niet erg, daarom zinn er keuzes... en daarom is de 660 echt zo gek nog niet. Heel makkelijk te bepalen als je in plaats van emoties over een merk laat meespelen gewoon kokkt naar de waardes.

Het is zoals het is, niet zoals we willen dat het is. ;)
Leuk verhaal, jammer van de meningen die je als feiten probeert af te doen.

Ten eerste slijten fans niet harder puur omdat ze een ander type werkpunt behandelen. Dezelfde fan slijt harder als die harder moet draaien, maar verschillende soorten fans slijten niet harder puur omdat jij iets hoort qua toerental. Gezien de hier besproken 1660 axiale fans heeft en de hier inmiddels 2 jaar oude reference Vega56 een radiale fan gebruikt, zijn ze niet 1 op 1 te vergelijken in levensduur bij de verschillende toerentallen. Daarbij komt nog kijken dat radiale ventilatoren beduidend hogere toerentallen kunnen leveren (vooral ook omdat ze meer gericht zijn op luchtdruk), dus die hogere snelheid levert niet zozeer minder levensduur op... De fan is ontworpen voor een ander toerental en slijt niet harder puur omdat het geluid van de koeler anders is.

Nog beter gesteld, er is geen enkele reden om aan te nemen dat een van de twee type fans sneller stuk is als ze allebei werken op het werkpunt waarvoor ze zijn ontworpen.... Als ze goed zijn ontworpen, zijn ze beiden voor een X uur op 100% in hun levensduur geselecteerd, een Y uur op 80% en een gemiddelde snelheid van Z uur op 40%. Zowel de axiale als de radiale klinken niet best bij 100%, maar beide fabrikanten gebruiken de werkelijke 100% stand zelden, want zowel de motor als de ventilatorbladen werken efficiënter op lagere snelheden. De uitleg hiervoor gaat meerdere pagina's kosten, dus DYOR of neem aan dat er altijd een motor wordt geselecteerd op max 80% en gem. 40-50% operationeel en de 100% meestal niet eens beschikbaar is om te gebruiken. PC fans kunnen bijvoorbeeld met heel veel gemak 15 volt aan (sommige tot de 30 voordat ze poof doen).

Dus sneller slijten is een non-argument, daarvoor kan je twee verschillende types niet vergelijken.

Het geluid is daarna het onderwerp en meer een gevolg van het type koeler (fan-design vaak incorrect aangehaald, fan-design is axiaal of radiaal niet recirculatie in de kast of blower naar buiten... dat is koeler-design) dan de warmte die afgevoerd moet worden. De radiale fan integraties, founder / reference design Vega, maakt meer geluid vanwege zijn luchtstromingstechnische ontwerp, niet zozeer de warmte zelf. Als je daar de axiale ontwerpen bij pakt maken die beduidend minder geluid, maar die hebben wel als nadeel dat de warmte in je kast blijft hangen (dat is een thermische ontwerpkeuze wat mij betreft). De blower types hebben dus als voordeel dat je de warmte direct verwijdert, maar als nadeel dat ze meer geluid maken. Toevallig heb je op dit punt wel gelijk, ik heb liever meer geluid (koptelefoon zit namelijk op) en meteen de warmte uit de kast dan stiller (wat ik dus niet hoor) en alle mosfets die het warmer krijgen.

Wat betreft emoties, dat ben ik niet met je eens.. .Het is een te dure kaart die te weinig biedt en niet concurreert met andere kaarten noch een segment vult. Zowel de 1070 (345), die enkele 1080 (370, die versie wil jij niet, die maakt herrie) en zelfs de 2060 (367) zijn gewoon betere kaarten die je beter kan kiezen dan deze 1660 kaart. Daarbij heeft AMD een Vega56 (319, in de versie van axiale ventilatoren dus niet het geluid) in dezelfde range en die is logischer voor dit bedrag dan deze 1660. Ga je naar 50 euro duurder zit je op een 2060 als de betere keuze of als je wel met geluid kan leven zelfs een 1080, ga je naar 50 minder... dan zit er een gat die veel logischer was om op te vangen. Beter dan de 590, iets minder goed dan de V56, maar goedkoper en zuiniger. Dan positioneer je de kaart logisch.

Voor 300 euro is deze kaart nutteloos, hij concurreert hoofdzakelijk met de eigen producten en biedt amper iets over de AMD concurrenten (want de axiale versies zijn niet zo luidruchtig als jij stelt, hooguit groter om die warmte op te vangen... ).
Het geluid is daarna het onderwerp en meer een gevolg van het type koeler (fan-design vaak incorrect aangehaald, fan-design is axiaal of radiaal niet recirculatie in de kast of blower naar buiten... dat is koeler-design) dan de warmte die afgevoerd moet worden.
Dat klinkt zo logisch, maar is misleidend. Welk design je ook kiest, het geluidsvolume binnen dat design is absoluut bepaald door de warmte van de kaart.

En dat is voor de hele discussie direct relevant. Als een fabrikant een zelfde soort koelsysteem als dat van de Vega neemt is het resultaat dat de kaart stiller is en de fan minder toeren maakt.

Ja, fans (lagers) die harder draaien en/of zwaarder belast worden slijten sneller, kwestie van slijtage leer. Wat uiteraard waar is dat lagers onderling wel weer van kwaliteit verschillen, maar tenzij AMD betere lagers gebruikt dan nVidia komen we weer terug op de hoeveelheid warmte die verplaatst moet worden.
Voor 300 euro is deze kaart nutteloos, hij concurreert hoofdzakelijk met de eigen producten en biedt amper iets over de AMD concurrenten (want de axiale versies zijn niet zo luidruchtig als jij stelt, hooguit groter om die warmte op te vangen... ).
1. Hij vervangt een eigen model. Dat heeft wellicht kostentechnische voordelen (een lijn chips die gebint worden?). Qua straatprijs is hij nu al relevant tegenover o.a. een 1070, dus te duur is een rare opmerking als je ziet dat je hier geld bespaart.
2. Uiteraard concurreert hij direct met een AMD kaart. Jij zelf geeft al aan dat de Vega superieur is, dus je impliceert dat hij concurreert 8)7 |:(

Nogmaals, er is helemaal niks mis met jouw keuze voor de Vega, maar dat betekent niet dat deze kaart niet prima past in het gamma van nVidia. En of je het nou leuk vind of niet, de hogere temperatuur van de Vega is gewoon een nadeel (en een feit).
Je zoekt het maar uit hierna, dus heel kort:
- geluidsvolume heb je geheel fout, het design van luchtdoorstroming bepaalt het geluidsvolume en kan gewoon aangepast worden naar een stil design.
- een axiale fanlager vs. een radiale fanlager is niet vergelijkbaar in absolute toerentallen qua slijtage of zijn effecten. Heeft niets met 'betere lagers te maken', maar hoe de krachten slijtage in specifieke richtingen veroorzaken. Dat verschil is ook waarom de sneller draaiende radiale fan toch even lang mee kan gaan als de axiale fan, niks dat een radiale blower eerder stuk is omwille van het type fan.
- Ik heb geen Vega56 en ook niet voor gekozen. Het nut van deze kaart staat los van wat ik zelf heb en wat ik over deze 1660 vind.
Vega is wel een stuk sneller en iemand die klaagt over een verbruik van een Vega kaart heeft er duidelijk geen ervaring mee. Volgens reviews wordt mijn VII heet en is hij zeer luid en gebruikt hij meer dan 300 watt, in realiteit met een simpele undervolt is hij koel en niet eens hoorbaar en verbruikt hij evenveel als een RTX 2080. Reviews, clickbate, maar weinig nuttigs... Iedereen die een Vega koopt doet een undervolt en overclock. Wie het niet doet, die heeft nog niet gehoord van google vrees ik.
Ik wist dat die gaat komen. Want het is altijd hetzelfde liedje bij AMD fanboys (en voor de duidelijkheid, ik heb zelf een AMD R9 Fury, en op één tijdelijke GTX960 na heb ik eigenlijk altijd AMD kaarten gehad). Ik durf wel te stellen dat iig bij gewone Vega kaarten (VII is zo exclusief dat het misschien anders is) veruit het merendeel hem gewoon zal draaien en niks meer. Volgens mij overschat je het aantal mensen dat direct core voltages gaat aanpassen enorm, fora en reddits laten altijd een scheef beeld zien.

En het blijft altijd dus het verhaal dat een geundervolte en overklokte AMD moet vergeleken worden met een stock Nvidia. Dat is nou niet bepaald een eerlijke vergelijking. En als AMD meer te undervolten is als Nvidia, is dat alleen maar omdat Nvidia hun processen en chips beter onder controle heeft.
Klopt. Je moet Vega kopen als je het niet erg vind (of zelfs leuk) om te tweaken.
Als je zover durft te gaan als bios flashen, kom je zelfs in de buurt van een reference 1080. Dat gaat je met een 1660 niet lukken
Eigenlijk is het helemaal niet eng, check in gpu-z of je Samsung memory hebt en dat is het eigenlijk. Je hebt dual bios dus je kan altijd terug naar een werkende bios. Er kan letterlijk niks mis gaan behalve als je dom genoeg bent om beide biosses te bricken ;)
In het lage segment, volledig akkoord. Maar Vega? Komaan zeg, dat laat je toch nooit op stock draaien... Mensen die Vega kopen deden dat om te minen of om het rode alternatief van 1070 of 1080 te kopen. Die groep mensen, zijn tweakers... Vega is pas sinds een paar maaanden terug voor aanvaardbare prijs te kopen. Iedereen die er vroeger een gekocht heeft, wist wat te doen met de kaart. Want op stock zijn ze echt niet concurrerend met Nvidia.

En Nvidia doet het beter met een veelvoud van het R&D budget. Shocker...

[Reactie gewijzigd door JRMBelgium op 23 juli 2024 13:22]

Sowieso is het argument dat je elke Vega moet tweaken heel vreemd. Waarom verkoopt AMD kaarten die met wat veranderde instellingen opeens gehakt maken van de concurrentie.

Dat ligt niet aan R&D of nVidia die gemeen is... dat is AMD die gek is... of misschien... misschien... misschien is het verhaal hier ietsiepietsie overdreven en rooskleurig en zijn er wel degelijk nadeeltjes die we hier niet bespreken?
Ik begrijp ook niet waarom iets als hitte en geluid (effect van stroomverbruik) opeens tot zoveel geagiteerde gebruikers leidt. Alsof je maar een rare bent die dat minstens zo zwaar vind wegen dan een paar procent meer frames.
Niemand wil undervolten en de kans hebben dat de chip instabiel word. hoe klein ook het risico is er en dat vind ik onacceptabel.
Daarbij is hij zelfs bij undervolten nog meer powerhungry en dus kost het op lange termijn meer.\ ook dat moet je meerekenen en dat maakt ze al snel minder interessant.
De Slimme gamers willen gewoon plug en lay en werken zonder risicos en hogere lange termijn kosten.
Dat voltage is zo hoog omdat de QQ veel minder is als bij nvidia en ze dus niet zeker wewten of iedere chip wel in staat is om op een laag voltage te draiien. dat betekend dus dat er chips zijn die op zijn gat gaan als het voltage laag is en je zal maar net een even dure of duurdere amd chip gekocht hebben met de hoop te kunnen undervolten en goedkoper uit te zijn blijkt dat je chip niet stabiel is met een undervolt en zit je mooi met een hoge stroomrekening bovenop de al te hoge prijs.
undervolten is voor de masselaar tweakers die een risico acceptabel vinden niet voor de massa.
Die hoge stroomrekening is alleen werkelijk aanwezig als je aan minen doet. De werkelijke stroomverbruiken zijn simpelweg hilarisch en men heeft gewoon echt geen 'benul' van hoe laag die kosten zijn.

100W meer stroomverbruik op 2 uur gamen elke dag is slechts €16.79 op jaarbasis...

Nu, hoeveel hier zijn werkelijk elke dag opnieuw 2 uur aan het gamen op maximaal vermogen en dan... 100W is dus heel ruim genomen om elke discussie weg te nemen.

Dus, tenzij je 8760 uur per jaar aan het minen bent, is die paar Watt vermogen niet de discussie waard. Dan is hooguit je thermische ontwerp van je case relevanter.
16 3uro x 3 jaar maakt de gpu dus ecfectief 48 euro duurder dat is significant als je het mij vraagt.

En gezien er velen zijn die meer als 2 uur per dag gemiddeld gamen als jij denkt..

Het dient dis gewoon meegenomen te worden in je aanschafprijs.
Ja, 48 euro duurder, maar die V56 is ook iets beter met uitzondering van een paar specifieke titels.

Op basis van die resultaten zou ik meer kijken naar de "per game" kaart en eigenlijk... Ik zou de 2060 zelfs nog eerder nemen dan zowel de V56 en dan pas de 1660...De 1070 lijkt me ook nog beter, maar dan kies ik persoonlijk eerder voor een nieuwer model dan een twee jaar oud model (en daarmee zowel de V56 als 1070 die wegvallen).

Overigens, twee uur elke dag... is iets wat je alleen kan doen als je nog op school zit... Zelfs tijdens mijn universiteitsjaren was 2 uur veel voor elke dag en dan waren er nog brave 20 uur sessies in het weekend ter compensatie. Als het argument hier wordt gegooid "dat undervolten iets is voor Tweakers" dan is meer dan 2 uur ook iets voor gamers/Tweakers en niet terecht in een normaal vergelijk :P En als we het hier hebben over thuis-woners/scholieren/studenten dan mag die 'stroomkosten'-argumentatie ook vervallen want de meeste daarvan betalen de stroom niet.

Maar voor +48 euro extra heb je een betere kaart... en nee als je die direct meeneemt en niet aan undervolten doet / de nogal debiele FE settings van 2 jaar geleden even corrigeert, dan kom ik ook niet uit op die V56 hoor :P
- Goedkoopste 1080 voor 370
- Goedkoopste 2060 voor 367
- Goedkoopste 1070 voor 345
- Goedkoopste V56 voor 319 + 48 ;) (op dit moment 19 ipv 15)
- 1660 tussen 305 en 345 in pricewatch.

Als je de keuze uit bovenstaande hebt... ga je dan werkelijk een 1660 overwegen? Tenzij je budget het inderdaad niet toelaat om hoger te gaan, is dit wel een extreem middenmoot kaart om uitsluitend de 1060 te vervangen... en dan ook alleen als je de goedkoopste versie pakt, want de duurste is 345 momenteel en dan is het 22 euro voor een 2060.... kom op!

De kaart is te duur met 300-345 en had 250 moeten kosten, dan was het een nuttige kaart geweest.
Waarom zou ik moeite doen om mijn videokaart te gaan tweaken als de drivers dat al niet zelf doen, leuk voor tegen het einde van het leven. Ken maar weinig mensen die een videokaart kopen en dan dat ding gaan tweaken. En als die kaarten standaard fatsoenlijk draaien op die aangepaste instellingen, waarom levert AMD ze dan gewoon niet meteen met die instellingen?
AMD heeft dat juist in de drivers zitten en komt gelijk met dergelijke voorstellen om deze optimalisaties te activeren... met 1 druk op de knop is het geregeld. Kijk maar laatste video van AdoredTV. In dat opzicht hebben ze dat wel goed geregeld, de kaart unvolt gewoon automatisch. Waarna deze inderdaad een stuk zuiniger is met gelijke prestaties. Bij AMD activeren ze het alleen niet standaard al, en dat betekent dus ook dat alle reviews een hoog stroomverbruik laten zien terwijl dit veel beter is in werkelijkheid. Alle kaarten komen dus uit de fabriek rollen met hoge voltages, om er zo zeker van te zijn dat ze allemaal stabiel draaien. Dat wil dus ook zeggen dat het niet 100% zeker is dat de kaart efficiënt undervolt, een slecht exemplaar zal het mogelijk MOETEN doen met die hoge voltages. nVidia bakt dit wel gelijk al in de GPU, daaorm klokt ook elke kaart (ookal is het dezelfde videokaart) anders omdat niet elke GPU exact even puur is. Daarom is tevens de rek er bij nVidia kaarten heel vaak uit, omdat de GPU zelf al kundig genoeg is om te begrijpen welke voltages nodig zijn om de boel stabiel/efficiënt te houden bij een bepaalde clockfrequentie en ookal automatisch boost aan de hand van diezelfde informatie. Blijft er voor de tweaker wel heel weinig speelgoed over. Dat maakt een AMD kaart mogelijk leuker om mee te klooien, maar voor mij voorlopig even geen AMD kaart meer, ik heb nogsteeds een 290x heethoofd en ga denk ik maar voor de 2060 of 2070 ofzoiets...

Ik gok tevens dat AMD deze manier hanteert voor de Radeon VII omdat het eigenlijk van origine helemaal geen gamers kaart is. Bij een videokaart voor Workstations zal het een worst zijn dat deze wat meer stroom verbruikt. Als deze maar ten alle tijden stabiel is. De optie om de kaart zo makkelijk te undervolten zal er wel als last-resort voor ons gemak in gemikt zijn. Wat tevens weer laat zien hoe alles gerushed is, want de kaart was een stuk beter uit de bus gekomen als ze de kaart standaard automatisch laten undervolten. Dan was de kaart verrassend zuinig voor een AMD kaart met dergelijke prestaties! Maar nu denkt iedereen daar totaal anders over. Slechte marketing zet weer van AMD...

[Reactie gewijzigd door BruT@LysT op 23 juli 2024 13:22]

Ik moet als gebruiker dus nog steeds moeite doen om iets dat gewoon default zou moeten zijn aan te zetten. Dat jij dat via videootjes allemaal wilt gaan instellen is leuk voor je, maar ik heb geen zin om al die instellingen af te moeten gaan om te kijken wat nu het beste werkt, want dat betekent dus ook dat ik me moet gaan verdiepen wat die instellingen allemaal doen.
Het zou dus gewoon goed moeten werken 'out of the box' zonder dat ik als gebruiker nog een hoop moet doen.
Vergeet niet mee te rekenen dat de Vega56 wel ~100w extra aan stroom verbruikt onder belasting; dat is relatief best veel.

Stel dat je dagelijks gemiddeld 2 uurtjes gamet per dag en de kaart ~3jaar gebruikt voor je een nieuwe koopt. Dan heb je het over die periode toch over 50 euro extra aan elektriciteitskosten alleen. Daanaast heb je ook een iets zwaardere (en dus duurdere) voeding nodig en mogelijk meer koeling in je kast.

Neemt niet weg dat ik deze GTX1660ti ook erg vind tegenvallen (tenzij de prijs snel onder de 300 gaat zakken; maar dat verwacht ik niet); een GTX1070 is inmiddels bijna 3 jaar oud en deze word nog steeds niet verslagen door een nieuwere kaart één segmentje lager.
Volgens de review wordt de 1070 juist wel verslagen en tegen een lager prijspunt, snap niet helemaal welk punt je probeert te verdedigen?
Prestatieverschillen van kleiner dan pak hem beet ~5% zie ik persoonlijk als gelijk binnen de foutmarge; al is dat een kwestie van persoonlijke interpretatie natuurlijk O-)

Maar ja ik vind het over 3jaar een vrij matige verbetering inderdaad. Als je terugkijkt naar de GTX470 vs GTX760 bijv. - ook één segment lager na 3 jaar - dan is laatstgenoemde gewoon 2x zo snel :P

Maar misschien moet ik er maar aan wennen dat het qua ontwikkelingen niet zo snel maar gaat
Dit dus, men loopt nu al een paar jaar er tegenaan dat het gewoon vrijwel onmogelijk wordt kleinere transistors te maken. Laten we niet vergeten dat de pentium 4 nog op 90nm zat en graka's uit die tijd op 110/130nm. Daarna hebben we elke 2 jaar shrinks gehad tot aan ~14nm en sindsdien gaat het trager, 1 die shrink in wat, 4 jaar?
Vega is nog steeds niet lekker op vooraad, Asus model is nu 350 en ik heb hem geflashed naar een V64, draait nu 1050MHz HBM en moet 1,05V rond de 1570MHz ingame. Core 63gr, HBM 67 en hotspot VRM 94C op 2300RPM fan.

Conclusie: Wil je niet kloten haal de 1660ti, je kan minder ermee spelen maar je verbruikt de helft van de stroom en is bijna even snel en veel stiller.
Wil je wel kloten óf AMD iets meer ondersteunen haal een V56 of wacht nog 5 maanden op Navi (hopelijk). Je kan trouwens niet alle V56 flashen, volgens mij meestal alleen de Samsung geheugen chips.
Ik denk trouwens dat de V56 wel iets toekomstbestendiger is met 8GB geheugen en in het verleden zijn AMD kaarten ook veel beter oud geworden (kijkt naar de GTX680 vs de HD7970).
Met een Vega56 hoef je niet eens te "kloten" om die sneller te maken. De niet-referentie versies zijn standaard vaak al sneller dan stock. Daarnaast kan je ook zonder de bios te flashen, maar met undervolten al behoorlijk in de buurt komen van Vega64 prestaties.
Nou ja maar dan is die iets sneller met 3x t stroomverbruik. Zonder flinke hbm overclock is het niet waard imo.
De Vega56 is zelf goedkoper in de pricewatch, de conclusie is zeker te positief opgesteld.
Hij had beter kunnen concluderen dat de GTX1660 een betere optie is mits die kaart onder de 315 euro zit. Qua stroomverbruik is het sowieso een betere kaart. Dat lijkt mij een objectievere conclusie. Wel grappig dat de vega64 niet is meegenomen, aangezien de 1080FE wel is meegenomen. Waarschijnlijk kan die kaart nu ook beter meekomen na de driver optimalisaties.

[Reactie gewijzigd door EMR77 op 23 juli 2024 13:22]

Dat niet alleen wat me opvalt is met name in de hogere 4 k resolties dat de 1080 nog zo een 25 a 45% sneller is als de gtx 1660 ti.De waardes worden verwaarloosbaar in de full hd resolutie.
De 1660 zit in het midden segment en volgens mij heeft Nvidia deze videokaart gemaakt om precies
in dat segment te laten vallen.Om het midden segment te bestrijken met hun videokaarten lijn.
Binnenkort van plan om een nieuwe computer te kopen deze kaart is misschien precies wat ik nog zocht.
Nog net niet zo duur als een 1080 er.Petje af voor amd zij zitten er net boven.

[Reactie gewijzigd door rjmno1 op 23 juli 2024 13:22]

Als een zware AMD fan, heb ik gekozen voor Nvidia. Puur omdat ik van de stroomrekening van mijn AMD kaart vorig jaar praktisch een 1080 kon kopen.
Dat kan alleen als je aan het minen was... 100W is 16,79 per jaar aan extra stroomkosten. Compleet onzinnig om een 1080 te suggereren, die niet eens 100W zuiniger is ;)
Ik weet niet hoe jij aan die stroomkosten komt?
Mijn PC heeft afgelopen jaar ongeveer 1400kwh verbruikt. Dat is nu meer dan gehalveerd. Met de huidige stroomprijzen komt dat neer op zo'n 322 euro (totaal), / 2 is 166 euro.

Mijn vorige kaart gebruikte overigens 415W dus het verschil met een 1060 is nogal huge. De idle van mijn huidige 1060 is like 15w en van mijn vorige kaart was 90w... Load scheelt 250w
Referentie waarden staan in de tabel door Tweakers als 100W meer bij belasting. Die zegt 100W verschil bij maximale belasting in-game. Pure idle is flink discutabel welke bron je pakt... Tweakers komt anders uit dan Linus, Jay, Anand etc. en in alle gevallen praten we over 5-10 W meer verbruik tussen die V56 en de 1660 per uur. Normale mensen laten de pc niet de hele dag non-stop aan staan... Daar komt ook het euvel, wij zijn hier niet normaal.

100W met 2 uur gamen per dag (voor normale mensen), elke dag, komt je op 16.79 bij dezelfde 23ct. kWh prijs.

Ga je nu suggereren dat je meer dan 2 uur per dag vol-belasting aan gamen doet op dergelijke titels, ga ik als tegenargument geven dat je dan geen gemiddeld persoon bent en wel degelijk kan undervolten/tweaken en lagere verbruiken zal realiseren. Het 12 jarige buurjongetje, wat op zijn klote krijgt als hij te lang gamed, kan het...

Maar je maakt me wel nieuwsgierig, 415W op de kaart, 90W idle op de kaart??? Wat had je draaien?
Net zoals, 1400 kWh betekent dat jij je pc nooit uitzet? en ook daar valt de discussie over te starten of je dat mag gebruiken als 'normaal gebruik'. Niet dat ik anders ben, maar daarom gebruik ik ook niet mijn uren als referentie ;)
Ik gebruikte de sapphire r9 290 vapor-x editie, één van de eerdere uitgaves welke vervangen is ivm onstabiliteit door de hoge overclock. NIET de tri-oc editie welke je vaak vind als je er op zoekt.

Ik heb een wattage meter tussen mijn setup en de muur hangen, en mijn wattage is nu tijdens lichtere gamen (denk rocket league) lager dan mijn setup met mijn vorige kaart idle draaide. Dat zijn gewoon harde zelf-tests en geen benches op het internet.

Mijn vebruik is gedropt van idle 200-250w naar idle 90-120w en tijdens rocket league van 350-400w naar 170-200w. Met zwaardere games zoals space engineers, is mijn wattage gedropt van minimaal 550w naar ~350w. Hiervan pak ik (ivm verschillende loads mbt waar ik aan werk en/of ik game) het gemiddelde verbruik, dat bereken ik vervolgens op 16u per dag, 365 dagen per jaar (en het gebeurd ook dat ik mijn PC enkele dagen aan een stuk op load heb draaien) -- zo kom ik aan een ongevere schatting. Aan mijn eindejaarsafrekening te bekijken, zit mijn schatting in ieder geval binnen 10% van het daadwerkelijke verbruik.

Dat zijn behoorlijk grote verschillen.

Ik game geen 2 uur per dag, maar ik werk thuis waardoor mijn pc wel een uurtje of 16 (minimaal) per dag aan staat.

Undervolten enz. zijn zaken waar ik niet alleen geen zin in had, maar omdat ik tussendoor ook grafische werkzaamheden verricht zou dat al helemaal veel moeite kosten...

Overigens heb ik nooit mijn switch benoemd. Ik heb die 1080 nooit gekocht en dat was ook wel wat overdreven. Ik heb een tweedehands 1060 gekocht. Dus van de r9 290 vapor-x naar een 1060 msi armor. Dus je hebt natuurlijk wel gelijk dat ik er geen 1080 van kan betalen, maar die 16,79 is wat ik even aan wilde vechten. Het komt voor mij neer op een goede 100-150 euro per jaar.

-- Edit: en met de leeftijd van mijn vorige kaart (2014 geloof ik) * 5 is dat zeker 500 euro!

[Reactie gewijzigd door NoobishPro op 23 juli 2024 13:22]

Hehe,

Mijn verhaal ging tussen die 1660 en een V56 en hoe mooi een R9-290 als monster is :D dat vergelijk telt natuurlijk niet helemaal hier. Wat dat betreft zijn de idle nummers beduidend belangrijker (helemaal als je zoals jij 16 uur per dag actief bent).

Ja, AMD is niet bepaald zuinig, maar zo'n voorbeeld als jouw versie kom je niet vaak tegen. Ik vind trouwens je idle nu nog steeds hoog, maar dat terzijde. Wil wel zeggen dat een idle van 90W GPU wel een hele goede reden is om de kaart niet te nemen (kijkt half naar zijn oude HT-PC met een oude game-kaart die 24/7 aanstaat) en wat zuinigers te nemen als de pc vaak aanstaat. Mooi voorbeeld hoe we soms flink op de verkeerde info focussen.
Mijn idle wattages zijn gebaseerd op mijn complete setup (2 schermen, speakers, alles aangesloten)

50-60w hiervan gaat naar mijn beeldschermen dus komt mijn PC nu idle neer op zo'n 50-60w. Best reëeel met 6 hdd's en 8 case fans :)

Maar inderdaad. Op het internet is het zo makkelijk om elkaar nét verkeerd te begrijpen!
Ahhh... dan vind ik het laag :P met monitoren en case-fans...

Mijn huidige Threadripper komt op ~100 W idle exclusief monitor... Zelfs met M2 drives ipv HDD's en 'maar' 6 fans en 1 waterpomp, maar ja... de Intel oplossing kost het dubbele dus die EL rekening kunnen we wel opvangen ermee ;) Nee, AMD raad ik niet aan als je enigszins op je stroomrekening wil letten.
Hahahaha ja, met een threadripper heb je het ook ergens over... Jeetje.

Ik zit op een 4790K waarvan ik de turbo boost heb uitgezet...

Tot deze 4790K heb ik altijd AMD gehad, maar toen betaalde ik de stroomrekening nog niet!

Ben overgestapt naar Intel omdat mijn phenomX2 955 black edition (@3.6ghz geloof ik) een akelige bottleneck werd. Veroorzaakte allemaal micro-lags en dat verpestte voor mij de 'smooth' ervaring. De FX serie vond ik niet interessant... Met Ryzen overweeg ik echter AMD weer!
Hehe,

Ik zat nog op een Q6600... mijn stroomrekening is al jaren niet relevant geweest. Na 10 jaar overgestapt en ach, dan maar gewoon knettergek er vol in met een TR1950x.

Grappig feitje, de 1950x draait zuiniger als je de boost uitzet en alle cores fixed op 1 snelheid (en break-even was op 3.8 Ghz bij mij). Raar gedrag, lijkt wel een AMD dingetje om te graag veel stroom te verbruiken.

Wat betreft Ryzen, wacht even op die 3de serie ;) die 4790K kan best nog een half jaar mee en dan heb je straks wel een hele mooie 16core voor minder geld dan ik hier ;)
Hahaha ja helemaal mee eens!

Mijn 4790K kan denk ik nog wel 2 jaar mee. Ding draait nooit op 100%. Het is echt een beest.
LOL, kundig met financiën en die verder kijkt dan een paar euro stroomkosten.

Of je ene Vega56 wil of een 1070 / 1070Ti haalt, mij om het even, maar een 1660 toont geen reden tot nut.
Adviesprijs van €299
Winkelprijs €250??? Dat maakt het aantrekkelijk, maar niet 8800GT waardig :)

Gisteren heb ik voor mijn neefje&nichtje voor €185 een 2e hands 1070 GTX met garantie gekocht.
En ja dat is een dooddoener, nieuw met oud vergelijken, maar wie een 1660 Ti koopt, koopt dit met een budget en niet zozeer futureproofing. €118 euro betalen voor 4% hogere prestaties gaat er bij mij niet in..bij een dergelijke budget/segment

[Reactie gewijzigd door seez op 23 juli 2024 13:22]

Dat is ook wel een gekke prijs hoor, normaal gaan ze rond de €225 weg (zonder garantie).
Ik heb ook voor 160 een 160 gekocht en zag ook tussen de 180-200 1070's staan. Niet de TI versie.
Benieuwd of een variant van deze kaart de opvolger gaat zijn van de 1050ti. Die zit in de huidige Dell XPS15. Opvolger komt binnenkort uit. Modelletje met 1660 erin zou heel leuke all-purpose-laptop zijn :-)

Ontwerper heeft al gezegd dat de RTX2060 te heet wordt, maar de 1660ti gebruikt beduidend minder stroom...
die gaat vast en zeker komen als ze genoeg chip hebben met meer defecte cores dan nodig is voor een 1660TI

Dit is volgens mij gewoon dezelfde chip als in de 2080TI zit alleen dan met defecte ray trace units en dermate veel defecte cores dat er geen RTX2060 meer van te maken is.
Ja ik hou het wel bij mijn 1070. Wat een onnodige kaart.
De 1660TI is goedkoper dan de 1070, dus hoezo een onnodige kaartr? Kijk ik snap dat IEDEREEN al een 1070GTX thuis heeft, dus ja volstrekt onnodig.

Oh wacht. Dat is natuurlijk niet het geval er zijn wel degelijk mensen met een oudere kaart. Goh dat Nvidia toch een punt heeft deze kaart in de markt te zetten.. verbluffend. Ik kan er haast niet met mijn hoofd bij hoe bizar dit is.
Ik ben het helemaal met je eens hoor, de rtx2060 had gewoon een prijs moeten hebben van rond de €300,-

We zijn nu een half jaar verder sinds de introductie van de rtx20xx kaarten. Deze kaarten zijn blijkbaar niet interessant genoeg en worden slecht verkocht. Het probleem hierbij is dat de lagere kaarten eigenlijk niet snel genoeg zijn voor raytracing en in verhouding gewoon veel te duur zijn.
Hierbij blijft Nvidia zeggen dat de rtx geen opvolgers zijn van de gtx series, zodat ze de rtx serie kaarten nog hoger en duurder kunnen aanprijzen.

Iedereen roept hier hoe mooi de prestatiewinst is en vergelijken het met een gtx1070, waarbij de gtx1660Ti het minder doet op Ultra kwaliteit. We praten hier over een kaart die geïntroduceerd is eind 2016, wat nu al weer 2,5 jaar geleden is. 8)7
het is maar wat je onnodig noemt, jij hebt dan een 1070, maar ik zit nog steeds met een 760 omdat ik alle 1060 modellen tot nu toe nog veel te duur vond voor wat de prestaties die ze leveren, nog steeds niet eens een midrange kaart maar wel heel lang 300+ gebleven (de 1060/6GB variant, de 1060/3GB variant is een stuk minder weer).
ja ik hou het ook wel bij mijn 1080 ti, dit is echt een onnodige kaart :?
Was meer gericht aangaande de conclusie:
"Kijken we naar de volgende stap, de GTX 1070, dan is er nog steeds een voorsprong, maar die is gereduceerd tot een procent of vier op 1080p en 1440p. Op 4k is de 1070 vooral op de Ultra-settings iets sneller, maar veel scheelt het niet, want alle prestaties gemiddeld genomen is de 1660 Ti nog altijd ruim 4 procent sneller dan de 1070."

Ik snap gewoon niet waarom deze kaart er is.
Omdat dit een opvolger is van de 1060. Ik snap niet wat hier lastig aan is :9
Nee u heeft gelijk hoor, ik was wat snel met concluderen. Het is gewoon mijn gevoel dat zegt dat een nieuwe kaart gewoon "beter" moet zijn dan wat al enkele jaren op de markt is. Dat is inderdaad wat voorbarig.
Deze kaart is er niet voor jou. Je hebt destijds meer betaald voor die gtx 1070 dan 300 euro. Dus waarom zou jij voor 4% extra performance een 1660 ti kopen?

Deze kaart is er voor de 1050-1060 gebruikers. Je krijgt 40% extra performance voor de zelfde prijs (gtx 1060 vs gtx 1660ti)

En dan niet te vergeten de mensen die de 1000 generatie hebben overgeslagen. Die krijgen ook 40% performance voor deze kaart dan als ze een 1060 hadden genomen voor dezelfde prijs.

[Reactie gewijzigd door jordynegen11 op 23 juli 2024 13:22]

Mooi, tijd om de gtx 970 met pensioen te sturen naar mijn zusje. :D
is een 2060 niet een veel betere koop?
Ik snap de prijs net als velen hier niet echt.

Je hebt voor de prijs van een premium kaart inclusief een strix (of vergelijkbaar label) letterlijk ook een GTX 2060. Ik zou wel weten waar mijn geld dan naartoe gaat hoor.

Zal interessant zijn wie dit ding nou uiteindelijk gaat kopen. Maar dat zal de toekomst ons leren.
De afdelingen van Nvidia die over de prijs beslissen moeten toch wel even iets beter hun best gaan doen om dit tot een echt interessant alternatief te maken.

Maar wie weet willen ze juist dat we allemaal RTX kopen en doen ze het daarom zo?
(Zet een aluminiumfolie hoed op.)
I las in de intro dat een RX 580 zou worden meegenomen, maar ik zie 'm nergens in de grafieken. Misschien even corrigeren?

Hebben jullie 'm ook geprobeerd over te klokken?

Voor de rest: heel mooie review :) Ik heb nu een duidelijk beeld van de 1660, hopelijk kan AMD er nog wat zuinigs tegenover zetten, bij 1 u per dag ben je er binnen 3 jaar zo 40 euro extra aan stroom kwijt.

Op dit item kan niet meer gereageerd worden.