'Nvidia GTX 1660 Super met gddr6 komt uit op 29 oktober voor 229 dollar'

Nvidia brengt naar verluidt op 29 oktober zijn GTX 1660 Super-videokaart uit voor 229 dollar. Deze gpu is vrijwel gelijk aan de huidige GTX 1660, maar bevat sneller gddr6-geheugen op 14Gbit/s. De adviesprijs is 10 dollar hoger dan de reguliere variant.

Nvidia heeft de verschijningsdatum en prijs zelf nog niet bekendgemaakt, maar VideoCardz zegt in handen te zijn van de details. De GTX 1660 Super krijgt 6GB aan gddr6-geheugen, net als de duurdere 1660 Ti. De 1660 Super heeft een geheugensnelheid van 14Gbit/s met 336GB/s aan bandbreedte, waar de 1660 Ti het respectievelijk met 12Gbit/s en 288GB/s moet doen.

De specificaties zijn verder identiek aan die van de huidige GTX 1660. Zo bevatten beide videokaarten 1408 Cuda-cores met exact dezelfde kloksnelheden. Dit doet vermoeden dat Nvidia de GTX 1660 Super uitbrengt als vervanging voor de 1660, maar hierover heeft Nvidia nog niets bekend gemaakt. Nvidia deed eerder iets soortgelijks met de introductie van de RTX 2070 Super en RTX 2080 Super. Beide videokaarten werden geïntroduceerd als vervanging voor hun reguliere tegenhangers.

De GTX 1660 Super komt op 29 oktober uit en gaat 229 dollar kosten. Omgerekend en inclusief btw is dit ongeveer 248 euro. Er zijn de afgelopen tijd al verschillende afbeeldingen van GTX 1660 Super-kaarten online verschenen. VideoCardz publiceert dinsdag ook een afbeelding van de Chinese fabrikant Maxsun, waarop de specificaties bevestigd worden.

Nvidia GTX 16-serie
Model GTX 1660 Ti GTX 1660 Super GTX 1660 GTX 1650
Cuda-cores 1536 1408 1408 896
Gpu TU116-300 TU116-300 TU116-300 TU117-300
Kloksnelheden 1500MHz 1530MHz 1530MHz 1485MHz
Turbofrequentie 1770MHz 1785MHz 1785MHz 1665MHz
Geheugensnelheid 12Gbit/s 14Gbit/s 8Gbit/s 8Gbit/s
Geheugen 6GB gddr6 6GB gddr6 6GB gddr5 4GB gddr5
Geheugenbus 192-bit 192-bit 192-bit 128-bit
Geheugenbandbreedte 288GB/s 336GB/s 192GB/s 128GB/s
Introductieprijs 279 dollar 229 dollar 219 dollar 149 dollar
Releasedatum 22 februari 2019 29 oktober 2019 14 maart 2019 23 april 2019

Maxsun

Door Daan van Monsjou

Nieuwsredacteur

22-10-2019 • 14:56

67

Reacties (67)

67
66
24
5
0
29
Wijzig sortering
De release(s) van de 16xx en 20xx series wordt nu bijzonder lang uitgesmeerd. Is er überhaupt al informatie over een nieuwe serie, of gaan ze nog even door zo?
Ik heb een vermoeden dat we binnenkort bij de GPU's hetzelfde verhaal gaan zien als bij CPU's
De moore's law die moeilijk wordt te verwerkelijken.

Nu Nvidia had wel tijdens hun press conference de bewering gemaakt dat dat bij hun geen factor was dat het doorgroeien van GPU performance belemmert. ( zie: https://blogs.nvidia.com/...evolution-eating-software )

Natuurlijk een GPU is niet rechtstreeks te vergelijken met CPU's maar volgens mij zijn ze betere long term solutions aan het zoeken, wat volgens mij niet zo gemakkelijk gaat. De tijd tussen de release van de 10 series en 20 series was al uitzonderlijk lang, en ze hebben dan ook de release van de 20 series enorm verspreid. Zou me zelfs dus niet verbazen als het nu nog langer zou duren voor een nieuwe release
GPUs scalen veel beter dan CPUs. GPUs bestaan eigenlijk al heel lang uit heel veel kleine rekenunits, CUDA-cores in het geval van NVIDIA. In principe kun je relatief eenvoudig de rekenkracht (en het aantal transistoren) vergroten door er simpelweg meer CUDA-cores tegenaan te gooien. Dat is volgens mij ook het grootste verschil tussen alle huidige NVIDIA kaarten.

Ik denk dat de belangrijkste reden voor het gebrek aan innovatie, het gebrek aan concurrentie is. NVIDIA heeft geen concurrentie van AMD en Intel in het hoogste segment, er is weining aanleiding om zwaar in te zetten om nog snellere consumentenkaarten. Je ziet dat NVIDIA nu wel zwaar inzet op andere branches zoals automotive en datacenter hardware en daar kunnen ze goed gebruik maken van hun dominante positie op het gebied van GPU en accelerators.
Wat ik heb begrepen is dat de yields erg slecht zijn bij nVidia met de 20-serie. Op zich niet gek als je bedenkt dat de chips flink groot zijn, er passen er nog maar weinig op een wafer, en er hoeft maar een enkele transistor stuk te zijn en je chip is waardeloos (correct me if I'm wrong).

Je zou met kleinere procede's verwachten dat de chips niet heel veel groter worden qua oppervlakte, maar als die schaalverkleining steeds langer op zich laten wachten zie je dat in het hogere segment chips flink groter aan het worden zijn.

Ik ben even op wikipedia gedoken en heb wat cijfers bekeken:

De RTX 2070 is 445 mm2, de Super (die een variant van de 2080-chip aan boord heeft) meet zelfs 545 mm2, terwijl de GTX 1070 'maar' 314 mm2 was. De GTX 970 zat daar ietwat tussenin met 398 mm2.

De 2060 is met zijn 445 mm2 op zijn beurt weer (veel) groter dan de 1060, 1060 GDDR5X en de 960; die respectievelijk 200, 314 en 227 mm2 groot zijn.

Voor de 2080 (Ti) en de Titan gelden eigenlijk vergelijkbare trends:

https://en.wikipedia.org/wiki/GeForce_20_series
https://en.wikipedia.org/wiki/GeForce_10_series
https://en.wikipedia.org/wiki/GeForce_900_series

En ik ben me er bewust van dat de segmenten ook opschuiven, de kaarten worden steeds duurder, maar de complexiteit stijgt intussen sneller dan de innovatie en markt bij kan houden.

[Reactie gewijzigd door A Lurker op 23 juli 2024 14:44]

en er hoeft maar een enkele transistor stuk te zijn en je chip is waardeloos (correct me if I'm wrong)
Wrong, half. Of beter: it depends.

Wat common practice is, is om chips met fouten te verkopen als een lager model uit de range. Dus als de chip 1000 werkende transistors zou moeten hebben van de wafer af, maar er zijn er een paar stuk, dan schakelen ze een deel uit en verkopen ze 'm als een model dat 800 transistors heeft. Dat is een effectieve manier om nog wat van je kosten te redden als fabrikant. Ze hebben dan ergens in de firmware een optie om die delen van de (niet werkende) chips permanent uit te schakelen. Alles hangt natuurlijk af van welk deel precies stuk is en in hoeverre. Niet alles is te redden, maar dat is ook niet het doel. Fouten in de yields hou je toch.

Fun fact, ik weet even niet meer met welke modellen het was, maar het is wel eens voorgekomen dat er niet genoeg slechte yields waren en ze daarom volledig goed werkende betere modellen verkochten als lager in de range, met de firmwarebeperking er op. Omdat ze dus verwacht hadden x% van de modellen met fouten te krijgen en die te hergebruiken, maar de yields waren succesvoller dan gedacht en toen hadden ze een tekort aan lagere modellen (die in aantallen vaak veel beter verkopen en daarom belangrijk zijn voor elke fabrikant. De topmodellen zijn alleen belangrijk voor de marketing).

Het is in het verleden meerdere malen mogelijk gebleken je model te 'upgraden' door er firmware op te flashen van een hoger model. Uiteraard met alle risico's van dien.
Iets staat mij bij dat dit was bij een stel AMD graka's. Kan ook niet zo snel opkomen welke dat precies ook al weer waren....
HD6950 -> HD6970, al was het verschil niet zo super interessant.
Leuker waren de CPUs die verkocht werden als tri-core, maar na een unlock gewoon prima als quadcore konden draaien.
Heeft Intel dat ooit wel gehad dan?
meen dat die videokaarten alleen voor kantoortoepassingen zijn bedoelt.
Althans de Intel Iris pro serie,s kun je nog redelijk basic gamen, de rest het kan kleur weergeven en video afspelen(DVD) en daar houd het wel een beetje bij op, met 4K video wordt het al moeilijk.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 14:44]

Gebrek aan innovatie is er niet met de rtx en tensor cores. Gebrek aan adoptatie is en concurentie is er wel waardoor de kaarten niet op hun volle potentie gebruikt worden en de concurentie ze niet hard voorbijgaat.

Amd is goed bezig op gpu land maar zou mooi zijn als ze de zelfde slag als cpu ook op gpu gebied kunnen maken.

Intel heeft wel geroepen dat ze met high end gpu komen maar tot nu toe nog maar weinig van laten zien.

Nvidia heeft dus het monopoly op het gebied van high end met hardware acceleratie.
NVIDIA heeft geen concurrentie van AMD en Intel in het hoogste segment, er is weining aanleiding om zwaar in te zetten om nog snellere consumentenkaarten

Zolang het spelletje er niet teveel onder lijdt in de zin van lag, diashow, frame drops en ga zo maar door is er eigenlijk niets aan de hand.

Als je met een hedendaagse mid/high end kaart in alle spellen met alle eyecandy open op een mooie resolutie al 100/150 fps haalt en de nieuwe "nog snellere" kaart doet dit met 200 of misschien wel 300 fps waarom zou je dan om de 1 a 2 jaar een nieuwe nodig hebben? Alleen omdat het kan, of echt zinvol is?

Speel hier zelf op een PG348Q met een EVGA 1070 SC3 en ik begin nu een beetje te voelen dat de nieuwste AAA games met alle eyecandy open de 60fps niet meer haalbaar zijn, maar om nou te zeggen dat ik de noodzaak voel een nieuwe kaart te kopen, nee.

De markt is aardig verzadigd en onze hardware is al super rap, ook die van een 5 jaar geleden nog..

[Reactie gewijzigd door Audione0 op 23 juli 2024 14:44]

Speel hier zelf op een PG348Q
Geen 4K, geen high-framerate, maar een enkel scherm.. dan is het tegenwoordig niet zo moeilijk nee.
Schermen worden groter en resoluties worden hoger.
4k, Ultra-wide en super ultra-wide monitoren zijn in opkomst en daarvoor heb je toch een aardige videokaart nodig.
De moore's law die moeilijk wordt te verwerkelijken.
Dat is al meer dan 5 jaar een issue denk ik..
Dat is gewoon concurrentie die werkt. Wanneer AMD nieuwe videokaarten uit brengt, reageert Nvidia. Bij de release van de RX 5700 kaarten, zag je dan dus ook de RTX 2060 Super en 2070 Super, die daarmee moesten concurreren, want de 2060 en 2070 waren niet concurrentieel meer. En nu hetzelfde, AMD brengt de RX 5500, en Nvidia denkt dat die de GTX 1660 onder druk zal zetten.

De laatste jaren heeft AMD minder ingezet op videokaarten, en dan had Nvidia dus ook minder te reageren. Het had geen zin de GTX 1060 of 1070 sterk te veranderen als AMD met heropgewarmde Polaris kaarten bleef komen. Midden jaren 2000 had je zo nog wel periodes waar meer tussenmodellen werden gelanceerd ivm concurrentie tussen Nvidia en Ati (GS, GT, GTX, Ultra, enzovoort)

Iets slecht is dit nu toch niet, je krijgt meer videokaart voor hetzelfde geld, tenzij je net een GTX 1660 gekocht hebt natuurlijk :). Maar je moet je wel goed informeren voor je iets koopt, dat dan weer wel.
De release(s) van de 16xx en 20xx series wordt nu bijzonder lang uitgesmeerd. Is er überhaupt al informatie over een nieuwe serie, of gaan ze nog even door zo?
De geforce 10 series kreeg producten lanceringen tussen 27 mei 2016 tot 12 maart 2018. De eerste 20 series GPU kwam in september 2018, de 16 series begon februari 2019. Dat is tot nu toe dus allemaal nog niet zo vreemd.

https://en.wikipedia.org/wiki/GeForce_10_series
https://en.wikipedia.org/wiki/GeForce_16_series
https://en.wikipedia.org/wiki/GeForce_20_series

Overigens hebben we nu dus recent de super lancering gehad. Vroeger hadden we dan vaak wel een versie bump en dan was het een 'refresh'. Dat we nu geen nummering krijgen is an sich wel anders dan wat pak hem beet 10 jaar geleden normaal was (denk aan geforce 4xx naar 5xxx).

Verder kun je op basis van de super kaarten verwachten dat we op zijn vroegst pas zomer 2020 daadwerkelijk een nieuwe GPU lijn gaan zien. Wat verder natuurlijk ook niet raar is, de eerste 20 kaart was de 2080 in september 2018. Normaal moet je echt op minimaal 2 a 2.5 jaar rekenen tussen een architectuur.

Aangezien Nvidia letterlijk heeft aangegeven dat ze 7nm nog niet nodig hadden kunnen ze voor 2020 ongetwijfeld nog iets uit de hoge hoed toveren. Het kan wel zijn dat ze de aap uit de boom kijken omdat zowel Intel als AMD hinten op nieuwe producten voor 2020. Een lancering in Q3 zou daar goed bij passen.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 14:44]

Nouja, Nvidia heeft gezegd dat hun nieuwe GPU's dus in de 1e helft van 2020 zouden komen.
Nouja, Nvidia heeft gezegd dat hun nieuwe GPU's dus in de 1e helft van 2020 zouden komen.
Ik heb niets anders gezien dan geruchten, bron?

[Reactie gewijzigd door sdk1985 op 23 juli 2024 14:44]

De nieuwe GPU's zouden 1e helft van 2020 moeten komen...
Zal de vermindering van cuda cores ten opzichte van de 1660 ti geen gevolgen hebben? Of is het iets als "We vangen het op met het snellere geheugen"?
Het is geen 1660 Ti met minder cuda cores, maar een 1660 met sneller geheugen. Vergelijk de super maar met de normale 1660 in het overzicht.
De super is overal gelijk of beter dan de ti behalve bij cudacores en kost 50 euro minder. Wat doen cudacores? Anders lijkt me de super de veel betere deal.
de super zal niet beter presteren dan de TI.
Wat doen cudacores?
Het rekenwerk als hart van de videokaart?
Het is niet alsof megahertzen of gigabytes op zichzelf rekenwerk kunnen doen, dat zijn slechts de grootheden.
Daarom vraag ik het ook ;)
Ik kan de specs vergelijken en zie dan enkel dat de cudacores lager zijn. Al het andere is hoger. Voor een leek op videokaartengebied ziet de super er dan beter uit dan de ti.
Ik ben benieuwd hoeveel verschil qua performance er tussen de gtx 1660 en 1660 super zit. prijsverschil is namelijk ontzettend klein.
Een GTX 1660 was al degene met de betere prijs/prestatie in vergelijking met een GTX 1660 Ti. Ook een RTX 2060 had een betere prijs/prestatie dan een GTX 1660 Ti. Met een GTX 1660 Super die maar 10 dollar meer is als een GTX 1660 wordt een GTX 1660 Ti helemaal oninteressant.
Ik vond de 1660 ti al sowieso oninteressant. de 1660 heeft een goede prijs/prestatie maar ik zou persoonlijk eerder voor de vega 56 gaan dan de 1660 ti.
is ook stukje duurder
valt wel mee, je kan tegenwoordig een nieuwe vega 56 krijgen vanaf 250 euro. en als je opzoek bent naar 1 met een goed merk (sapphire) kun je voor het zelfde geld een gebruikte vinden.
is die dan zoveel beter? (ben geen gamer...)

"The GTX 1660 Ti proves the better of the two cards at 1080p, likely thanks to AMD's higher CPU overhead, but things reverse as we reach higher resolutions. The two cards are near-identical at 1440p, both averaging 41fps, and the Vega 56 takes a significant 17 per cent lead at 4K

https://www.eurogamer.net...x-1660-ti-vs-vega-56-7001

[Reactie gewijzigd door OxWax op 23 juli 2024 14:44]

Ligt aan de gebruiker. als je plug en play wilt, is de gtx 1660 ti een betere optie. maar als je weet hoe je kan undervolten en overclocken is de vega 56 een veel betere optie. een undervolted en overgeclockte vega 56 is serieus een monster. en het is echt makkelijk ook om het op die niveau te krijgen. Iedereen kan het. maar de meesten durven het niet.
aha, dat soort info vind ik interessant

[Reactie gewijzigd door OxWax op 23 juli 2024 14:44]

269 euro voor een Asus ROG strix vega 56 bij de duitse mediamarkt.
Ze hadden een maand geleden een vega 56, weet niet meer welk merk, voor 220 euro; deze waren binnen een dag of 2 uitverkocht.
Ook een RTX 2060 had een betere prijs/prestatie dan een GTX 1660 Ti.
Says who? Volgens TPU zijn beiden vergelijkbaar.

https://www.techpowerup.c...ce-rtx-2060-super/29.html

IGPs hebben een nog betere perf/$ ($0 extra) ;)

[Reactie gewijzigd door Olaf van der Spek op 23 juli 2024 14:44]

Je kunt alleen een 2060 en 1660 niet vergelijken op prijs per$ omdat features van rtx en tensor een groot deel van de extra kosten voor zich nemen en niet in een 1660 zitten.
Ik had al heimwee naar de goede oude GeForce 7xxx/8xxx tijd. Mooi om te zien dat Nvidia toch de traditie van consumentenverwarring in stand houdt. Nu nog wat GS, GTS, en Ultra modellen, for good measure.
De GTX 1640 MX Super !
Wat dacht je daarvan? :)
Perfect!
Volgens mij heb ik nog een GeForce 2 MX gehad, destijds.

[Reactie gewijzigd door Amanoo op 23 juli 2024 14:44]

ik hoop dat AMD sneller te werk gaat en de tegenhanger van deze kaarten snel op de markt brengt, hopelijk gaan de prijzen dan omlaag en kunnen wij ervan profiteren.
Dan moeten ze wel snel komen, want ook Nvidia heeft de volgende generatie al weer in de startblokken staan voor 1e helft 2020..
Nu maken ze het alleen maar nog meer verwarrend. MINDER CUDA SNELLER GEHEUGEN WTF SON

[Reactie gewijzigd door A87 op 23 juli 2024 14:44]

Je moet je informeren voor je een videokaart koopt, ja als er meer modellen zijn dan is het moeilijker te volgen, maar je krijgt hier wel meer videokaart voor bijna hetzelfde geld. Waarschijnlijk gaat de gewone GTX 1660 toch binnenkort uit de handel, de Super volgt die op en blijft onder de Ti. Het aantal cuda cores is veel belangrijker dan dat beetje geheugenbandbreedte. Geheugen kun je ook overklokken, echt wezenlijk anders zijn de geheugenchips in de Super niet ten op zichte van die in de Ti, maar cuda cores kun je er niet bij toveren.

Voor mij hoeft de lineup ook niet eenvoudig te zijn, het gaat niet over een broden. Wie zich niet wilt informeren, of het te moeilijk vindt, moet maar een Alienware of boutique pc kopen.
Je moet je informeren voor je een videokaart koopt, ja als er meer modellen zijn dan is het moeilijker te volgen, maar je krijgt hier wel meer videokaart voor bijna hetzelfde geld.
minder CUDA cores = minder parallel processors , hoezo 'meer kaart'?
Evenveel CUDA cores maar meer geheugenbandbreedte = meer kaart. Het hangt er vanaf met welke kaart je vergelijkt, het is een GTX 1660 Super, niet GTX 1660 Ti Super. Prijs ligt 10 dollar boven de gewone 1660 en 50 dollar onder de Ti, dus ja je zou ook wel kunnen zeggen minder kaart als je met de Ti wilt vergelijken, maar dan voor minder geld. Voor Nvidia zit Super onder Ti, dat zie je ook bij de 2080, 2080<2080 Super<2080 Ti (die eigenlijk een totaal andere GPU is).

Midden jaren 2000 had je een Geforce 7900 GS, GT, GTX, GTO en GX2, dàt was verwarrend.
Nee hoor, de supervarianten gaan de normale varianten gewoon vervangen..
Niet meer verwarrend dan met de andere Super varianten eerder dit jaar, lijkt me. Dat het een beetje een wildgroei aan varianten is ben ik het wel mee eens ja, maar het is nog wel *redelijk* consistent qua naamgeving.
Je vergeet de assemblage van het product, net als vele, vele andere delen van het proces. Tenzij je zelf alle losse grondstoffen in de doos wilt hebben als ikea-bouwpakket (waar je ook de kosten betaalt voor de ontwikkeling van een bruikbare handleiding)?
Je vergeet dat je nu ipv 1 ontwikkel kosten nvidia 3 chip ontwikkel processen heeft lopen

1x gpu
1x tensor core
1x rtx core

Plus integreren van dat alles in hardware en software.
Zegt u nu dat een bedrijf winst wenst te maken?
Anoniem: 426269 22 oktober 2019 15:50
En dan daarna weer de GTX 1660 Ti Super?
Interessant... Hoe zal die het doen in de Benchmarks? Zal het een verschil zijn in games? Zal het een verschil zijn in videobewerking? Zal hij veel warmer worden? Of misschien zelfs minder warm tegenover zelfde performance?

Ben reuze benieuwd.

Want die GTX1660 is echt een zeer fijne kaart voor in veel gaming of high-performance laptops.
Want die GTX1660 is echt een zeer fijne kaart voor in veel gaming of high-performance laptops.
Laptops?
nieuws: Afbeeldingen bevestigen komst Nvidia GeForce GTX 1660 Super met gddr6
Ja laptops... Veel "gaming" laptops met een GTX1660 die nog een erg leuke prijs hebben en nog een beetje normaal formaat.
Uiteraard zijn deze kaarten ook fijn voor desktops, maar ben meer benieuwd naar de laptops en hoe deze kaart wellicht wel of niet warm wordt tegenover de 'nieuwe' prestaties die het zal leveren.
Zie foto bij artikel, het gaat over desktopvideokaarten. Er zijn wel GTX 1660 GPU's voor laptops, dat is dezelfde chip maar met andere kloksnelheden. Het bestaan van een desktop GTX 1660 Super betekent nog niet dat er aan laptop variant aan komt. Er is bv ook geen mobiele RTX 2060 Super variant (en ook geen 2070 Super of 2080 Super).
Ooh zo.
Dank voor duiding.
Nog even wachten en het is weer discussie AMD vs NVidia ...

Op dit item kan niet meer gereageerd worden.