Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Nvidia GTX 1650 komt rond 22 april beschikbaar

Nvidia GTX 1650-videokaarten komen volgens een nieuw gerucht uit rond 22 april. Misschien wordt de budgetvideokaart al eerder aangekondigd. Er wordt ook nog een GTX 1650 Ti-variant verwacht, maar wanneer die komt, is nog niet duidelijk.

Volgens VideoCardz zijn fabrikanten van videokaarten bezig met het voorbereiden van de release van de GTX 1650-videokaarten rond 22 april. In de afgelopen maanden verschenen al tal van aanwijzingen over de komst van de kaarten en bleek dat er in ieder geval varianten met 4GB vram komen.

Het kan dat Nvidia de GeForce GTX 1650 al eerder aankondigt en dat er al voor 22 april reviews online verschijnen, schrijft de geruchtenwebsite. Net als bij de GTX 1660 en 1660 Ti komt er geen Founders Edition van Nvidia, dus zullen reviews gebaseerd zijn op videokaarten van Nvidia's partners.

VideoCardz denkt dat er ook nog een GTX 1650 Ti volgt, maar wanneer die uitkomt en wat de specificaties daarvan zijn, is nog niet duidelijk. Het is aannemelijk dat dit een variant is met meer Cuda-cores dan de GTX 1650, maar met dezelfde TU117-gpu. De Ti-versie van de budgetkaart zou ook de laatste kaart zijn in de GTX 16xx-serie. De komst van snellere varianten zonder cores voor raytracing lijkt daarmee van de baan.

Prijzen van de GTX 1650 en de eventuele Ti-versie zijn nog niet bekend. De videokaarten volgen de GTX 1050 en 1050 Ti op, die momenteel te koop zijn vanaf respectievelijk zo'n 125 en 144 euro. De onlangs uitgebrachte GTX 1660 en 1660 Ti kosten momenteel ongeveer 235 en 278 euro.

GTX 1650 * GTX 1650 Ti * GTX 1660 GTX 1660 Ti RTX 2060
Gpu TU117 TU117 TU116 TU116 TU106
Cuda-cores nnb nnb 1408 1536 1920
Geheugen 4GB gddr5 4GB gddr5 6GB gddr5 6GB gddr6 6GB gddr6
Geheugenbus 128bit 128bit 192bit 192bit 192bit
Introductiedatum 22 april nnb 14 maart 22 februari 7 januari

* Vermoedelijke specificaties op basis van geruchten

Door Julian Huijbregts

Nieuwsredacteur

01-04-2019 • 11:05

100 Linkedin Google+

Reacties (100)

Wijzig sortering
Ik ben het bij Nvidia momenteel echt helemaal kwijt v.w.b. kaarten.
Lijkt wel of ze de laatste tijd elke maand wel een nieuwe kaart uitbrengen.
mijn reactie kreeg -1 omdat ik dat bij de 1660 al zei. maar dit is ondertussen alweer nummer 3 als "tussen" kaart. en wanneer stopt het. ze zijn of net beter of net slechter dan kaart X.

zal wel een reden voor zijn.....
Aantal kaarten extra ten opzichte van de vorige gen valt eigenlijk wel mee:

1080 Ti => 2080Ti
1080 => 2080
1070Ti => 2070
1070 => 2060
1060 6GB => 1660Ti
1060 3GB => 1660
1050Ti => 1650Ti
1050 => 1650

Waarschijnlijk komt er voor de 1030 ook nog wel iets nieuws. Wel vraag ik me af of het niet duurder is om minder van meer modellen te verkopen. Dat ze bijvoorbeeld een RTX2060 hadden gepositioneerd in het prijspunt tussen de 2060 en 1660TI (300 euro) en laatstgenoemde niet hadden uitgebracht.
Wat ik zelf heel erg hoop is dat de opvolger van de 1030 duidelijker gaat worden.
Misschien iets van GTX 1050 prestaties met lager energieverbruik, en dit keer wél met GDDR5, zonder alle verwarring?

Vooral de verwarring tussen het huidige DDR4 en GDDR5 model van de 1030 brengen veel verwarring.
Iets wat nooit had mogen gebeuren.
Ja, daar ben ik laatst ook in getrapt (waar ik pas achter kwam toen ik hem weer doorverkocht). Beter stoppen ze er ook gelijk minimaal 3GB op, aangezien je hem dan wel mag gebruiken met Netflix 4K..
Die 3GB VRAM limiet voor Netflix 4K heeft NVIDIA zelf verzonnen om HTPC eigenaars meer te doen besteden en te verplichten een GTX 1050 Ti te nemen. Er is geen enkele technische reden dat zoveel VRAM nodig is voor 4K met DRM.
I know, daarom ook de "mag" ;)
Meer verschillende kaarten levert natuurlijk een kost op. Langs de andere kant is de release-strategie heel duidelijk wat men "afromen" van de markt noemt. De duurtse modellen eerst, en dan langzaamaan goedkopere modellen. Dit verleidt het 'maximum' aantal mensen om duurdere kaarten (met grotere marge) te kopen.
Verder is de kost voor nVidia ook redelijk beperkt: voor veel modellen gaat het om dezelfde chips met features aan of uit. Vooral kaart OEMs zijn gedwongen om voor elk type wel wat te releasen en worden dus op kosten gejaagd omdat ze vaak wel andere PCB's nodig hebben, met aangepaste componenten en verpakkingen.
Je vergeet dat nVidia chip ontwerper is en geen kaarten maakt/verkoopt.
Een aantal van de modellen die je opsomt gebruiken dezelfde chips, eventueel met uitgeschakelde stukken of lagere kloksnelheid.
Veel "verschillende" producten kost hen dus niet zo veel.
Als een kaartenmaker denkt dat hij de 1060 3GB niet voldoende kan verkopen om winst te maken, dan doet hij dat gewoon :)

Het punt is natuurlijk dat als nVidia elke maand een chip "uitbrengt" er elke maand een persbericht is (zoals bovenstaande) en dus gratis reclame.
Dat is vrij simpel, De 16** reeks was nooit bedoeld te bestaan.

Dus dan was het vrij duidelijk geweest, vanwege tegenvallende verkoopcijfers, en voornamelijk de ongelooooooflijke hoeveelheid weerstand die er tegen hun productlijn was (en bleef groeien), met enige onduidelijkheid of AMD nu wel of niet competetief gaat kunnen zijn met Navi (waarschijnlijk niet, maar wel beter dan nu), kunnen ze simpelweg niet anders dan de 16** lijn.....

Je overzichtje klopt overigens niet erg, maar dat is niet erg, fixen we even:

2080TI > Het nieuwe vlagschip, ook comfortabel sneller dan Titan V.
1080TI > 2080 (is erg afhankelijk van user, ze zijn op andere vlakken aan beide kanten soms flink sneller), maar gezien de ruim € 125,-- meerkosten voor de 1080TI zou ik toch de 2080 als winnaar zien.
2070 > Tja, eenzaam bij deze prijsstelling, qua prijs concurreert hij met 1080, maar die veegt hij van tafel.
1080 > Totdat er wat aan de prijs gedaan word heeft deze kaart geen nut meer, bij ~530 is hij nipt goedkoper dan de 2070, maar verliest hij dik op alle vlakken. Deze kaart zou ik alleen met een 33% opruimingskorting nog overwegen.
1070/1070TI > 2060-6GB (1070 iets(3%) langzamer & 9% goedkoper, 1070TI 15% sneller & 5% duurder)
1060 6GB > 1660 (1060- 6GB iets sneller)
1060 3GB > 1660 (1660 iets sneller)
1050TI > 1650?
Dat doen ze toch echt al jaren zo, bij iedere nieuwe generatie worden de kaarten gefaseerd uitgebracht.
Ik ben echt het overzicht kwijt. Hoeveel kaarten gaat Nvidia zo nog lanceren?
ik ben het ook kwijt. vindt het altijd leuk om te volgen voor potentiële opvolgers voor mn 1080TI. maar ze brengen kaart na kaart uit. en waarom?
ze presteren allemaal onder of tussen kaart X en kaart Y. waarom zoveel tussen oplossingen uitgeven? nu is het voor de simpele consument ook niet meer duidelijk/makkelijk om een kaart te kiezen.
Hoe meer kaarten dat beschikbaar zijn en een "NEW PRODUCT" labeltje kunnen dragen hoe meer potentiële consumeren ze te pakken kunnen krijgen.

Er zijn nl veel mensen die iets kopen omdat het nieuwer is dan...Ondanks het al dan niet verschil t.o.g oudere producten van hetzelfde merk.
Je overschat de inzichten van de consument.
Voor tweakers is de keus goed te maken na een degelijk onderzoek.

De "gewone consument" boeit het niet, of vraagt een tweakers....als ze die kennen.

Dat laatste klopt dan weer wel. Het nieuwste is het beste....Al vraag ik me af of de "gewone consument " wel weet wat het nieuwste is op het gebied van grafische kaarten.
Met het absolute topmodel van de vorige generatie, ben jij uiteraard niet de doelgroep van deze kaarten.
Heel veel consumenten stellen een pc samen op basis van een budget. Stel dat je afhankelijk van je cpu/geheugen/moederbord etc. nog rond de 150 euro overhoudt voor een grafische kaart? Dan heb je met de introductie van deze kaarten weer wat meer power voor je geld dan voorheen.. niet zo ingewikkeld toch?
Heel simpel. Ze hebben geen concurrentie dan maar AMD lastig vallen met de 1600 serie zodat de 500 serie van AMD niet meer interessant wordt.
@jeppekroezen @Cowamundo

De 16xx series van Nvidia zijn qua architectuur hetzelfde als de RTX 2xxx series, maar dan zonder Raytracing cores. Dus:

RTX 2060 > GTX 1660Ti > 1660 > 1650.

Of:

[Reactie gewijzigd door AnonymousWP op 1 april 2019 11:27]

Ik zie het voordeel om zo'n kaart uit te brengen nog steeds niet.
Ik denk om meer concurrentie te bieden tegen AMD, juist in de mid-tier kaarten is dat belangrijk omdat daar verreweg de meeste sales liggen. Volgens de Steam hardware survey is de 1060 nog steeds de meest populaire kaart.

Een 1660 of 1650 is een leuk alternatief voor een 580 of 590 mits de prijs goed is.

https://store.steampowered.com/hwsurvey/videocard/

edit: link

[Reactie gewijzigd door PearZeaL op 1 april 2019 11:36]

Als de benchmark van Final Fantasy een beetje een indicatie is, is de 1650 niet eens sneller als een 570 maar wel enkele tientjes duurder, mocht dat waar zijn echt een nutteloze kaart

https://nl.hardware.info/...an-22-april-wordt-genoemd

Zielige is dat hij zelf dan nog steeds massaal verkocht gaat worden

Nou weet ik dat deze benchmark weinig zegt, maar je kan hem wel gebruiken om kaarten onderling te vergelijken
Hij is wel zuiniger dus dit kan zich terugverdienen qua elektriciteitskosten.
Wellicht als je x aantal jaar elke dag 24 uur per dag speelt, maar bij deze klasse kaarten is dat volgens mij echt geen punt

Wel kan het zo zijn dat deze kaart een betere keus is omdat je geen andere keuze hebt, bijvoorbeeld door small form factor kaarten of de afwezigheid van een power connecter

Maar buiten dat kan ik me geen goeie reden bedenken om eeneen duurdere, langzamere kaart aan te schaffen
Bij 30W verschil en gemiddeld 3,5 uur gamen kom je op 0,105 kWh per dag. Dat is 38,5kwh per jaar. Grofweg 8,45 euro. Niet heel veel, maar gaat in 4 jaar toch al richting de 35 euro. En 3,5 uur is niet gek veel. Bovendien zou hij ook idle(dus bij desktopwerk) al meer kunnen verbruiken.
Stroomverbruik is altijd een punt, of heb je de memo over de klimaatverandering niet gehad? Bovendien zegt het iets over het process wat AMD gebruikt. Kaarten die dubbel zoveel verbruiken voor de dezelfde prestaties zijn gewoon slecht bedacht en gemaakt.
Doordat hij minder verbruikt is hij ook koeler, en heb je minder lawaai van ventilatoren.
En al die duizenden mensen die deze zuiniger kaart gebruiken is toch een relevante hoeveelheid minder energieverbruik, dus misschien wel minder co2 uitstoot en dus beter voor het klimaat :)
Voor mij ook de reden geweest om een 950 te halen toendertijd. Ik speel games op FullHD en ik wilde graag een kleine kast maken. Het feit dat de 950 zo zuinig doet met de voeding maakt het een ideale kaart om een ventilatiebak te vermijden.
Of je er wat aan hebt/mee kunt is een tweede, maar naast een veel betere efficiency hebben moderne kaarten vaak ook moderne features die de oudere generaties missen (bijv. hardware-matige ondersteuning voor nieuwere grafische effecten, HDMI 2.x, Ansel, ...)
Dus die enkele watt weegt op tegen de extra kosten?

Vergeet niet dat de grootste kosten qua stroomverbruik zit in de netwerkkosten en belastingen? Niet in de kosten per kWh
FF-Bench is een farce,, dat weet iedereen. :P

Bovendien heeft iedereen in dit segment al iets. Misschien zelfs een RX 470, of de beste deal van de laatste twee jaar, in dit segment, de RX 570.

In mijn opinie is deze kaart vrij overbodig.
1660 (of Ti) is dan veel leuker.

Ik begrijp werkelijk waar niet waarom iemand dit zo kopen.
Volgens mij zijn het gewoon afdankertjes.
De kans is groot dat de 1650 Ti zonder PEG-connector komt, net zoals de 1050 Ti. Daarmee wordt het de nieuwe zuinigheidskampioen, wat in sommige (HTPC)-systemen een must is of omdat de voeding gewoonweg geen PEG-kabels heeft. Zo heb ik eens een zeer compacte PC met een i5-6500 en een 1050Ti voor iemand gebouwd die op een PicoPSU 160 XT werkte.
Snap ik helemaal, en ook mee eens.
Maar zoals ik zei, de doelgroep heeft dit al.

Zou jij dit kopen om een "zuinigheidskampioen" in je PC te proppen terwijl je dat eigenlijk al hebt?
Ik zie de "upgrade" voor deze doelgroep niet.
Misschien als je echt nog op een oud systeem zit, maar, in mijn ogen is dit te klein, te laat.

Ik kan het helemaal fout hebben, en we zullen het wel zien over een paar maandjes.
Gaan we benchmarks cherrypicken?
Gast.... het is de enige benchmark die geleaked en beschikbaar was, plus heb ik er genoeg info bij gezet
zodat je zelf een conclusie kan trekken.. als dat voor jouw te moeilijk is, niet mijn probleem
Het gaat om twee zaken. Prijssegmenten en uitfaseren van de 10xx lijn.

1050 > 1650 (laag prijssegment)
1050ti > 1650 (laag prijssegment)
1060 3gb > 1660 (midden laag prijssegment)
1060 6gb > 1660 (midden laag prijssegment)
1070 > 1660ti (midden gemiddeld prijssegment)
1070ti > 2060 (midden hoog prijssegment)
--einde directe performance overeenkomsten
1080 > 2070 (hoog prijssegment)
1080ti > 2080 (hoog prijssegment)

En AMD wordt een pootje gehaakt.
Voordeel voor consument of voor Nvidia?
  1. Voor Nvidia: ze kunnen raytracing (geen realtime) naar goedkopere kaarten brengen, waardoor klanten verleid worden om RTX-kaarten te kopen, omdat de performance meh zal zijn op dit soort kaarten.
  2. Voor klanten: je bent niet verplicht een duurdere raytracing kaart te kopen als je dit niet wilt gebruiken.
Deze goedkopere kaarten zijn niet beter in raytracing dan AMD kaarten, er is geen hardware ondersteuning aanwezig.
Zei ik dan dat ze beter zijn dan AMD-kaarten, of zei ik überhaupt dat er geen hardwareondersteuning voor was?
Nee sorry druk me misschien niet zo goed uit, nogmaals proberen: waarom zouden deze kaarten meer mensen richting RTX verleiden, AMD heeft ook kaarten met een betere prijs/performance maar geen hardware raytracing support dus ik zie echt geen aanleiding om deze kaarten uit te brengen op je sales op de RTX kaarten te boosten.

Klant: ik koop een gtx kaart, ik probeer raytracing en dat werkt k#t dus toen kocht ik een RTX kaart -> dit zal heel misschien een paar keer voorkomen, maar meer ook niet. Mensen die raytracing zouden willen ( niet dat iemand dit zou moeten willen, gezien de brakke performance in b.v. Battlefield en de marginale betere iq ( image quality )) die halen meteen een RTX en gaan niet eerst een goedkopere, meer zinnige kaart halen.

Nee de reden dat zij dit uitbrengen is omdat ze door hebben dat ze nu een betere prijs/performance hebben tegenover AMD en omdat ze genoeg slechte feedback hebben gehad over hun raytracing implementatie ( kan beter worden met betere ondersteuning maar tot nu toe is het brak ).
AMD heeft ook kaarten met een betere prijs/performance maar geen hardware raytracing support dus ik zie echt geen aanleiding om deze kaarten uit te brengen op je sales op de RTX kaarten te boosten.
Op deze manier houdt nVidia die mensen in hun eigen kamp, door een fatsoenlijk alternatief aan te bieden voor de prijs/prestatie-winnaars uit het rode kamp. Hadden ze dat niet gedaan, dan waren waarschijnlijk velen die in de markt zijn voor een nieuwe GPU maar geen interesse heeft in hardware-matige raytracing overgegaan naar AMD. Waarna de kans groter is dat zij vervolgens op termijn ook een AMD-kaart met hardware-matige raytracing zullen aanschaffen (mocht het ooit mainstream worden).
AMD heeft geen kaarten met een betere prijs/performance/watt. Over heel de lijn hebben ze niets meer;
Verbruik gaat hopelijk beter worden met de volgende iteratie, maar dan nog duurt het volgens mij wel even voor je de meerprijs van Nvidia eruit hebt.

edit: kijk hier helemaal voor je uitgerekent -> MN-Power in 'nieuws: Gerucht: Nvidia GTX 1650 komt rond 22 april beschikbaar'

aval0ne in 'nieuws: Gerucht: Nvidia GTX 1650 komt rond 22 april beschikbaar'
Stroomverbruik is altijd een punt, of heb je de memo over de klimaatverandering niet gehad? Bovendien zegt het iets over het process wat AMD gebruikt. Kaarten die dubbel zoveel verbruiken voor de dezelfde prestaties zijn gewoon slecht bedacht en gemaakt.
Tja dit maakt dan wel al duidelijk dat het je niet echt om de feiten gaat, met je 'dubbel verbruik voor dezelfde prestatie' stelling.

[Reactie gewijzigd door AngryMartian op 1 april 2019 20:53]

Door wie worden wij verleid?
jij en ik kopen dit dus niet! { ga ik van uit van jouw } deze kaart is goed voor?

dit word verkocht door mediamarkt aan mensen die totaal geen verstand van pc's hebben { denk ik meer }
Voor het midden segment te bestrijken en amd te beconcurreren.
Goedkopere kaart voor de budgetpocket. De 10xx lijn wordt nu uitgefaseerd.
Hoe zit het met 1060 6gb > 1060 3gb> 1050ti?
De 1660 is de opvolger van de 1060. De 1050Ti is een stap lager in het segment en dus meer budgetgericht.
Wat is beter voor NeuroIntelligence/AI?
Helpen daar de Raytracing cores ook voor, of is dat alleen voor gaming?
Of heeft de 2xxxx serie zoveel meer/krachtigere cuda cores dat die ook voor NI/AI beter is ook al is hij van dezelfde 2NX0 reeks als de 1NX0 reeks? (is de 2060 beter dan 1060 etc, of maakt dat voor AI niet uit?)
Raytracing cores zouden ook moeten helpen met dat soort dingen ja. Volgens mij is raytracing zelfs een AI-achtig dingetje op zichzelf al. Of het beter is voor gaming dan voor AI, weet ik dan weer niet.
De vraag is voor wie een GTX 1650 bedoeld is. De meeste mensen hebben al een GTX 1060 of RX 580 en deze kaart is dus voor velen eerder een downgrade dan een upgrade. En verder vraag ik mij af wie nog gaat kiezen voor Nvidia nadat hun populairste kaart ooit (GTX 1060) consistent verslagen werd door de concurrentie. In bijna iedere recente AAA game:

Apex Legends Radeon RX 580 vs GeForce GTX 1060
https://www.youtube.com/watch?v=V_Je1KukX1k&t=362s

Shadow of the Tomb Raider PC Performance - AMD vs NVIDIA
https://www.youtube.com/watch?v=zj5PO-QsxJ0&t=372s

Battlefield 5 GTX 1060 Vs AMD RX 580 Frame Rate Comparison
https://www.youtube.com/watch?v=DT5H2Z72lJs&t=18s

Kingdom Come Deliverance GTX 1060 Vs AMD RX 580
https://www.youtube.com/watch?v=C6wV9WwC0pw&t=76s

Metro Exodus - RX 580 vs GTX 1060
https://www.youtube.com/watch?v=4Aa7dAd2HHI&t=137s

Hitman 2 - GeForce GTX 1060 6GB vs Radeon RX 580 8GB
https://www.youtube.com/watch?v=-C9kmHLKgEc&t=25s

Strange Brigade - RX 580 vs. GTX 1060 - Vulkan & DirectX 12
https://www.youtube.com/watch?v=4ENWJaT7ve0&t=2s

The Division 2 DX12 GTX 1060 Vs AMD RX 580 Comparison
https://www.youtube.com/watch?v=rC_HC5XN2a0&t=19s

Far Cry 5 - RX 580 vs GTX 1060 (Latest Drivers Benchmark)
https://www.youtube.com/watch?v=-uJZkINjdoQ

Call Of Duty Black Ops 4 GTX 1060 Vs AMD RX 580 Frame Rate Comparison
https://www.youtube.com/watch?v=PcIIc1VE-M0&t=15s

Far Cry New Dawn - GTX 1060 vs RX 580 | Ultra Settings
https://www.youtube.com/watch?v=tlTzfnV4wjE&t=15s

Monster Hunter World Graphics Settings Benchmark | GTX 1060 3gb vs RX 570 4gb
https://www.youtube.com/watch?v=35Bxp3-we7I&t=378s

Forza Horizon 4 Test - RX 570 vs. RX 580 vs. GTX 1060
https://www.youtube.com/watch?v=Krj_-kq6eHM

Wolfenstein 2 GTX 1060 Vs AMD RX 580
https://www.youtube.com/watch?v=X95S0aM8xAY&t=64s

Resident Evil 7 GTX 1060 Vs AMD RX 580 Frame Rate Comparison
https://www.youtube.com/watch?v=d-Q5R1QK0fI

DiRT Rally 2.0 Australia - GTX 1060 | R9 390X | RX 580
https://www.youtube.com/watch?v=Ztsm-OEIKPA&t=190s

The Evil Within GTX 1060 Vs AMD RX 580 Frame Rate Comparison
https://www.youtube.com/watch?v=DJ4wzrUMI_I&t=15s

Sniper Elite 4 - RX 570 / 580 vs GTX 1060 3GB / 6GB - 1080p
https://www.youtube.com/watch?v=qbPjhVrCbzU&t=1327s

Devil May Cry 5 Benchmarks - RX 480 vs GTX 1060
https://www.youtube.com/watch?v=CWfRzh52iEw&t=187s

PUBG 1.0 Radeon RX 580 vs. GeForce GTX 1060 6GB Gameplay Benchmark.
https://www.youtube.com/watch?v=PRi-7htbyT8&t=50s

The Witcher 3 AMD RX 580 OC Vs GTX 1060 OC 1080p Frame Rate Comparison
https://www.youtube.com/watch?v=zRBAe9FlnhU&t=16s

Anthem - Radeon RX 580 vs. GeForce GTX 1060
https://www.youtube.com/watch?v=qAVhVkMCYj4
cherry picking in het voordeel van de RX 580, zo kan ik er ook een hoop vinden waar de GTX 1060 sneller is met recente AAA titels.
Ik heb eigenlijk niet aan cherry picking proberen te doen. Gewoon zoektermen "games 2017" "games 2018" en "games 2019" in google getypt en dan heb ik er de grafisch meest gedetailleerde games uit geselecteerd. Want Super Mario Odyssey zal wel goed genoeg draaien op beide kaarten denk ik? Maar van dit soort titels zul je er inderdaad een paar vinden waar GTX 1060 sneller is.

Of bvb in Assassin's Creed Odyssey is de GTX 1060 ook sneller. Dit spel is uit mijn selectie gebleven omdat het eigenlijk geen recent spel is. Want de Anvil engine is een fossiel. Het spel had perfect in 2007 gemaakt kunnen zijn..

Final Fantasy XV is ook uit mijn selectie gebleven. Omdat ik nog nooit zo een dwaas spel gezien heb in mijn leven.

Ik vermoed dat je dit type games bedoelt want de ander types van de laatste drie jaren staan allemaal in mijn lijst.
De RX 580 is gemiddeld wel sneller maar in lang niet alle nieuwe tripple A games.
https://youtu.be/husWvHV4Wc4

Je doet overigens wel aan het cherry picking wat je ook aan geeft gezien je bepaalde games achterwege laat, games die gewoon door veel gamers worden gespeeld.

[Reactie gewijzigd door Gekke Jantje op 1 april 2019 20:08]

Je moet de definitie van cherry picking eens opzoeken want je lijkt enkel een vaag idee te hebben zonder de kern van de uitdrukking correct te begrijpen.

Mijn standpunt gaat over onderstaand soort games:

1) Games die gebruik maken van een recente game engine.

2) Geen enorm ridicule games.

3) Games die grafisch veeleisend zijn.

Data en gegevens die niet aan deze drie voorwaarden voldoen kunnen mijn standpunt niet ontkrachten of nuanceren.

Feiten worden dus niet selectief genoemd om een standpunt te verdedigen.

En dus geen cherry picking.
De meeste mensen hebben al een GTX 1060
Ik denk dat jij je daar nog in werkelijkheid redelijk in kunt vergissen, ik ken zelf juist maar weinig mensen die ook maar een GTX1060 hebben, voor de meest die ik ken is die altijd nog ver boven hun budget geweest. Voor een doorsnee consument is 200 euro al heel veel geld voor een GPU.
De 10xx generatie is over de gehele tijd al een dure generatie geweest.
Ik bedoel niet enkel GTX 1060 en RX 580 dat waren twee voorbeelden. En natuurlijk kan ik me vergissen. Dat gebeurt, maar eerder zelden.

Steam Hardware & Software Survey: February 2019
https://store.steampowered.com/hwsurvey/videocard/

De betekenis van de feiten is redelijk duidelijk. Enorm veel steam gebruikers hebben een GTX 1060, 1050 Ti, 1050, 1070, 960, 970, 750 Ti, 1080, 1070 Ti, RX 570, Vega 56/64, Radeon VII, RX 480/580, 760, 770, 780, 980, 980 Ti, .. Procentueel gezien vormt deze groep de meerderheid van de steam gebruikers. En zowat iedere gamer gebruikt ooit steam dus de statisteken geven een bijna allesomvattend beeld.

Zijn bovengenoemde kaarten allemaal ver boven het budget van de meeste mensen? De statistieken geven een ontegensprekelijk antwoord op deze vraag:

Neen.

Wanneer is voor één van van de eigenaars van bovengenoemde kaarten de GTX 1650 een zinvolle upgrade? Ook hier is er maar één correct antwoord:

Bijna nooit.

Mijn punt is dus dat de GTX 1650 een marginale upgrade (of een downgrade is) voor bijna alle mensen die dit soort bedrag aan een GPU geven.

En verder is het ook geweten dat Navi bijna op de markt komt en een significantere verbetering kan zijn. Opnieuw een feit dat de al kleine doelgroep van deze kaart nog kleiner maakt.
Maarja, de helft van de GPU's die je opnoemt zijn wel inmiddels zeer oude GPU's en een ZEER stuk trager dan de 1060 of zelfs de 1050..

Over de Navi is voorlopig nog helemaal niets over bekend, zelfs niet eens of ze nog wel dit jaar uit komen.
Mensen die zien dat het stroomverbruik dubbel zo hoog ligt bij AMD?
Vroeger waren er genoeg momenten dat het andersom was. Waardoor aangetoond is dat stroomverbruik de keuze voor een bepaalde GPU weinig of niet beïnvloed.

En het is blijkbaar ook niet dubbel zo hoog: https://www.guru3d.com/ar...rx580-8g-oc-review,6.html

188/134 = 1.402 Als je denkt dat 40% extra een verdubbeling is dan denk ik dat je gedachten meelijwekkend zijn. Bovendien hebben de meeste mensen maar een 60Hz of 75Hz monitor en je kunt er dan via de driver voor zorgen dat hij niet meer FPS genereert dan nodig is. Wat ervoor zorgt dat je stroomverbruik doorgaans een stuk onder deze 188 Watt blijft. In idle maar gemiddeld 6 Watt verschil tussen de twee wat bijna helemaal niets is.

Ik zie bvb hoe de meeste mensen en bedrijven constant lampen laten branden in situaties waar het geen enkel nut heeft. Dit zou een veel grotere energiebesparing opleveren.
AMD fans doen echt alles om hun onkunde te verbloemen.
Zo lastig is het toch niet? Vier RTX kaarten met Raytracing + DLSS en vier GTX kaarten zonder deze features. Als Nvidia gekozen had om alle kaarten 20XX te noemen was het helemaal onduidelijk geweest voor de gemiddelde consument.
Same here. Ik zie het nut ook niet. Wat we juist willen zijn kaarten vergelijkbaar met de 1080ti zonder RTX technologie.
Ben benieuwd wat voor performance uit een 1650 gehaald kan worden, ongeveer gelijk aan een 1060?

De prijs zal deze kaart maken of breken.

edit:typo
Ik geloof dat 1660 ongeveer gelijk is aan 1060, zelf iets beter. Ik denk dat deze 1650 ongeveer gelijk is aan 1050 of zelfs iets beter. Ik denk dat deze 1650 tussen 1050 en 1060 zit.
Maar laten we rustig de specs en benchmarks afwachten!
Nee, de 1660 is een stuk sneller dan de 1060. Maar ik verwacht zeker niet dat de 1650 vergelijkbaar zal zijn met de 1060, de 1650ti daarentegen zou me niet verbazen als die wel in de buurt daarvan zal komen.
Bij CPU's wordt vaak vermeld op hoeveel nanometer de chips zijn gebakken, hoeveel is dat bij zo'n GPU?
Volgens mij is deze architectuur op 12nm gemaakt.

Edit: klopt wat ik zei. Is 12nm: https://en.wikipedia.org/wiki/Turing_(microarchitecture)

[Reactie gewijzigd door AnonymousWP op 1 april 2019 11:11]

het is 16nm+ (wat de marketing naam 12nm heeft gekregen)
Maar waar blijven de 1670 en 1680?
Was het maar zo'n feest. RTX kan mij momenteel gestolen worden, maar ik wil wel extra power voor VR en nieuwe games. En bij de 2080(ti) voelt het als over betalen voor een feature die nog in de kinderschoenen staat.
2080 heb je vanaf een euro of 700? Dat is minder dan ik voor mijn 1080 en daarna 1080ti heb betaald...
Ja ik kan er ook niks aan doen dat jij die 1080 op het verkeerde moment hebt gekocht. Die heeft lang genoeg rond de €600-650 gestaan (uit mijn hoofd heb ik er €632 voor betaald).

De 1080ti heeft merendeels onder de €1000 grens geleefd en 2 tot 3 maanden er boven. Niet zoals de 2080ti die standaard rond de €1300 hangt. Laten we zeggen dat er per gen hoe dan ook €50-€100 bij komt dan betaal je nog steeds €200-300 premie voor RTX. En eerlijk gezegd vind ik het ook niet meer waard dan €1000,- wat als we eerlijk zijn hoe dan ook veel geld is.

De 2080 vind ik een te kleine upgrade in mijn situatie voor het bedrag. Een 1680 kaart onder de €1000 zou voor mij een nobrainer zijn. Nvidia mag beslissen welke prijs ze er op plakken, maar ik hoef er niet in mee te gaan. Er zijn nou eenmaal mensen die wel het budget hebben, maar iets toch te duur kunnen vinden :+
Ik voor beide rond de 750 betaald, dus valt alleszins mee. Maar 700 vind ik niet onoverkomelijk duur of zo.. En de prijzen zullen alleen maar dalen. Als ik geen 1080 of 1080ti had gehad, had ik er zonder problemen één gehaald. Wat had je dan redelijk gevonden, €550? Vind ik niet heel realistisch eerlijk gezegd.
Dat is nog steeds dik veel geld voor een component dat (heel kort door de bocht) maar 1 ding kan dat het al 20 jaar kan.
Dan moet je niet voor een (semi)topkaart gaan. Er zijn genoeg mensen die bijna anderhalf keer dat bedrag overhebben voor een telefoon of all things... En die worden sneller duurder dan videokaarten.
Een GTXxx60 is altijd midrange geweest.
Ik reageerde op Beakzz die het over de 2080(ti) had.. :)
Maarja, 700(+) is nog steeds GIGANTISCH veel voor een GPU.
Voor een telefoon is het het begin van de high end prijzen. Ik vind het dus wel mee vallen(die prijzen vind ik pas gigantisch). Ik koop liever een telefoon die een stuk goedkoper is en een videokaart voor deze prijs dan andersom. Als jij dat niet zo ziet doe je het omgekeerde, of allebei goedkoop. Stem met je portemonnee zou ik zeggen.
En ik koop liever geen van beide voor zulke bedragen, zeker omdat ze eigenlijk binnen aanzienlijke tijd al lang weer voorbij gestreefd zijn door goedkopere varianten.. En met een telefoon doe je tegenwoordig toch rustig enkele jaren mee.
Ik heb dan weer liever de rust dat ik met gemak 4 jaar met een kaart kan doen. Heb geen zin elke 2 jaar een net-niet kaart te kopen. Betaal je uiteindelijk iets minder(of misschien net zo veel), maar je hebt nooit de top en meer gedoe(extra keer kopen+verkopen). Dat niet hoeven doen is mij het geld dubbel en dwars waard.

Bij telefoons heb ik eerlijk gezegd vooral belang bij een goede camere(+app). Daar heb je bij een slechte keuze nog last van als je telefoon al vervangen is(de foto's blijven) voor de rest is het fijn als ie veilig blijft(nieuwe versies van het OS kunnen mij an sich gestolen worden, als ie maar niet lek is). En qua processor heb ik ook niet heel veel nodig, ik heb een hekel aan gamen op mijn telefoon. Stevig moet ie overigens wél zijn dus een glazen achterkant komt er bij mij niet in. Dus mijn volgende moet toch echt wel sub €400 kunnen worden. Liefst nog minder, want het is me het echt niet waard.

[Reactie gewijzigd door MN-Power op 2 april 2019 10:31]

Ik wou dat ze een GTX 2080ti uitbrachten ofzo ... Persoonlijk kan ik niet wachten op fully raytraced games, maar momenteel is de prijs te hoog en het verschil/aanbod in games eerder mager. Ik wil gewoon de performance van die 2080ti , maar 1600 euro is toch echt pijnlijk.
Dan zou het waarschijnlijk de 1680Ti worden en niet de 2080Ti. 20xx is soort van gereserveerd voor RTX line-up.
Inderdaad
Een GTX zonder RT-cores, maar met Tensor cores.
De Tensor cores kunnen via DLSS de Cuda cores ontlasten van AA functionaliteit.
Belangrijkste detail van deze specifieke kaart ontbreekt: Is dit een <75W kaart zoals de voorgangers? Dat is natuurlijk waarom je deze kaart zou kiezen. Vooral gezien er dan ook nog wel een LP variant in zit.
uhh, nee dat is niet waarom je deze kaart zou kiezen. Deze kaart zou je kiezen omdat die gewoon een stuk goedkoper is dan de 1660(+) kaarten. Laag verbruik is dan mooi meegenomen. En een LP variant is natuurlijk niet aan Nvidia, maar aan de kaartmakers, uiteindelijk zal er wel 1 maker zijn die zo 1tje gaat maken.
Zou leuk zijn als er een 1650 low profile zonder aparte voeding uit zou komen
Ik heb een Palit GTX770 en zie inmiddels door de bomen het bos niet meer. Benchmarks enzo geloof ik allemaal wel, maar hoe groot is de performance boost die ik zou krijgen van een GTX1650/1660 t.o.v. mijn oude GTX770 bij het spelen op full HD?
Kun je heel makkelijk zelf opzoeken.. Door benchmarks te bekijken.
"Benchmarks geloof ik allemaal wel" --> die zeggen mij weinig over real-world performance.

[Reactie gewijzigd door TMDC op 1 april 2019 15:34]

Waar heb je het over? Je kunt gewoon game benchmarks opzoeken.
Leuk als je FPS speelt, maar niet voor de games die ik speel.
Als je mij vraag denk ik dat een 1660 al 2x zo snel is. 770 naar 970 is al een stuk verbetering. 1070 presteerd plus min 2x de jouwe en de 1660 is grof weg zo snel als een 1070.
hoe groot is de performance boost die ik zou krijgen van een GTX1650/1660 t.o.v. mijn oude GTX770 bij het spelen op full HD?
Er zijn weinig reviewers die echt oude kaarten meenemen ja.

Ik ben van r9 290 naar 1660Ti gegaan, had toen weten te vinden dat dat ongeveer 2x zo snel was. 1660 doet weinig onder voor 1660 Ti dus denk dat die ruim 2x zo snel is als je 770, lager verbruik.
Dank, daar kan ik wat mee. Lager verbruik is natuurlijk mooi meegenomen, maar als dat de enige reden is om te upgraden dan is het een dure manier om geld uit te sparen.
Zelf heb ik nog de GTX760 en zit nu ook te kijken naar de GTX1660(ti) of RTX2060 als opvolger, eindelijk zijn die dan een beetje betaalbaar geworden voor (nog geen) midrange kaart.
Met de GTX1660 kun je alles wel goed op Full HD spelen.
Maar prijs is natuurlijk wat het verschil maakt, iedereen heeft een ander budget in gedachte voor een GPU upgrade.
Ja, de markt is volgens mij ook een forse tijd oververhit geweest vanwege de mining-gekte. Ik zit in hetzelfde schuitje als jij denk ik, ik vind het niet erg om wat geld uit te geven maar dan wil ik wel weer 3 a 4 jaar vooruit kunnen.
Ja, duh. Trouwens, ze linken gewoon netjes naar het artikel van VideoCardz.


Om te kunnen reageren moet je ingelogd zijn


OnePlus 7 Microsoft Xbox One S All-Digital Edition LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Sony PlayStation 5

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True