Gerucht: Nvidia brengt volgende maand GTX 1650 uit

Nvidia werkt aan een nieuwe GTX-kaart met Turing-gpu. Die GTX 1650 verschijnt volgens een gerucht volgende maand. De kaart zou een plek in Nvidia's line-up onder de GTX 1660 en GTX 1660 Ti gaan innemen, die ook nog moeten verschijnen.

Videocardz schrijft er zeker van te zijn dat de GTX 1650 gaat verschijnen en dat zou betekenen dat de GTX-serie met Turing-gpu's achtervoegsels in de vorm van 16xx krijgen. De site speculeert verder dat de videokaarten een TU117-gpu krijgen.

Het gerucht over de komst van de videokaart volgt op berichten dat Nvidia op het punt staat de GeForce GTX 1660 Ti uit te brengen. Van deze kaart zijn al diverse afbeeldingen en specificaties verschenen. De videokaart zou een TU116-gpu met 1536 Cuda-cores en 6GB gddr6-vram krijgen, maar geen RT-cores voor raytracing bevatten.

Begin maart volgt volgens verdere geruchten de GeForce GTX 1660 zonder Ti-aanduiding maar met eveneens de TU116-gpu. Hierbij zou Nvidia minder Cuda-cores geactiveerd hebben en ook krijgt de kaart wellicht lagere kloksnelheden en een 3GB-variant.

Door Olaf van Miltenburg

Nieuwscoördinator

22-02-2019 • 10:15

77

Reacties (77)

77
73
32
2
0
33
Wijzig sortering
Men ontwikkeld nieuwe 20xx kaarten om hierbij raytracing te introduceren, maar na al die maanden blijken de kaarten niet zo goed te verkopen als ze gehoopt hadden. In plaats van de productiekosten naar beneden te brengen en de kaarten goedkoper aan te bieden kiest men er voor om een nieuwe GTX lijn te starten die waarschijnlijk minder goed zijn als de 20xx-serie 8)7

Soms vraag ik mij wel eens af of bedrijven als Nvidia denken dat consumenten echt zo dom zijn. Ze voeren prijsverhogingen door van meer dan 20% bij de release van een nieuwe lijn, en blijven denken dat consumenten aan het springen zijn om de nieuwe kaarten aan te schaffen. Het is gewoon lachwekkend.

Nvidia lijkt steeds meer op Microsoft Intel, alleen gaan nog net een stapje verder. Begrijp me niet verkeerd ik gebruik beide merken zelf, maar de tijd dat ik het nieuwst van het nieuwste aanschaf is al lang voorbij. Met zulke woekerprijzen schaf ik gewoon producten aan die een generatie ouder zijn. De prestatiewinst is minimaal, maar je betaald wel de hoofdprijs. Gelukkig zie je dat mensen steeds beter nadenken en zich niet laten oplichten.

Het is een leuk idee van Nvidia om deze GTX1650 uit te brengen, maar dit wordt waarschijnlijk een nog grotere flop dan de 20xx serie kaarten. Maak de kaarten gewoon goedkoper en mensen zullen ook sneller nieuwe kaarten aanschaffen..

[Reactie gewijzigd door Andyk125 op 23 juli 2024 01:17]

Tot zeg maar de voorbije paar jaren zijn prijzen voor GPU's echt de hoogte in geschoten inderdaad.

De huidige GTX 670 (oud beestje inderdaad ondertussen) in m'n systeem kostte toen die uitkwam te verkrijgen tussen de 300 en 400€. Zelfde met de GTX 470 die ik een paar jaar eerder aangeschaft had.

Als je gaat kijken wat je momenteel voor 300 a 400€ zou krijgen (bij nvidia) moet je al naar de RTX 2060 kijken, welke eigenlijk de "R" niet waardig is. De prijzen zijn de hoogte in geschoten de voorbije jaren en in plaats van terug te stabiliseren en omlaag te gaan na de crypto bubble burst (al komt nu ook de RAM prijs burst, wat ook broodnodig was), denkt nvidia nog altijd de overpriced prijzen te kunnen vragen voor de kaarten.

Als je reviews afgaat ivm die 2060 met raytracing aan is het bijna wenen met de pet op... En dan heb ik het nog nieteens over VRAM.
6GB voor de 2060, en 8GB voor de 2070 en 2080... Terwijl als je gaat kijken bij games met >1080p VRAM usage de hoogte in schiet. Dit zijn dus weer kaarten met een vrij korte termijn visie... Net als de 960 met z'n 2GB.
Bijna waardeloos tegenwoordig die kaart.

De Radeon 7 met z'n 16GB is verre van "de oplossing", maar net als met de 1080Ti en z'n 11GB (beiden ook weer enorm hoge prijs natuurlijk, al is dat bij de Radeon deels door de HBM2...) zien we dat meer dan 8GB VRAM als je op hogere reso's speelt wel mooi meegenomen is.

Tenzij nvidia weer hun macht gaat gebruiken om developers te pushen om minder VRAM te gebruiken, om hun tekortkomingen te verdoezelen zoals ze in het verleden vaker gedaan hebben :( .
Dit jaar zullen de nieuwe consoles van Microsoft en Sony aangekondigd worden en volgend jaar zullen deze verschijnen om een nieuwe standaard te zetten. Dit zag je namelijk ook gebeuren bij de launch van de Xbox One en de Playstation 4 met het videogeheugen. Deze twee consoles hadden de beschikking over maximaal 6Gb aan Vram vanuit de gedeelde 8Gb geheugen. Games begonnen hier gretig gebruik van te maken en plots kwamen er videokaarten op de markt met fors meer Vram.

Het is een beetje kip/ei verhaal, de consoles waren jarenlang trendsetter en bepaalden de vereisten van een game. Tegenwoordig zijn desktops/laptops zo veel krachtiger dat dit verhaal niet meer op gaat. Met de launch van de nieuwe consoles ga je zien dat dit weer compleet zal veranderen. De consoles zullen voor een bepaalde tijd weer dicteren en bijvoorbeeld 12Gb Vram voor een midrange kaart is hierbij dan ineens helemaal niet meer onredelijk.
Ten tijde de xbox 360 en PS3 waren deze indertijd voor hun tijd best dikke beestjes.
Echter als je gaat kijken bij de PS4 en XB One waren deze bij introductie al bijna "midrange" beestjes. Het heeft enkele jaren geduurd totdat de PS4 Pro en One X uitkwamen voordat er echt wat tumult was.

Niet vergeten dat beide consoles origineel in 2013 uitgekomen waren. Als je gaat kijken wat er dat jaar beschikbaar was qua nvidia kaarten was het de GTX 780 met 3GB en 770 met 2GB.
Alsook met de 900 range was het best wel weinig VRAM in vergelijking met nu. 2GB voor de 960. "4" (3.5GB + trage 512MB) en 980 met 4GB.

Bij AMD eigenlijk hetzelfde verhaal, maar ze doen al iets langer wat guller mbt VRAM tegenover nvidia.

Dit is een leuke oude video van Linus Tech Tips ivm de performance van die consoles toen ze net uit (half jaartje) waren. Ik ben geen fan van LTT maar deze oude was wel vrij hilarisch om te zien...
https://www.youtube.com/watch?v=tYG-7T2LVDc

Nuja, als je gaat kijken naar prijzen van de consoles denk ik dat Sony geen nieuw PS3 fiasco wou lanceren.
Bij de introductie was de "phat" base model 60GB model 599$. Als je zover terug kan denken werd hier vrij hard om gelachen over hoe duur die console wel niet was.
De Xbox360 was tot 200$ goedkoper toen bij release. Al had die indien je de base model kocht natuurlijk wel geen HDD. Moet je ook bij rekenen inderdaad.
Dat is dus precies waar ik op doel. In 2013 waren de grafische topmodellen beperkter in Vram dan de consoles die toen uitkwamen. Er is gedurende de jaren erna meer Vram beschikbaar gekomen voor developers door de consoles minder geheugen te laten gebruiken. Omdat games daardoor meer Vram gebruikten hebben Nvidia en AMD hierdoor meer Vram toegevoegd aan hun line-up.

Prijstechnisch is 12Gb tot 24Gb helemaal niet meer onredelijk, aangezien het waarschijnlijk weer gedeeld geheugen gaat worden. De volgende generatie kaarten zal in reactie daarop waarschijnlijk ook weer meer Vram krijgen om de games goed te kunnen blijven draaien. \

Mijn punt is dus dat consoles in grote lijnen bepalen wanneer er een flinke stap gezet gaat worden, de meeste gamers spelen immers nog steeds op consoles.

Overigens leuke video van LTT, geeft ook wel aan dat er enorm veel geoptimaliseerd kan worden met consoles.

[Reactie gewijzigd door neolite op 23 juli 2024 01:17]

Die progressie was al langer in gang eigenlijk. Die GTX 470 bijvoorbeeld die ik had was in 2010 released. Had 1.2GB VRAM.

Het was dan voor de 460/470/480 respectievelijk 1GB/1.2GB/1.5GB.
De reeks ervoor was dan weer 1GB voor het topmodel (GTX 285).

Het gaat dus inderdaad iets sneller dan vroeger, maar je ziet toch dat het gaandeweg je 1.5 tot 2x gaat elke paar jaar qua VRAM.

Consoles hebben inderdaad wel trekkracht, maar of ze zoveel trekkracht hebben betwijfel ik. Vaak werd denk ik meer ingezet op meer GPU usage om het werk voor de tragere Jaguar cores een beetje te verlichten.
Het is pas bij de volgende consoles dat we CPU's gaan zien die gebaseerd zijn op de Ryzen architectuur (indien ze bij x86 blijven alleszins). De bulldozer-era CPU's zijn erg traag in vergelijking. Al zie je dat de 8 threads ook wel geholpen heeft.
Net als op de PC zijde eigenlijk.
Een FX8350 (8c/8t) had bijvoorbeeld een langere adem dan een i5 2500k (4c/4t) welke initieel die gewoon van tafel veegde.

Of je dat "AMD FineWine" technologie kan noemen, zoals ook bij hun GPU's vaak zichtbaar is... jah, dat horen ze zelf ook niet zo graag bij AMD :+ .
Een FX8350 (8c/8t) had bijvoorbeeld een langere adem dan een i5 2500k (4c/4t) welke initieel die gewoon van tafel veegde.
Ow? De benchmarks zeggen iets anders.
https://www.youtube.com/watch?v=JRWQ9jLGpVs
De betreffende video is van de officiele HU channel voor een reden offline gehaald.

Ik zeg trouwens ook niet dat de FX 8350 opeens de 2500k ging verslagen.
Ik bedoelde eerder dat terwijl de 2500k eerst globaal gezien de winnaar was met veel hogere overschotten tov de 8350, je doorheen de jaren heen zag dat terwijl games meer en meer multithreaded werden de percentages alleen maar slinkten, tot een gain voor bepaalde games.

Dat is wat ik bedoelde met "langere adem". Waar de gaming press je uitschold als je nog maar dacht aan een FX8350 te kopen (door hun """""future proof""""" tests) leek het allemaal best wel mee te vallen. Al helemaal bij games die vorig jaar en dit jaar uitkomen welke quadcores volledig overloaden.

Als je die oudere games blijft spelen ga je inderdaad weinig verschil zien logischerwijze.

[Reactie gewijzigd door GuntherDW op 23 juli 2024 01:17]

Hij staat er gewoon nog hoor?
https://www.youtube.com/watch?v=_jiXkrRoD4w

natuurlijk kun je er nog spelletjes mee spelen maar van beide hoef je niet te verwachten dat ze nog erg goed meekomen met de nieuwe AAA games. En dan nog heeft de 2500K een voorsprong, al is die wel kleiner geworden. Ook in BF1, een game die goed schaalt over meerdere cores heeft de 2500K een aardige voorsprong. Dus zowel de 2500K als de FX 8xxx hebben dezelfde "lange adem".

Maarja, beide zijn gewoon niet meer interessant.

[Reactie gewijzigd door Randleman op 23 juli 2024 01:17]

Dat is niet de video die je (eerst) gelinkt hebt. Er is een tijdje een nogal vrij harde commotie geweest tussen AdoredTV en HU over dat onderwerp.

HU had die video's gemaakt net omdat AdoredTV in zijn video aangetoond had dat de FX8350 helemaal niet de "failure" was dat veel mensen in de gaming press dachten dat het was.
Dat was deze video : https://www.youtube.com/watch?v=ylvdSnEbL50

AdoredTV heeft midden vorig jaar in een vrij harde "ik ben het beu" mood een paar video's geupload, maar heeft na gesprekken met HU at least deel 1 van die reeks verwijderd. (waarna HU ook van hun kant dingen heeft verwijderd).
De conclusie heb je in deze video dan : https://www.youtube.com/watch?v=0f3_aL3T5J8

Ik wil eigenlijk niet enkel video's linken want dat is nogal anti-tweakers en vrij "youtube argument", welke niet echt gewaardeerd worden hier, maar wou je daar wel op wijzen eigenlijk.
Is exact dezelfde video... Behalve dat de eerste na 16 minuten gewoon weer opnieuw begint.

Maar beide CPU's zijn ondertussen zo oud en niet interessant dat ze het niet eens meer waard zijn om over te discussiëren :+

[Reactie gewijzigd door Randleman op 23 juli 2024 01:17]

Na een iets diepere inspectie lijkt het inderdaad om dezelfde video's te gaan.
Ik ging iets te snel over de video's heen en ging iets te snel door de title en video lengte ervan uit dat het "die video's tijdens/na de ruzie" waren.

Maargoed, Je kan in Jim (AdoredTV) z'n response video's welke ik ook linkte ook wel zien dat het allemaal niet zo simpel is :P.

Maar inderdaad, Er is ondertussen veel beter op de markt om je nog druk te maken over die oudere dingen.
denkt nvidia nog altijd de overpriced prijzen te kunnen vragen voor de kaarten.
Nvidia zal ongetwijfeld zeker bij de introductie van een nieuwe serie een zo hoog mogelijke prijs vragen. Maar daarnaast is er "deminishing return", met als oorzaak kort samengevat dat we tegen de limiet vd wet v Moore aanlopen.
Het kost steeds meer moeite, tijd en dus geld om een bepaald percentage aan performance winst te halen (RTX en DLSS zijn technisch veel complexer dan zoiets als tesselation of hairworks, en heeft dus relatief erg hoge R&D kosten), dus wordt voor opeenvolgende generaties van hardware de prijs/performance verhouding steeds ongunstiger.
Voor winkeliers is de marge op high-end GPU's tegenwoordig maar een paar procent, en voor de producenten zal de marge ook niet zo hoog zijn als vroeger. Er zit gewoon niet zo veel rek in de productiekosten.
Voor de prijs van een RTX2060 krijg je prestaties die gelijkwaardig zijn aan de 1070ti en 1080. Daar betaalde je flink wat meer voor toen ze net uitkwamen. Ik zie het probleem dus niet helemaal... De RTX2060 is in dat opzicht een koopje.

Wellicht dat op 4k in sommige games 8GB vram een probleem is maar nog nooit meegemaakt dat dit een bottleneck is. 8 GB is voor de meeste games prima. Zodra de nieuwe consoles komen zullen we wellicht hier verandering in zien.
Voor 3-400 krijg je een 1660TI tot 1070.

Nou zal het je verbazen, maar dat is dezelfde positie als die van de 670 er is dus niet zoveel veranderd aan de prijspositionering, ik hoop dat je dit erg oplucht ;)
Waar vraagt Microsoft tegenwoordig woekerprijzen of lichten ze consumenten op?
Je hebt gelijk ik bedoelde natuurlijk Intel...

Bij de nieuwe serie processoren heeft men functies als HT uit de i7 gehaald en een nieuwe i9 geïntroduceerd. Door het introduceren van de i9 kan men meer vragen voor opties die al jaren lang beschikbaar waren bij de i7 processoren. De prijzen zijn daarnaast ook nog weer eens verhoogt, dus je krijgt minder voor meer geld.

Misschien dat jij er anders tegen aan kijkt, maar een reden voor mij om voor een i7 te kiezen in plaats van een i5 was juist HT. Ik game niet alleen veel maar gebruik ook veel verschillende programma's waar HT ten goede komt van de prestaties.

[Reactie gewijzigd door Andyk125 op 23 juli 2024 01:17]

Microsoft bouwt geen X86 processoren, of naja, soort van, maar alleen voor eigen producten.
Sinds wanneer levert Microsoft CPU's?
Sorry bedoelde natuurlijk Intel 8)7
Die i9 processors en die nieuwe Surface zijn ernstig overpriced.
MS heeft absoluut geen dominante positie in die markt.
In plaats van de productiekosten naar beneden te brengen
Hoe dacht je dat te doen?
De PC verkopen lopen ook al jaren terug, dat kan er ook mee te maken hebben dat er minder vraag is en de prijzen dus wat hoger komen. De crypto piek was onverwachts en heeft waarschijnlijk ook de productiekosten tijdelijk verhoogd omdat ze ineens flink moesten opschalen. Ze moesten immers wel kunnen blijven leveren. Opschalen kan vaak makkelijker dan weer terugschalen , je zit immers met contracten en personeel. Dus na de val van crypto en de teruglopende inkomsten zullen de kosten hoger hebben gelegen dan voor de crypto bubbel.

AMD was ook duur en kon ook niet voldoende leveren lange tijd. Geloof niet dat nvidia gewoon even simpel 20% op de prijs heeft gegooid zonder enige reden.
Er is bijna geen elektrisch apparaat waar de verkoop de afgelopen jaren niet van daalt. Of dit nu smarphones, computer, tablets of wat dan ook is. De crypto markt heeft voornamelijk gezorgd voor een groot tekort aan grafische kaarten. Hierdoor is de prijs massaal gestegen, maar sinds er geen tekorten meer zijn zie ik niet dat de kaarten net zo veel gedaald zijn. Er wordt gewoon misbruik van gemaakt.

Omdat er steeds minder geld te verdienen is op de crypto markt zie je ook dat grafische kaarten ook massaal op de tweedehandse markt gedumpt werden. Niet zo heel gek dus dat er veel minder vraag is naar grafische kaarten. Daarnaast is de prestatiewinst t.o.v. de vorige serie kaarten minimaal.

De landen waar deze onderdelen gemaakt worden hebben niet dezelfde regel en wetgeving als in Nederland. Daar doet men lang niet zo moeilijk om een fabriek te sluiten of de mensen op straat te zetten. Laat je dus niets wijs maken dat men niet terug kan schalen, want dat hebben ze al lang gedaan.
Je hebt daar volkomen gelijk in die turing cores zitten er niet op dus hardwarematige rayteracing kan deze kaart niet eens aan.Maarja deze kaart zal niet duur zijn hoop ik omdat er enkele features er niet opzitten.
Volgens mij heb je geen flauw idee wat de huidige prijzen precies zijn ten opzichte van de vorige generatie. Je kunt een RTX2060 kopen voor 375 euro. Deze kaart is sneller dan een 1070TI die vorig jaar ruim 500 euro was. En bijna net zo snel is als de 1080, een kaart van 700-800 euro bij introductie.

De 2060 is dus voor vrijwel elke gamer ruim voldoende. Wil je echt de max er uithalen heb je een 2070 of 2080 nodig. Maar dan heb je naast de videokaart ook al aardig wat uitgegeven aan de rest van het systeem. Anders heb je er niet zoveel aan..

De prestatiewinst minimaal? Een 2080ti is 35% sneller dan de 1080TI. Dat noem ik een behoorlijk verschil. En dan niet meteen beginnen over de prijs want het is logisch dat compleet nieuwe architectuur en nieuwe features een meerprijs hebben. Of het een prijs/prestatie een goede koop is? Nee, dat niet.

En waarom zou de GTX 1650 een flop worden? Waar is dat op gebaseerd? Het is dezelfde GPU alleen dan zonder RTX. Als ze deze kaart nog goedkoper kunnen plaatsen dan de RTX 2060 is het een zeer sterke kaart voor een peanuts prijs.
Ik weet heel goed wat de prijzen zijn ten opzichte van de vorige generaties. Ik heb de Asus gtx970 gekocht voor €360,- Bij de release was de Asus gtx1070 over de €550,- en ja dit was in de tijd van de crypto gekte, dus echt realistische prijzen waren het niet. Maar als ik een prijsverhoging reken van 20% dan zou de prijs rond de €430 zijn.

De Asus rtx2070 wat volgens jou geen opvolger is van de 1070, maar dus een hele nieuwe generatie met een andere domme naam. Kost bij release meer dan €700,- Ook al is het geen directe opvolger van de gtx1070, als ik weer een prijsverhoging van 20% zou aannemen dan kom je nog maar op €520, wat nog minder zou zijn dan de introductieprijs van de gtx1070.

Hoe je het wend of keert de 20% die ik genoemd heb is nog voorzichtig aangehouden. Je kunt gaan discussiëren of de rtx2070 een opvolger is van de gtx1070 serie. Dat je het marketing gelul van Nvida wilt geloven moet je zelf weten, ik trap er in ieder geval niet in. De prijzen slaan naar mijn mening nergens op en zo denken er veel meer. Anders werd de kaart wel massaal verkocht ;)

Je kunt trouwens zo voor Nvida gaan werken met allemaal verschillende types door elkaar roepen en dan een statement willen maken. Natuurlijk is een nieuwe generatie sneller dan de vorige anders hebben de kaarten helemaal geen bestaansrecht.

[Reactie gewijzigd door Andyk125 op 23 juli 2024 01:17]

Maak de kaarten gewoon goedkoper en mensen zullen ook sneller nieuwe kaarten aanschaffen..
En dat is toch exact wat ze doen met de 16xx serie... lager geprijsde kaarten op de markt zetten.
Wat wil je nu exact? Aan de ene kant wil je goedkopere kaarten, aan de andere kant geeft je aan dat die een flop worden.
Eeuhm ik wil dat de bestaande kaarten gewoon goedkoper worden :/ Wie wil dat niet.
Ik wil geen nieuw product die weer ergens tussen gepropt wordt waarbij men opties en functies verwijdert en deze dan een half jaar na de release van de nieuwe architectuur uitbrengt.

Ik kan bijvoorbeeld ook een Samsung S10 uitbrengen en wanneer er te weinig verkocht worden omdat de telefoon blijkbaar te duur is breng ik een Samsung S9,5 uit met mindere componenten en een die minder snel is. Dat doe je dan 6 maanden nadat je de Samsung S10 hebt uitgebracht. En dan verwacht je dat mensen blij zijn?

Ik ga het niet eens verder uitleggen, als je het niet begrijpt en je wilt je laten neppen door bedrijven als Nvidia dan geloof je toch lekker hun marketingspraatjes.
Ik kan bijvoorbeeld ook een Samsung S10 uitbrengen en wanneer er te weinig verkocht worden omdat de telefoon blijkbaar te duur is
Daarom brengt Samsung ook de S10e uit. Het enige verschil is dat Samsung alle modellen tegelijk uit brengt, en Nvidia dit niet doet.

Bij de release van de RTX kaarten was het ook al lang duidelijk dat de goedkopere modellen later zouden volgen, net als dat gebeurde bij de release van de 1080 en 1070. En bij de 980/970 release daarvoor... enzovoort.
Ik ga het niet eens verder uitleggen, als je het niet begrijpt en je wilt je laten neppen door bedrijven als Nvidia dan geloof je toch lekker hun marketingspraatjes.
Je hoeft ook niks verder uit te leggen, je wilt gewoon graag meedoen met de "angry mob"
[...]
Je hoeft ook niks verder uit te leggen, je wilt gewoon graag meedoen met de "angry mob"
Waarom moet ik meegaan met anderen, misschien hebben bepaalde mensen nu eenmaal dezelfde mening. Jij begrijpt niet wat ik bedoel, als ik dat dan uit leg dan hoef je het daar niet mee eens te zijn.

Eigenlijk leg je het zelf al uit, andere bedrijven voeren ook goedkopere modellen maar die komen daar geen 6 maanden later mee. Dit voelt als mosterd na de maaltijd en het maakt mij weinig uit of je daar nu mee eens bent of niet, maar je hoeft niet te spelen alsof ik niet duidelijk genoeg ben.
Eigenlijk leg je het zelf al uit, andere bedrijven voeren ook goedkopere modellen maar die komen daar geen 6 maanden later mee
O, nee?
Je kunt er gerust vanuit gaan dat Samsung in het komende jaar nog wat modellen in de Galaxy lijn uitbrengt, voornamelijk goedkopere modellen.
Samsung Mobile heeft echter een veel groter portfolie, en kan dus meer modellen tegelijk op de markt zetten zonder lange tussenpozen. Vrijwel alle bedrijven verspreiden hun releases over een langere periode uit.
Eigenlijk leg je het zelf al uit, andere bedrijven voeren ook goedkopere modellen maar die komen daar geen 6 maanden later mee.
Coffee Lake Celeron's? Kwamen 7 maanden na de i7's. Of AMD's Zen APU's, de Athlon 200GE kwam 7 maanden na de Ryzen 5 2400G. En dan heb ik niet verder terug hoeven kijken dan vorig jaar.

[Reactie gewijzigd door MSalters op 23 juli 2024 01:17]

Dus we hebben nu de RTX lijn die op de 20xx-serie is gestart, en de GTX lijn die naar de 16xx is gesprongen. Weet iemand waarom de GTX lijn niet gewoon op 11xx is doorgegaan?
Nvidia heeft altijd alleen het eerste nummer verhoogd als je kijkt naar de vorige series. Die loopt helemaal niet zo raar door, 20XX, 10XX, 9XX, 8XX etc.. tot aan de GeForce 2 series. Het zou zelfs heel logisch zijn als de volgende generatie de typering 30XX mee gaat krijgen.

Waarom er nu een GTX16XX lijn is verschenen? Waarschijnlijk door de tegenvallende sales van de RTX20XX. Is de ontwikkeling van een kaart niet langer dan een paar maand? Zeer waarschijnlijk heeft Nvidia de hogere prijsstelling al wel aan zien komen en is men dus ook kaarten zonder de Ray-tracing cores gaan produceren om het mid range segment te kunnen blijven bedienen. Om duidelijk verschil te houden tussen RTX en GTX is naast de R en de G ook gekozen voor een andere typering, niet onredelijk.

Edit: Er is dus gekozen voor 16XX omdat 11XX naamtechnisch ook als opvolger van de 10XX series gezien zou kunnen worden. De marketing afdeling van Nivida aan het werk dus.

[Reactie gewijzigd door neolite op 23 juli 2024 01:17]

Waarom er nu een GTX16XX lijn is verschenen? Waarschijnlijk door de tegenvallende sales van de RTX20XX.
Klopt, de RTX2000 serie loopt z'n tijd (en performance en prijs) vooruit, en raytracing komt nog niet van de grond in games, dus is het logischer een tussenstap tussen de GTX1000 en de RTX2000 serie uit te brengen. Nvidia differentieert aldaar in verschillende series die ze via een afroompolitiek uitbrengen (dus eerst de beste in die serie).
Sorry, maar wat je hier nu zegt klopt gewoon niet. De 20XX series was gewoon de geplande opvolger van de 10XX series met ondersteuning voor Ray-tracing en tensor cores en loopt zijn tijd zeker niet vooruit. De ondersteuning van ray-tracing komt wel degelijk van de grond, alleen moet er eerst wel hardware zijn voordat een ontwikkelaar een X bedrag aan FTE's gaat investeren om ray-tracing mogelijk te maken in zijn/haar game. De ondersteuning vanuit developers is ook afhankelijk van de gebruikte game-engine, deze moet het wel ondersteunen. Nogmaals, eerst moet de hardware er zijn.
De 20XX series was gewoon de geplande opvolger van de 10XX series met ondersteuning voor Ray-tracing en tensor cores en loopt zijn tijd zeker niet vooruit. De ondersteuning van ray-tracing komt wel degelijk van de grond, alleen moet er eerst wel hardware zijn voordat een ontwikkelaar een X bedrag aan FTE's gaat investeren om ray-tracing mogelijk te maken in zijn/haar game. De ondersteuning vanuit developers is ook afhankelijk van de gebruikte game-engine, deze moet het wel ondersteunen. Nogmaals, eerst moet de hardware er zijn.
Samenvattend noem ik dat ook wel "loopt zijn tijd vooruit".
Nee, de Iphone liep bijvoorbeeld bij zijn introductie echt voor op de rest van de industrie. In dit geval is het een design keuze om een aantal cores van de kaart dedicated te maken voor ray-tracing naast de al bestaande cores. Men noemt deze cores vervolgens ray-tracing cores en je hebt een mooi marketinginstrument. AMD zou dit ook gewoon kunnen doen en mag het dan waarschijnlijk alleen geen ray-tracing cores noemen.

Er is door het gat met AMD ruimte voor Nvidia om dit soort beslissingen mogelijk te maken. Indien AMD echt competitief geweest was, denk ik niet dat er nu ray-tracing cores waren geweest. Dan zat men op prijs/prestatie punt te vechten en is er absoluut geen ruimte voor ray-tracing cores. Nvidia blaast heel hoog van de toren, kijk ons eens revolutionair doen, terwijl het eigenlijk allemaal wel mee valt.

[Reactie gewijzigd door neolite op 23 juli 2024 01:17]

Een product kan vooruit lopen, als het vervolgens niet aanslaat doet dat daar niets aan af. De Newton liep ook z'n tijd ver vooruit.

Hetzelfde geldt voor HBM2, met het verschil dat wanneer dat op een kaart zit het wel gewoon te gebruiken is door elk spel en programma.

Voor mij valt raytracing onder dezelfde groep als gsync: proprietary en incompatible. Dan zit je met adaptive-sync beter. Ik denk dat de vrije markt op de lange duur ook altijd zo'n open standaard prefereert.
Meeste games gebruiken DXR.
Als AMD hun nieuwe videokaarten ondersteuning geeft zou dat dus gewoon moeten werken. Dan is het alleen aan de game developers om te zorgen dat ze dus de DXR standaard gebruiken en niet iets wat proprietary is voor NVidia.
Het lijkt nu misschien proprietary voor NVidia, maar dat is omdat zij de enige zijn met videokaarten die voor nu DXR ondersteunen.
Heb ik niet zoveel aan gezien ik Vulkan prefereer, maar dat terzijde. Het is mij nog steeds niet duidelijk wat ik mis met mijn huidige grafische kaart welke geen raytracing/DXR heeft. Volgens mij lost het een probleem op dat er niet is. EDIT: En is het te duur, zoals o.a. deze post beargumenteerd

[Reactie gewijzigd door Jerie op 23 juli 2024 01:17]

Ik persoonlijk vind dat belichting in spellen nog steeds kunstmatig aanvoelt. En belichting is (IMHO) het belangrijkste onderdeel van een renderengine. Raytracing zou hier heel wat verbetering moeten geven. Dat jij het niet als probleem ervaart is wat anders, maar raytracing is al een jaar of 30 de gouden graal om real time te kunnen doen in games... Mijn hoop was een jaar of 10 geleden dan ook gevestigd op de Intel Larabee, but we all know how that ended. :(

Als ik niet al een 1080ti had had ik ondanks de beperkte ondersteuning tot nu toe zo een 2080 gehaald. Maar aangezien ik die al wel heb sla ik deze generatie over.

[Reactie gewijzigd door MN-Power op 23 juli 2024 01:17]

Ik denk niet dat je direct wat "mist", in principe is het "gewoon" een andere vorm van renderen die meer eyecandy geeft.

Vulkan moet trouwens ook gewoon Raytracing support hebben.
In dit geval is het een design keuze om een aantal cores van de kaart dedicated te maken voor ray-tracing naast de al bestaande cores. Men noemt deze cores vervolgens ray-tracing cores en je hebt een mooi marketinginstrument.
Het hangt er vanaf hoe je dit bekijkt. Je kan jezelf op dit moment de vraag stellen of dedicated raytrace cores voor een GPU een vordeel is. Vooralsnog hebben die cores in veel huidige games niet zoveel te doen, en dus kan je het er over hebben of het niet beter is die Cores op dit moment niet te hebben en de ruimte op het IC op te vullen met mapped rendering cores.

Waar het voor mijzelf wringt is dat die raytrace cores dedicated zijn. Op zich is dat wel te begrijpen waneer je bedenkt dat raytracing een heel ander kunstje is dan mapped rendering. Puur vanuit product placement zouden hybride cores de ideale overgangssituatie creeeren, maar dan gaan we helemaal voorbij aan de inhoudelijkheid van de gebruikte technologieen.

Nu ziet nVidia zich gedwongen om de GPU's te differentieren. Voor de koper toch ook nog wel een dillemma. Een aantal grote games ondersteunen die Raytrace functionaliteit inmiddels al wel (Assetto Corsa Competizione, Atomic Heart, Battlefield V,Control, Enlisted, Justice,JX3, MechWarrior 5: Mercenaries, Metro Exodus,ProjectDH, Shadow of the Tomb Raider). Ja zal maar net fanatiek een van die games spelen, dat kan net het kantelpunt zijn om toch een RTX kaart te halen.

[Reactie gewijzigd door teacup op 23 juli 2024 01:17]

Doen al die games die jij doen nu al raytracing? Ik.ken alleen BF5 en zelfs doet maar 1 van de 3 dingen die pas tezamen raytracing heten.
Metro zou idd wat hebben op dat gebied maar die doet het ook maar in bepaalde delen van de game lees ik.
En verder heb ik alleen maar aankondigingen gehoord nog geen echt werkend full raytracing

[Reactie gewijzigd door ErikRo op 23 juli 2024 01:17]

Nou, dat relativeert zo'n lijst dan weer. Wat je zegt moet ik direct van je aannemen.

Deze lijst vond ik in een internetbron, maar daar werd niet in detail ingegaan hoe verstrekkend die implementatie dan was. Hiervan heb ik daarom geen detail informatie. Van de games denk ik trouwens dat BF5 de grootste titel is, gevolgd door Metro en Tomb Raider. Maar al met al lijkt de basis voor Ray tracing niet hoog, en kan moeilijk als een rechtvaardiging voor de aankoop van RTX kaarten gelden.
Geeft nog steeds geen uitleg waarom het 16XX is en niet 11XX.
Met andere woorden er bevind zich een gat tussen 10XX en 1600XX.

Enerzijds de GTX generatie (10xx)
GTX-1030
GTX-1050 2GB
GTX-1050 3GB
GTX-1050 Ti
GTX-1060 3GB
GTX-1060 6GB
GTX-1070
GTX-1070 Ti
GTX-1080
GTX-1080 Ti

Anderzijds de RTX
RTX-2060
RTX-2070
RTX-2080
RTX-2080 Ti
Titan RTX

Titan Generatie
GTX Titan
GTX Titan Black
GTX Titan X
NVIDIA Titan X
NVIDIA Titan XP
GTX Titan Z

Of het nu tegenvalt of niet, de naam reeksen moeten volgens mij persoonlijk een beetje dicht in opklimmende volgorde verlopen. Als ze straks nog een Titan gaan maken, in de GTX lijn, met dezelfde technologie als de 16XX, hoe gaan ze die dan noemen? Titan A? (Titan X, Titan Y, Titan Z, Titan A,... alfabetisch)
Als ze straks nog een Titan gaan maken, in de GTX lijn, met dezelfde technologie als de 16XX, ...
Dat doen ze niet. De Titan is een "halo" productlijn. Het is de absolute bovenkant van de consumenten range. Er komt dus geen Titan onder de RTX2080Ti uit.
[...]

Er komt dus geen Titan onder de RTX2080Ti uit.
Da bestaat wel al hé. https://www.nvidia.com/en-us/titan/titan-rtx/
Die scoort niet onder maar bóven de 2080Ti. Logisch: 4608 Cuda cores, 1770 mhz boost, 24 GB GDDR.
Ha da bedoelde je. Was niet echt duidelijk wat je precies bedoelde met die "komt dus geen Titan onder de RTX2080Ti uit." aangezien de Titan RTX wel "RTX" bevat in de naam. Ik dacht dat je dat bedoelde. My bad.
Waarschijnlijk door de tegenvallende sales van de RTX20XX.
Zeer waarschijnlijk heeft Nvidia de hogere prijsstelling al wel aan zien komen en is men dus ook kaarten zonder de Ray-tracing cores gaan produceren om het mid range segment te kunnen blijven bedienen.
Ze hebben dus al eerder ingezien dat er ruimte is voor low- en mid-end kaarten zonder RTX gezien in combinatie met de prijsstelling voor de RTX kaarten.
Het heeft niks met de tegenvallende verkopen te maken, die kaarten zouden er toch al komen.

[Reactie gewijzigd door Zer0 op 23 juli 2024 01:17]

omdat de prijzen ook een grote sprong hebben gemaakt konden ze met het typenummer niet stil blijven staan natuurlijk :+
het enige dat ik me voor kan stellen is dat de RTX 20XX series als top of de line gezien word maar door een GTX kaart uit te brengen een budgetmarkt aangesproken kan worden. als voor deze kaart 11XX gebruikt zou worden lijkt het verschil tussen 11XX en 20XX te groot, om toch het budget gevoel te geven en het gevoel dat de klant niet ver achter loopt op de nieuwste technologieen is het nummer opgehoogs tot 16XX voor de budget serie.

[Reactie gewijzigd door ard1998 op 23 juli 2024 01:17]

Dat moet je Nvidia zelf vragen.
De naamvoeringen GT2010/20/30, GTX2040/50/Ti en RTX 2060/70/80/Ti waren veel aangenamer geweest.
Ik heb liever dat ze weer beginnen bij 1.
Anoniem: 426269 22 februari 2019 11:32
En qua presetaties zou deze GTX 1650 ergens zitten tussen de standaard GTX 1050 en GTX 1060 ofzo?
Ik meen 't als ik zeg dat ik het allemaal probeer te volgen (anders surf ik niet naar Tweakers I guess?), maar eerlijk gezegd snap ik er ondertussen nog de ballen van. 8)7 Hoeveel verschillende GPU's gaat Nvidia de komende tijd nog releasen? Al die verschillende namen en soorten zijn ondertussen echt verwarrend voor een noobje zoals ik. :P
Ik denk dat de gtx1180/1680 een stuk interessanter wordt
https://nl.hardware.info/...espot---turing-zonder-rtx
Weer de zoveelste kaart. Lekker duidelijk allemaal.
Een snelle kaart, maar zonder RTX meuk er in. Klinkt niet heel verkeerd, toch?
Nu nog een GTX1670 en 1680 :)

Voor mij hoeft die Raytracing zooi voorlopig indd nog niet, zeker nu het nog niet volwassen genoeg is. Op de games waar het op werkt is het allemaal nog minimaal maar je betaalt er wel de hoofdprijs voor.
Dat valt best mee, het zijn echter de board-partners die op basis van een enkele GPU soms meer dan 10 verschillende "modellen" maken en zo de boel onoverzichtelijk maken.
@Andyk125 1650 is opvolger van de 1050 serie
Volgens mij is Nvidia daar toch gelijk al duidelijk in geweest? Een RTX versie en een gtx versie. De 1 met RTX cores en de ander zonder.

Op dit item kan niet meer gereageerd worden.