Gerucht: Nvidia komt met Super-varianten van RTX- en GTX-gpu's voor laptops

Nvidia zou in maart 2020 zes nieuwe videokaarten voor laptops uitbrengen. Het zou gaan om Super-varianten van bestaande RTX- en GTX-gpu's. Nvidia bracht dit jaar al veel Super-varianten van zijn gpu's voor desktops uit. Voor laptops zijn die er nog niet.

NotebookCheck publiceert een slide waar codenamen van zes gpu's op staan. Daarbij staat het verbruik, het verbruik van de Max-Q-versie en de hoeveelheid ram. Uit die informatie is op te maken om welke gpu's het zou moeten gaan. De Super-varianten hebben mogelijk net als de Super-kaarten voor desktops meer ingeschakelde gpu-cores en sneller geheugen.

Er staan twee 50W-gpu's op het lijstje. Een daarvan is vermoedelijk de GTX 1650 Super, maar het is onduidelijk welke die tweede is. Nvidia heeft al een GTX 1660 Ti voor laptops, maar een Super-variant daarvan zou veel meer verbruiken. NotebookCheck suggereert dat er een nieuwe 1050 Ti-opvolger komt.

Volgens NotebookCheck heeft Nvidia nog geen Super-varianten van zijn laptop-gpu's uitgebracht omdat er momenteel weinig concurrentie is. Volgens de site komt AMD volgend jaar met de RX 5700M, die tussen de RTX 2070 en 2080 gepositioneerd zou zijn. AMD heeft al de RX 5500M en 5300M geïntroduceerd.

Codenaam Vermoedelijke gpu Tgp Tgp Max-q Ram
N18E-G3R RTX 2080 Super 150+W 80W 8GB gddr6
N18E-G2R RTX 2070 Super 115W 80W 8GB gddr6
N18E-G1R RTX 2060 Super 115W 80W 8GB gddr6
N18E-G62 GTX 1650 Super 50W 35W 4GB gddr6
N18E-G61 ? 50W 35W 4GB gddr6

Door Julian Huijbregts

Nieuwsredacteur

19-11-2019 • 18:20

42 Linkedin

Reacties (42)

42
42
19
1
0
16
Wijzig sortering
Hoewel ik lagere prijzen voor vergelijkbare of betere performance aanjuich, ben ik wel van mening dat Nvidia eens moet stoppen met de onnodige complexiteit van het alsmaar introduceren van nieuwe modellen die qua naam vrijwel niet tot zelfs nooit afwijken, maar waarvan de prestaties en de specificaties danig kunnen verschillen.

Dit fenomeen doet zich al een aantal jaar voor en het is voor de consument eerder nadelig dan voordelig dat zij door de videokaartbomen het bos niet meer zien. AMD heeft dat echt gewoon beter voor elkaar.
Dus jij vind de rebrands van een rx480 naar rx580 etc logischer?
Nee. Nogal geladen vraag. Maar die zijn op spec wise nog redelijk hetzelfde. Nvidia gaat nog een stapje verder en laat 2 of 3 modellen hetzelfde type nummer dragen, maar kennen wel een andere chip met dito configuratie.

RX480 en RX580 kan je nog het verschil van zien. Maar als 3 modellen andere configuraties tot zelfs andere chips hebben en ze heten dan in dit geval ook allemaal RX480, hoe kan je dat dan nog onderscheiden?
Dat heeft AMD ook gedaan. RX kaarten met minder geheugen etc.

Naar mijn inziens maken zij hier zich beide schuldig aan.
Dat is een zeer foute correlatie. Nvidia reduceert naast de Vram ook het aantal cuda cores en Texture mapping units. Oftewel de kaart is veel minder snel in games die niet afhankelijk zijn van Vram.

DAT is waar gewoonlijk verschillende modelnamen voor zijn. AMD reduceerde alleen het VRAM zoals de naam van de GPU daadwerkelijk vermeldde.

https://www.gamersnexus.n...enchmark-review?showall=1

[Reactie gewijzigd door Osiummaster op 20 november 2019 09:39]

Maakt dat heel veel uit? Het gaat erom dat beide partijen spelen met de namen.

Een RX480 vs RX580 geeft voor de niet zo goed geinformeerde eindgebruiker ook aan alsof het een generatie verschil is. Maar dit komt ook mede omdat zij inspelen op een zeer dynamische markt dat korte termijns opossingen soms vereist.
Ja dat kan enorm uitmaken zo als de rebrand van de 1030 het verschil tussen gddr5 ( 48GB/s) en ddr4 (16GB/s) geheugen is het verschil meer dan 50% kwa performance. AMD doet aan rebrands Nvidia doet gewoon aan oplichting.
Dat klopt. Ik vind dat echter minder verwarrend dan hoe Nvidia dit market. Ook meen ik mij te herrinerren dat dat dergelijke rebrands wel zo anders vernoemd werden (RX560 1024 staat mij bij).

Beide niet netjes, maar Nvidia introduceert wel zoveel sub modellen dat je door de bomen het bos niet meer ziet.
Ik ben het met je post eens dat het bestaan van meerdere varianten onder (min of meer) dezelfde naam niet klantvriendelijk is

Ik denk dat @Sn0wblind doelt op bijvoorbeeld de 4GB variant van de RX 480:
First of all, let's take a look at the fundamental differences between the two versions of the RX 480. Basically, the products are physically identical: it's the same chassis, the same IO connectors (three DisplayPorts, one HDMI 2.0), the same six-pin power input and the same software feature-set. The GPU core is identical too, with the same base and boost clocks. However, the 4GB version of the RX 480 features memory modules rated for 7gbps, while the 8GB release gets a small upgrade here - 8gbps RAM. The end result is simple - 224GB/s bandwidth on the cheaper card vs 256GB/s on the top-tier model.
Net als bij de GTX 1060 3GB was dat verschil overigens niet schokkend.
Dat geloof ik ook en daar ageer ik niet tegen :) Ik hoop dat dit duidelijk is of was!

Was er niet een redelijk verschil tussen de GTX 1060 3 en 6 GB, zeker op hogere resoluties?
Volgens techpowerup is het gat hetzelfde op 1080p en 144p, pas bij 4K wordt het gat groter: https://www.techpowerup.c...060-gaming-x-3-gb/26.html

(Als pc gamer heb je gelukkig de vrijheid om je texture quality aan te passen.)
De 3GB GTX 1060 had ook maar 1152 stream processors vs 1280 voor z'n grote broertje. Geen wereld van verschil maar voor de paar tientjes die het in prijs uitmaakte was een 1152sp 1060... onaantrekkelijk te noemen.
Ook dat was een kaart om OEM's een vakje in te laten kleuren en net een competitief prijspunt wél aan te kunnen tikken.
Precies. Er was een verschil in configuratie. Nu werd de GTX 1060 wel als zodanig gemarket dat je dat kon onderscheiden (door de 3 GB) maar de 1152 processors vs 1280... dat zal je niet zo snel opmerken. Jan Modaal zal dus denken dat hij een ''gewone'' GTX 1060 koopt, maar met 3 GB ipv 6 GB.

Daar wringt de schoen imo een beetje. Eerlijk is eerlijk, ook AMD heeft zich daar in het verleden schuldig aan gemaakt - Mijn punt is meer dat Nvidia vaker op dergelijke verwarring teruggrijpt.
Serieus man, moet ik nu onder elk artikel lezen hoe vre-se-lijk moeilijk Nvidia het ons maakt met al hun modellen. Ga jij maar aan je schoonmoeder uitleggen wat het verschil tussen RX versies, vega 56, vega 64, Radeon 7, 5700 en 5700XT is.

We zitten hier op Tweakers te praten over pc hardware - Dit is een industrie die aan elkaar hangt van obscure afkortingen en vage getallen die uiteindelijk weinig hoeven te zeggen.

Deal with it en gebruik Google als het te complex wordt. Over de "zielige consument" hoeven we ons niet druk te maken, die kan nog geen monitor van een grafische kaart onderscheiden.
Serieus man, moet ik nu onder elk artikel lezen hoe vre-se-lijk moeilijk Nvidia het ons maakt met al hun modellen. Ga jij maar aan je schoonmoeder uitleggen wat het verschil tussen RX versies, vega 56, vega 64, Radeon 7, 5700 en 5700XT is.
Mijn schoonmoeder zal niet gamen :P

Dat gezegd hebbende denk ik wel dat het makkelijker valt uit te leggen, mocht die situatie voorkomen.

En nee, je zal niet onder elk artikel lezen hoe vreselijk moeilijk Nvidia het maakt, vind je die reactie niet een beetje te ver schieten?
We zitten hier op Tweakers te praten over pc hardware - Dit is een industrie die aan elkaar hangt van obscure afkortingen en vage getallen die uiteindelijk weinig hoeven te zeggen.
Dat klopt. Maar dat betekent niet dat zelfs voor iemand met een interesse in hardware bijvoorbeeld drie Geforce GT 640 kaarten met drie verschillende configs die onder de noemer GT640 worden uitgebracht niet verwarrend zal zijn, laat staan dat dat niet beter kan.
Deal with it en gebruik Google als het te complex wordt. Over de "zielige consument" hoeven we ons niet druk te maken, die kan nog geen monitor van een grafische kaart onderscheiden.
Ik begrijp eerlijk gezegd je boosheid op mijn post niet.
Ik snap @oef! Wel. Het is namelijk een standaard reactie wat onder elk artikel wordt herhaald. Ook al waren de namen wel netjes opvolgend en 100% duidelijk snapt de consument er alsnog geen reet van.

Het gaat namelijk om de prestaties. En die kun je prima vergelijken. Zal mij een zorg zijn hoeveel cuda cores er in zitten. Of op hoeveel MHz de GPU draait.

En tweakers werkt daar zelf ook aan mee door continue overzichten te plaatsen van specs waar je helemaal niks aan hebt. Toon gewoon een overzicht van prestaties/prijs dan is de keuze simpel te overzien en maakt de naam,cuda cores en alle andere marketing onzin niet meer uit.
Ik snap @oef! Wel. Het is namelijk een standaard reactie wat onder elk artikel wordt herhaald.
Is dat zo? Meningen zullen vergelijkbaar zijn, uiteraard, maar ik zie deze stelling graag onderbouwd :)
Ook al waren de namen wel netjes opvolgend en 100% duidelijk snapt de consument er alsnog geen reet van.
Dat ben ik met je eens. Maar moet dat een vrijbrief zijn om een toch al moeilijk te begrijpen situatie voor de leek nog lastiger te maken? Ik vind van niet. Ik vind dat eerder het tegenovergestelde nagestreefd moet worden.
Het gaat namelijk om de prestaties. En die kun je prima vergelijken. Zal mij een zorg zijn hoeveel cuda cores er in zitten. Of op hoeveel MHz de GPU draait.
En dat is de reactie van de consument, dat begrijp ik heel goed. Maar als je dergelijke kaarten koopt dan ben je toch al een andere doelgroep. En hoewel die meer begaan zullen zijn met hardware, mag je er niet vanuit gaan dat iedereen dat is.

Voor Tweakers specifiek zijn dergelijke details wel van zorg, ook omdat in de praktijk de prestaties daardoor kunnen verschillen. En dan kan je nog steeds verbeteringen maken. Voor Tweakers zouden dergelijke details juist boeiend moeten zijn, want anders, waarom heet de site dan Tweakers?

Om nog even terug te komen op je eerdere punt:
Ter illustratie: Je hebt een Radeon kaart met 1 GB GDDR5 en exact dezelfde kaart met 2 GB DDR3. Vervolgens hebben beiden exact dezelfde kloksnelheid en stream processors. Welke zal beter presteren, op basis van jouw consumenten reactie? En let wel: Als consument ken jij het verschil niet tussen GDDR5 of DDR3. Dus, welke keuze zou je maken?
Pak elk artikel op tweakers erbij waar het gaat over een nieuwe videokaart. Uiteindelijk is er altijd iemand die begint over de naamstelling in de comments.

Het is ook geen vrijbrief. Een miljarden bedrijf verzint niet zomaar wat willekeurige namen. Daar zit een idee achter. En wellicht is dat om consumenten op het verkeerde been te zetten door het onoverzichtelijk te maken. Maar dat weet ik niet.

Dit soort artikelen zijn meer geschreven om verkeer/reacties binnen te halen. Dit zijn duidelijk marketing berichten waar eigenlijk niks bijzonders in staat. Want anders had tweakers ook wel even een vergelijking kunnen maken tussen de desktop variant die toch een stuk krachtiger is.

Wat betreft je laatste punt is de keuze heel simpel. Ik lees gewoon een aantal reviews, kijk naar de resoluties die voor mij van toepassing zijn en kies dan de kaart die het beste presteert.
Pak elk artikel op tweakers erbij waar het gaat over een nieuwe videokaart. Uiteindelijk is er altijd iemand die begint over de naamstelling in de comments.
Laat ik dan voorop stellen dat het geenzins mijn intentie was om te ''klagen'' - Zo zie ik de post zelf ook niet. En ergens is het best wel vreemd dat je alle hoeken eerst aangekaart moet hebben (Nvidia doet het, dus moet je ook zeggen dat AMD het ook doet, want anders krijg je dat te horen) omdat nu eenmaal de ervaring is dat de mensen die stellen dat Nvidia teveel aan verandering doet trolls of fanboys zijn.

Dat zeg jij uiteraard niet, maar het geeft wel te kennen dat je bij een dergelijk onderwerp eerst een soort ''checklist'' moet doen voor je een post zoals de mijne kan maken. Dat is jammer :/
Dit soort artikelen zijn meer geschreven om verkeer/reacties binnen te halen. Dit zijn duidelijk marketing berichten waar eigenlijk niks bijzonders in staat. Want anders had tweakers ook wel even een vergelijking kunnen maken tussen de desktop variant die toch een stuk krachtiger is.
Ook zulke berichten dienen gepost te worden. Ik kan het zelf weten als schrijver. Ik vind dergelijke geruchten of soortgelijke artikelen ook niet de meest spannende. Maar het is nu eenmaal nieuws, dus er dient geschreven over te worden.
Wat betreft je laatste punt is de keuze heel simpel. Ik lees gewoon een aantal reviews, kijk naar de resoluties die voor mij van toepassing zijn en kies dan de kaart die het beste presteert.
Oftewel voor jou is de keuze heel simpel, omdat op die vraag reviews gaat lezen waar je dan achter het antwoord komt. Het grote gros van de consumenten doet dit niet, die kiest voor de DDR3 versie omdat 2 GB nu eenmaal beter klinkt dan 1. ''Meer is beter'', is het achterliggende idee. Zo worden ze in de markt gezet, omdat het gros van de consument nu eenmaal zo denkt.

Dat terwijl de GDDR5 versie dus eigenlijk de betere keuze is door de grote geheugendoorvoersnelheid. Maar dat is saaie stof, dus dat ga je niet naar de consument vertellen. Terwijl je, als je het eerlijke verhaal wilt doen, dat eigenlijk wel zou moeten doen.
Welkom in de computer wereld. Dit is al zou oud als computers bestaan. Dit doen alle partijen intel amd nviidea noem maar op en zal ook nooit stoppen. Dat is nu eenmaal de prijs van vooruitgang. anders zat iedereen nu nog met zijn monochroom beeldscherm te koekeloeren
Vooruitgang staat gelijk aan verwarring scheppen met meerdere modellen onder eenzelfde of vergelijkbare naam? Ik zie niet hoe dat verband houdt met mijn reactie.

Tuurlijk is er vooruitgang, maar dat hoeft niet bereikt te worden door (onnodig) verwarring te scheppen bij het publiek wat je producten koopt. Dat geld voor iedere partij overigens.
Het is niet dat een dergelijke benaming ongewoon is. Ik voorspel dat Super ooit vervangen gaat worden voor S, omdat dat voor meer superlatieven te gebruiken is en dus meer tot de verbeelding spreekt -> meer verkopen oplevert.

Maar daarnaast; bij auto's zie je dat ook, maar daar is het OK?

[Reactie gewijzigd door CH4OS op 20 november 2019 19:18]

Grappig feitje is dat Nvidia dit al eens heeft gedaan middels de 9800S :P Maar om eerlijk te zijn zouden Nvidia (en AMD!) een veel simpeler schema aan moeten houden. Dat men - bewust - het laat verwateren zorgt ervoor dat de consument toch de verkeerde (duurdere?) keuzes maakt. En dat is niet netjes.
Maar daarnaast; bij auto's zie je dat ook, maar daar is het OK?
Elke keer als Tweakers over auto's post komt dit naar voren en het is werkelijk zo irritant. De consument weet toch niet wat het verschil is. :P

Zonder dollen: Omdat auto's minder niche zijn dan videokaarten (die vaak gamers als doelgroep hebben, ja, er zijn ook entry level kaarten) is de terminologie wat meer bekend. Maar inderdaad, Een VW GT en een VW GTS zou op zichzelf niets zeggen. Marketingtechnisch zal de extra letter toch in de hoofden van consumenten betekenen dat deze ''beter'' is, ofschoon er niets is dat zoiets ondersteunt.

Maar ja, psychologie he! :P
Elke keer als Tweakers over auto's post komt dit naar voren en het is werkelijk zo irritant. De consument weet toch niet wat het verschil is. :P
Tja, een koper heeft natuurlijk ook wel de plicht zo'n beetje, om zichzelf op zijn minst te verdiepen op het moment dat een koper daarvoor in de markt is. Een ding ruilen omdat iets niet kan (nadat WKOA verstreken is) want "ich habe es nicht gewusst" hoeft een winkel niet te accepteren. ;)
Ik maakte een grapje. Al covert Tweakers ook autonieuws, dus het zou ook best waar kunnen zijn. :P

Het blijft toch krom. De consument is wel geneigd zich in te lezen in de aanschaf van een huis of een auto, maar zodra we het over computers gaan hebben, gamers/specialisten uitgezonderd, dan is het algauw: ''Hij moet het gewoon doen/Ik moet er dit mee kunnen, en daarmee basta''.
Het blijft toch krom. De consument is wel geneigd zich in te lezen in de aanschaf van een huis of een auto, maar zodra we het over computers gaan hebben, gamers/specialisten uitgezonderd, dan is het algauw: ''Hij moet het gewoon doen/Ik moet er dit mee kunnen, en daarmee basta''.
Aan de andere kant komen er ook dagelijks veel topics voorbij in Desktop Aankoopadvies, Laptop Aankoopadvies en Componenten Aankoopadvies, dus er zijn wel degelijk ook gebruikers die wel verder kijken dan hun neus lang is en die dus daadwerkelijk kijken naar wat ze het beste kunnen kopen voor het geld dat ze ervoor over hebben.
Dat zal ik niet bestrijden. Die zijn er. Dat zijn eigenlijk al de ''handige harries'' die zich iig wel proberen in te lezen voor ze een aankoop doen. :)
Dit verbaast me niks.
Nvidia haar succes is altijd voor een groot gedeelte gekomen uit gaming laptops en OEM desktops, niet DIY verkoop waar het alleen maar over gaat. Het gaat namelijk helemaal niet zo goed met de DIY verkoop van Nvidia. Ondanks hogere prijzen voor hetzelfde segment ten opzichte van Pascal, loopt de omzet terug. Q3 was niet anders voor Nvidia en daar gaven ze gewoon toe dat de omzetdaling uit de desktopmarkt komt en de laptops het enigszins compenseren.
From a market platforms perspective, Gaming revenue was $1.66 billion, down 6 percent from a year ago and up 26 percent sequentially. The year-on-year decrease reflects lower sales of GeForce® desktop GPUs from the prior year, which included the launch of Turing-based GeForce GPUs, partially offset by growth in GeForce notebook GPUs and SoC modules for gaming platforms. The sequential increase reflects growth primarily from GeForce desktop and notebook GPUs.
https://s22.q4cdn.com/364...Q3FY20-CFO-Commentary.pdf
https://nvidianews.nvidia...third-quarter-fiscal-2020


Ondertussen zakt de servermarkt voor Nvidia ook in en stappen de autoproducenten steeds meer over op hun eigen chips voor hun auto's. Het gaat helemaal niet zo geweldig met Nvidia. Ze maken nog steeds ruime winst, maar de trend is steeds negatiever. Wat Nvidia zich absoluut niet kan permitteren is dat andere partijen een hap gaan nemen uit de OEM GPU markt die ze controleren. En daar zit nu juist het probleem.
Zie: https://nvidianews.nvidia...third-quarter-fiscal-2020

AMD komt voor het eerst in jaren weer eens met iets competitiefs in de vorm van RDNA en ze hebben nu ook eindelijk eens het tij meezitten met hun CPU's. Niet alleen omdat Zen zeer competitief is, maar in het geval van laptops speelt mee dat Intel nu al ruim een jaar niet aan alle vraag kan voldoen. Elke keer verdampt er maar weer servercapaciteit met elke nieuwe beveiligingsfout. Dat moet hersteld worden en bijna paradoxaal, maar het antwoord is meestal om meer CPU's van Intel te kopen. Immers heeft Intel de productiecapaciteit om aan die vraag te voldoen. Intel offert graag volume voor de desktop en laptopmarkt op, om aan die vraag te voldoen. Immers zijn de marge op een Xeon vele malen hoger. Het resultaat zijn tekorten en daarom krijgt AMD een kans in de laptopmarkt.

Vervolgens zijn ze bij AMD ook niet (meer) achterlijk en gaan ze proberen om zoveel mogelijk complete processoren te verkopen. APU's ja, maar ook APU's samen met een losse RDNA GPU. Daarmee gaan ze vol in de aanval op die markt. Intel laat dat gat zelf vallen, AMD duikt erin en als AMD een lagere totaalprijs vraagt dan een vergelijkbare Intel + Nvidia of AMD + Nvidia oplossing, dan gaan er OEM's zijn die dat aanbod aannemen. Immers steken ze het verschil dan zelf in hun zak.

Dit is alleen nog niet eens de grootste bedreiging voor Nvidia. Nee, dat is Intel. Intel is zich op aan het maken om Nvidia uit de markt te drukken. Zodra Intel met hun Xe GPU's komt voor OEM systemen, dan gaan zie die pushen samen met hun CPU's aan de OEM's. Dat is het nachtmerrie scenario voor Nvidia. AMD heeft het geld, noch de invloed om echt druk uit te oefenen buiten hun eigen verkopen, Intel heeft dat zeker wel.

In dat licht horen deze refreshes. Het is zeker gericht op RDNA, maar in de achtergrond speelt heel wat meer mee. Nvidia heeft één kans om iedereen te overtuigen dat je een Nvidia moet hebben en dat Intel en AMD niks is. Dat heet RTX. Ze zijn het echt niet zomaar aan het pushen tot het punt dat GeForce opeens "instap en midrange" is. Dat was bijna twintig jaar het "premium merk". Ondanks dat RTX bij lange na niet gereed was, is het naar buiten gebracht en voorzien van alle marketing die Nvidia ertegenaan kan gooien. Het is de enige manier voor Nvidia om te bewijzen dat ze iets kunnen dat niemand anders kan. Maakt niet uit dat het maar door een paar games word ondersteund en dat de typische implementatie je framerate door de helft hakt voor weinig echte winst, Nvidia heeft ray tracing. Dat is Nvidia haar strategie om relevant te blijven en om de huidige prijzen te rechtvaardigen.

Als laatste geeft een RTX2000 Super refresh in 2020 aan dat de RTX3000 series nog wel even op zich zullen laten wachten. Om relevantie te houden, moet je dan iets gaan lanceren, ook al is het een paar procent sneller. Dat is de hele RTX Super lijn, maar procent sneller maken in een poging om net sneller te zijn.
Dat de verkopen voor desktop iets lager zijn neemt niet weg dat de verkopen nogsteeds vrij sterk zijn in het kamp van Nvidia en de gaming laptop space is nogsteeds groeiende. Uiteindelijk heeft Nvidia wel Raytracing echt op de kaart gezet in de gaming markt en gaan zelfs de aankomende consoles gebruik maken van raytracing technieken

RTX heeft een valse start gemaakt maar bijvoorbeeld games als Control en Modern warfare hebben zeer repectable performance met RTX functies aan en ogen geweldig. Dit toont toch wel aan dat er water in het vat zit. Het moet alleen benut worden en correct geimplementeerd worden in engines. Wanneer RTX enabled is, is het performance verschil enorm met GPU's die het niet ondersteunen.

Binnen de professionele sector is AMD nauwelijks een factor en draait het echt om CUDA cores. Dus zo'n bleak situatie als jij schetst is volgens mij nog geen sprake van.
Je kijkt op veel te korte termijn. :)
Nvidia zal waarschijnlijk rond de release van Maxwell in 2014, met Turing zijn begonnen. Logisch want architectuur was succesvol gelanceerd, tijd voor de volgende. Pascal is botweg Maxwell 2.0 en telt niet eens. Waar moet Nvidia in 2014 naar gekeken hebben? Nou niet naar AMD die met een GCN refreshlijn kwam. Het was drie keer niks en dat wist Nvidia. Als je met niks kan komen omdat je elk jaar dieprode cijfers schrijft en je R&D budget eraan gaat, tja dan neemt je enige concurrent je ook niet erg serieus meer. Nvidia kon dus rustig aan een nieuwe architectuur gaan werken die sneller zou zijn dan hun Maxwell 2.0 die allang in de planning stond. Dat werd Turing.

Turing is niet eens heel erg revolutionair. Het is een optimalisatie op Maxwell met de toevoeging van heel wat fixed function hardware. Turing is met name beter in recente titels door de toevoeging van integer cores naast de FP32 only cuda cores. Compute wordt namelijk steeds belangrijker in games en "Paxwell" is er niet erg goed in. GCN zeer zeker wel en dat is waarschijnlijk de belangrijkste reden waarom GCN steeds inliep en beter haar prestatiepunten vasthield door de jaren heen.

Maar de RTX effecten, ook in Control en Modern Warfare zijn alles behalve indrukwekkend. Het meeste is effect versterkend omdat de schaduwen zonder RTX gewoon slecht zijn. Dat is een "probleem" waar toevallig de meeste RTX games last van hebben. :z

Ray tracing is geweldig voor bijvoorbeeld reflecties of een spiegel echt laten spiegelen. Nvidia gebruikt het alleen voor lichteffecten die behoorlijk goed te "faken" zijn. Dan zakt je framerate ook nog eens flink en als je dan ook nog eens zonder RTX videokaart, een grafische downgrade krijgt zodat RTX er beter uitziet, dan ben ik niet onder de indruk.

[hr]Maar terug naar planning voor jaren. Nee, Nvidia keek in 2014 naar iets heel anders, Intel haar IGP's. Die miserabele ondingen waren namelijk in rap tempo beter en beter aan het worden in de voorgaande jaren. Zo snel dat ze op termijn een bedreiging konden gaan vormen voor Nvidia hun wurggreep op de OEM's. De eerste stap is om de instapmodellen overbodig te maken, maar Intel is onverzadigbaar en stopt daar niet. Die gaan gewoon door met hogere segmenten als ze kunnen. Daar kan je maar beter in een vroeg stadium op voorbereid zijn. Het kost immers makkelijk vier jaar om van een concept naar een verkoopbare GPU chip te gaan. Tenminste, zoveel tijd zal het voor Nvidia en al helemaal AMD kosten. Intel kan er gewoon een paar miljard extra tegenaan gooien en dan doen ze het sneller.

Het plan van Intel ontspoorde alleen omdat Intel 10nm zo'n gigantische ramp bleek te zijn. Ice Lake staat al jaren in de planning en die IGP's zijn respectabel te noemen. Ze doen eigenlijk niet onder voor AMD haar huidige APU's. Al die ontwikkelingen totdat Intel helemaal vastliep in haar eigen puinzooi, gaf ook aan dat Intel weer serieus werd over grafische chips, na eerdere mislukkingen. Als je dan in 2017 ziet dat Intel, Raja Koduri inhuurt, dan weet je als Nvidia dat het helemaal tijd is om gas bij te gaan zetten. De geruchten over Xe gingen toen ook al rond. Bij Nvidia zijn ze niet zo dom om dit niet te zien en er niet op te anticiperen.

Daarnaast is het probleem in datacentra dat GPGPU's vooral een ding heel erg goed kunnen, Artificial Neural Networks. Daar zat de groei ook in. Het probleem is dat er iets is dat dit nog veel beter kan, dedicated ASIC's. De echt grote spelers zoals Google zijn allang overgestapt naar hun eigen chips voor het meeste werk en die hebben Nvidia hun aanbod grotendeels niet meer nodig. Daarnaast zijn er nog veel meer soorten Machine Learning die draaien op CPU's.

Nota bene is Lisa Su hier gigantisch op gericht. Ze heeft zeer doelbewust de Radeon divisie zowat onder de bus gegooid door jarenlang de geldkraan dicht te draaien ten gunste voor de ontwikkeling van Zen. Toen Zen leek te gaan slagen, was er pas weer wat geld. Dat ging meteen naar RDNA omdat zowel Microsoft als Sony een nieuwe GPU wenste voor hun nieuwe consoles. Nieuwe consoles met ray tracing ondersteuning.

Microsoft kwam ook met de DXR standaard op PC, niet Nvidia. Dat is geen toeval want op deze manier kan Microsoft alvast de game developers laten wennen aan wat ze voor hun eigen console gaan introduceren. Een console die op RDNA draait. De rekensom is niet moeilijk. RDNA en dan denk ik specifiek RDNA 2 en verder, gaat de ray tracing standaard worden, niet Turing.

Dat is maar goed ook. RTX is closes source, Nvidia only en het werkt alleen maar goed op specifieke Nvidia hardware die alleen in Turing zit. Turing mist niet alleen de rauwe rekenkracht om serieuze ray tracing uit te voeren zoals Nvidia het wenst. Daar wil je niet van afhankelijk zijn. Er zijn ook maar een paar RTX titels en dit is de reden. Als het geen open, universele standaard is, dan beginnen de meeste er niet aan. Het resultaat gaat zijn dat je hier en daar een RTX titel krijgt, maar de RTX hardware verder niet aangesproken zal worden door de meeste games. Ook niet console ports die ray tracing ondersteuning krijgen.

[hr] Dan nog even datacentrums. Zen was altijd een server CPU architectuur die omlaag geschaald kon worden, maar de focus zijn en blijven de servers, specifiek Machine Learning servers die de enorme aantallen cores kunnen benutten voor allerlei taken. AMD had beide kanten op kunnen gaan, maar ze gingen voor de CPU en dat is behoorlijk indicatief. Epyc duikt ook niet voor niks juist op in steeds meer aangekondigde supercomputers, terwijl de rest van de servermarkt veel trager gaat. Volgende stap voor AMD is dedicated chiplet GPU's gaan combineren met chiplet CPU's. Ik denk dat dit een kwestie van tijd is.

In het geval van Intel willen en gaan ze ook die kant op. Net zoals AMD wil Intel ook het totaalpakket leveren. Intel heeft al een lijn van FGPA's in de planning staan. Daarnaast duidt de recente informatie van Xe voor servers ook al op een totaalsysteem. CPU met dedicated, chiplet Xe GPU's ernaast. Daar is op termijn ook geen ruimte meer voor Nvidia.
Ik kijk niet korte termijn hoor. Nvidia heeft genoeg in de pijpleiding zitten. Het is het gemis van echte concurrentie dat er geen haast achter gezet wordt. Nu nogsteeds heeft AMD geen echt antwoord op Nvidia maar komen ze met hun beste kaart in de buurt van de lower specced high end. Ik vidn dat neit indrukwekkend, helemaal als het pas een jaar erna is. Helaas ook niet veel gusntiger qua prijs. Dat vind ik jammer want als ik nu een desktop zou bouwen dan zou ik direct een AMD Ryzen based systeem bouwen. Het is niet alsof ik iets tegen het merk AMD heb. Maar op GPU gebied zijn zij gewoon zwak. Ook tijdens GCN, de enige reden dat er met driver updates performance winst bij kwam is omdat AMD traditioneel wat zwakker is qua software en Nvidia gewoon meteen het uiterste er uit haalt. Dat heeft weinig met compute units te maken, die worden nogsteeds relatief weinig ingezet dus in dat opzicht heeft Nvidia goed gegokt destijds. DX12 bijvoorbeeld met Async compute is nogsteeds geen gemeengoed in de gaming industrie. Nvidia knijpt ons financieel wel net wat harder uit door bijvoorbeeld bepaalde FPU berekeningen te blokkeren in hun consumenten kaarten. Maar dat is weer puur vanwege het gemis van concurrentie.

De enige markt dat echt groeit binnen de algehele PC markt van consumenten zijn gaming laptops en dat is de focus van Nvidia geweest en daar hebben zij gewoon een totale monopolie in. Zolang zij inspelen op de veranderingen binnen de markt hoeven zij zich echt nergens zorgen over te maken.
Wat is het nut van een RTX 2080 SUPER in een laptop??? Aangezien de meeste Laptop last hebben van power limit. Vorige maand een Laptop gekocht met een 2080. Maar die haalt net de 1650mhz onder full load. Vergeleken met mijn Desktop die ik tegen de 2GHz aan tikt.

En dan hebben we nog niet over de temperaturen. 86c uit de doos. Met een undervolt kreeg ik het op 1720mhz, en nou komen de temps niet boven de 70c.

Een 2060 en 2070 SUPER kan ik nog begrijpen als je geld wil besparen. Maar een RTX 2080 SUPER is gewoon zinloos. Zelfs op een Desktop is de SUPER versie zo'n 5% sneller.
Ik kan me daar als VR enthousiast toch wel zeker wat bij indenken, of voor iemand die gewoon veel op de weg zit en veel GPU power wil.. Je kunt je laptop altijd aan de muur leggen, dus ik zie zo het probleem niet.
Zo'n gaming laptop gebruik je niet onderweg. Het moment dat je het stroom eraf haalt zie je een prestatie drop van 70%. En zelfs op stroom heeft het nog steeds last van power limit. Meeste gaming laptops hebben een voeding van 230 watt. Een high end Desktop GPU gebruik al ruim 200+ watt. Het beste wat je kan doen, is de CPU and GPU undervolten. In meeste gevallen kan je extra prestatie eruit halen, omdat je niet constant tegen de 200 watt limit aan zit.
Onderweg als in op kantoor, thuis, vrienden, hotel, vakantie etc.. Niet onderweg als in een bus/trein/vliegtuig, maargoed, dan is IMHO geen 1 laptop handig)..
Zucht, het lijkt bijna wanhopig.
Ik snap dat ze gewoon performance/price omlaag willen duwen. Maar volgens mij is Dit niet de juiste weg. Er is een reden dat AMD zoveel deals heeft/krijgt voor prefab systemen, visual devices en consoles.
AMD heeft nauwelijks tot geen presence in de high end laptop space. Dus dat is geen factor hierbij.
Jippie nog meer variatie.
Dit begint nog erger dan de AH XL winkels aan het worden. In de AH XL heb je al iets van 30 verschillende kaas naast elkaar staan... 8)7
Jippie nog meer variatie.
Dit begint nog erger dan de AH XL winkels aan het worden. In de AH XL heb je al iets van 30 verschillende kaas naast elkaar staan... 8)7
Moet wel zeggen als het allemaal unieke kazen zijn heb ik er geen probleem me, is het 30 keer een jonge kaas die allemaal gelijkaardig smaken net iets minder. Maar uiteindelijk is het wel geen kaashandelaar.
dan moet jij eens naar een hypermarche gaan in frankrijk.
of een sainsburrys in engeland.

40 meter cornflakes
Dus je hebt een hekel aan Nvidia en kaas, wat is je punt?
Ze moeten echt stoppen met het maken van gaming laptops.

Ze maken teveel lawaai en worden te warm!

Ik kan niet eens normaal in de woonkamer gamen hierdoor :(

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee