Gerucht: Nvidia brengt geannuleerde RTX 4080 12GB onder nieuwe naam uit

Nvidia gaat de GeForce RTX 4080 met 12GB geheugen naar verluidt onder een andere naam uitbrengen. Volgens YouTube-kanaal Gamers Nexus worden fabrikanten in elk geval deels vergoed voor reeds geproduceerde dozen voor al geannuleerde gpu's.

Naar eigen zeggen heeft Gamers Nexus 'genoeg gesprekken met bronnen' gehad om aan te nemen dat de geannuleerde RTX 4080 met 12GB geheugen onder een andere naam wordt uitgebracht, vermoedelijk als RTX 4070 of RTX 4070 Ti. De nieuwe naam zou gepaard gaan met een prijsdaling, al noemt de youtuber geen concrete prijzen. De vernieuwde videokaart zou tijdens techbeurs CES in januari van 2023 uitgebracht worden.

Gamers Nexus meldt verder op basis van gesprekken met twee fabrikanten dat Nvidia de kosten van board partners voor reeds geproduceerde dozen voor de betreffende RTX 4080 in elk geval deels vergoed. Het is niet duidelijk in hoeverre het bedrijf verdere kosten compenseert. De voormalige RTX 4080 12GB moet immers onder meer van nieuwe sku-stickers en bios-firmware voorzien moet worden.

Vooralsnog heeft Nvidia zelf niets laten weten over een eventuele release van de betreffende videokaart. Wel benadrukte de fabrikant dat specifiek de naam van de RTX 4080 12GB het probleem was; dit zou voor verwarring kunnen zorgen. Een van de kritiekpunten op de videokaart was dan ook de relatief bescheiden AD104-gpu, die niet zou passen bij het segment waar de RTX 4080 in wordt uitgebracht, wat de theorie van een nieuwe naam bedoeld voor het lager geplaatste segment zou ondersteunen.

Door Yannick Spinner

Redacteur

17-10-2022 • 20:38

125

Reacties (125)

125
125
54
4
0
52
Wijzig sortering
"een prijsdaling" Yeah... about that...

Het is allemaal een rel om namen, verbruik, prestaties, naamswitches, bouwkwaliteit, maar einde van de rit.. iedereen praat nvidia en geen enkele webshop heeft die kaarten nu nog (voor een MSRP prijs), dus ergens... job well done Nvidia.
Ik geloof dat Nvidia een gigantische lading heeft aan 3000/4000 series GPUs die ze niet kwijt raken. Ze zitten vast aan het contract met orders die ze gebaseerd hebben op de mining craze. Als je verder zoekt en bijv. kijkt naar hun earning's call geeft de CEO ook aan dat ze van strategie wisselen en basically het aantal leveringen van GPUs kunstmatig kelderen om de prijzen hoog te houden en de schijn van veel demand en weinig aanbod maken.
Dat is al even bekend, maar het maakt het principe niet anders, ze kunnen blijkbaar dit gewoon doen (hoewel veel meer het doen, dit is 1 van de weinige keren dat het 'publiekelijk' wordt genoemd), de 40series zijn niet te krijgen, ze hebben ze voor hun gewenste prijs bij de vendors gezet.

Die 30xx zijn al 'gekocht' door alle vendors/manu's, dus voor hun niet zo'n bijzonder groot probleem, beetje de reden waarom EVGA eruit is gestapt, maar ook dat lijkt weinig tot geen impact te hebben.
Ze kunnen dit doen totdat mensen AMD kaarten meer gaan kopen. Als ze van team Green naar Team Red verhuizen, draait nVidia wel bij.
Dat klinkt leuk natuurlijk, maar bijvoorbeeld in mijn geval heb ik nu een 3090 en ik overweeg om misschien naar een 4080 te stappen ipv een 4090, maar 'Team Red' krijg je mij met geweld nog niet in....
Wat weerhoudt je van een overstap naar AMD? Oprechte vraag.
Ik heb de stap zelf gemaakt van GTX970 naar AMD 5700XT , nu weer 3080ti, om nooit weer terug te keren bij AMD.
Het was mij vrij snel duidelijk dat AMD op drivergebied de finesse mist die Nvidia heeft.
Features die gewoon niet werkten en niet de aandacht kregen van AMD. Hitteproblemen, slechte aansturing Software > Hardware.

Daarnaast loopt Nvidia op feature gebied mijlen ver voorop. AMD volgt wel. (G-sync als eerste - hoewel de implementatie discutabel / proprietary was , Raytracing als eerste)

Nog altijd heeft AMD mijn sympathie, maar alleen omdat ze underdog zijn.
Ze zijn underdog met een reden...
Je komt dus uit een tijd dat AMD bagger driver had. Ze zijn echt mijlen beter geworden afgelopen anderhalf jaar.

Dat gezegd hebbende word mijn volgende kaart waarschijnlijk een Nvidia omdat het features heeft die ik wil hebben die AMD niet heeft zoals goede streaming.

Het best punt van AMD is voor mij RSR en dat is toch beduidend beter dan NIS qua kwaliteit. Maar verder heeft AMD niet veel te bieden tenzij je competitief gamer ben dan is AMD op lagere resolutie gewoon een betere optie door de lage driver overhead.
Nvidia driver overhead is zo groot dat je gewoon gelimiteerd ben in peak fps.
AMD VSR was toen die feature die gewoonweg niet werkte... en toen ze hem gefixed hadden werkte hij niet in combinatie met mijn monitor (tv). Heb toen getracht een support call in te sturen bij AMD en na 5x verschillende beta drivers geinstalleerd te hebben ben ik er maar mee gestopt.

Misschien is eea. verbeterd maar voor mij voelt dit een beetje hetzelfde als de intel vs amd problemen van jaren geleden. Intel was gewoon verfijnder, efficienter, waar AMD het met brute power (stroom) probeerde te compenseren. (is natuurlijk iets anders nu).
een variatie op het bekende spreekwoord is hier van toepassing:

Fool me once, shame on you.
Fool me twice met een kaart van 500-1000?

No way.

Ik ga niet gokken met zoveel geld. Als ik zoveel geld uitgeef moet het gewoon werken.

En ik ben het niet met je eens dat het nu zo veel beter is. Mijn werklaptop is een Lenovo, met AMD CPU/GPU combo. Een brok doffe ellende zodra ik de Radeon rommel installeer. meest wazige foutmeldingen, ruzie met meerdere beeldschermen, rare glitches. Standaard driver via windowsupdate is ok, maar zodra je naar amd.com gaat en die package download gaat er van alles mis. En ik doe niks bijzonders, beetje modelleren in archimate prut, office gebruik+zoom/teams.

Ik heb sowieso een steeds grotere hekel aan heel het AMD platform. het is buggy bagger. Zo. Ik schrijf even 3 jaar frustratie van me af ;) Er is nog niet 1 normale AGESA geweest in 3 jaar tijd en het gezeik met de 2700x+x470 is nog steeds niet opgelost. (geheugen en stabiliteit) Die combo is toch al "eventjes" uit, niet?

Nieuwe AGESA? Weer is er ergens iets kapot. En het zijn niet de kleinste dingen: van rare geheugen beperkingen naar niet werkende precision boost omdat er ergens iets is vergeten tot USB ellende die trouwens weer terug lijkt te zijn met 2.weetikveelx.7 op mijn 5900x/x570 combo, het is gewoon echt super kut. En ik ben er echt he-le-maal klaar mee.

Yep, ik heb privé 2 gamepcs in huis. beiden AMD based. waarom? omdat de heren reviewers mij vertelden dat het X570+5x00 platform de kinderziektes van de x470 en 2x00 series cpu's eindelijk was ontgroeid. uhuh. Vol goede moed verving ik mijn 2700x/x470/2080 combo (en doneerde deze aan mijn zoontje omdat de PS5 niet te leveren was) door een 5900x/570/3080. En toen kwam ik van de memory timing hel in de USB hel terecht. van de ene kolere zooi in de andere.

Met 1 AGESA versie waarvan ik het versienummer allang ben vergeten heb ik het memory in die x470/2700x 1x op 3000 en stabiel gekregen. 1x. Nooit meer gelukt. Ding draait nu op een waardeloze 2400Mhz met 3600 rated dimms. Zodra ik die dimmen in een intel bak duw van een kennis werken ze gewoon op 3600, foutloos. Uren.

Ja, ik weet dat de memory controller de zwakke schakel is van de ryzen en zeker de 2x00 serie. maar.... 2400? da's wel heel shitty.

En de AGESA USB hel is al voldoende beschreven in de media. Heeft meer dan een jaar geduurd voordat ze het oplosten en het lijkt nu gewoon weer terug te zijn.

Ik ben echt helemaal klaar met team red.
Hier een AMD 5700U/GPU laptop van Lenovo. Ik heb geen idee waar je het over hebt.
Je moet ook niet gokken maar gewoon feiten verzamelen en dan je keuzen baseren op de feiten en kijken wat binnen jouw budget het beste is. Persoonlijk wou ik ook geen 6900XT en heeft AMD geluk gehad met de markt situatie en was dit na 78 maanden proberen een gpu te scoren het enige dat ik kon krijgen zonder een scalper te voorzien van geld. Anders had ik namelijk gewoon een 3080 gehad.

Maar ik moet zeggen dat met de huidige stroomprijs RSR me al behoorlijk wat geld aan het besparen is. afgelopen 6 maanden toch al snel 100 kwh. En aangezien ik deze generaties voorbij laat gaan tenzij rx7000 een heel grote verrassing is (wat niemand verwacht) en ik dus komende 2 jaar dus nog steeds in iedere game RSR en undervolt aan zal zetten en ik zon 140 a 160 watt per uur bespaar verdient die meerprijs van de gpu zich al wel terug.

En je han een apu niet vergelijken met een dedicated gpu. Totaal niet van hetzelfde nivo. Misschien eens die hele laptop formatteren en al die merk bende eraf knikkeren en vooral terug gaan naar windowss 10 als er 11 op staat want dat lost 50% van de problemen al op. Het is een rete buggy OS momenteel. En een igpu is bedoeld voor niets dan basis beeld output dus geen multimitor geen games geen rendering. Daar had je beter een betere laptop voor kunne kopen dus daar kan je moeilijk een APU de schuld van geven. Die is daar gewoon niet voor bedoeld.

Qua AMD en geheugen kan ik je gelijk geven maar ik kan je ook vertellen dat dit bij intel niet perfect is. ik heb er 9 maanden over gedaan om het random probleem met mijn intel pc te vinden (ram voltage is niet helemaal jovol en dus heeft het meer nodig dan zou moeten)
Maar lang verhaal kort heeft Nvidia ook bagger producten gehad en daar hoor je niemand meer over.
Maar van AMD is het algemeen bekend wat de grenzen van het geheugen zijn en welk geheugen je wel en niet moet kopen. dus dat is dan of onwetendheid geweest of eigenwijsheid omdat je toch ander/sneller geheugen wou als slim was.
Je dims kunnen wel rated zijn voor 3600 maar als zes niet compatibel zijn... Gevalletje betere dims kopen dat was namelijk al bekend sinds ryzen 1xxx.
En kijk maar eens naar alle Papers die nVidia heeft (2 minute papers is een leuk YouTube kanaal daarvoor).

Qua ontwikkeling lijkt nVidia VER voor te liggen op AMD. Het enige voordeel wat AMD (en daarvoor ATI) heeft is dat ze over het algemeen meer "open" technieken delen.
Ja qua features zijn ze gewoon verder.

Het nadeel is wel dat ze die features niet open in de markt zetten, AMD doet dit wel maar de vraag is of ze dat ook gedaan hadden als de rollen omgedraaid waren ;)

G-sync was natuurlijk het extreme voorbeeld , het is me nog steeds niet duidelijk waarom nou die custom FPGA chip nodig was en waarom dat beter was dan het utiliseren van een standaard die er al was (VESA VRR)
Met DLSS en FSR is het ook min of meer hetzelfde verhaal. AMD komt met een antwoord op DLSS. In eerste instantie inferieure technologie, inmiddels redelijk gelijkwaardig.

Wel open source... maarja zoals ik al zei; zou het open source zijn als ze zelf al het R&D en marketing werk gedaan zouden hebben?
Het loopt voor mij gewoon niet lekker. Crashes, reboots, dat soort dingen. Ik heb het regelmatig uit nieuwsgierigheid geprobeerd, of gewoon omdat ik weleens iets anders wilde. De laatste AMD kaart die ik gehad heb is een 7950. En ik heb momenteel nog een (extra) systeem met een 5600X, maar dat draait ook maar matig qua prestatie vind ik. Dus nee, voor mij Intel en Nvidia.

En niet om mezelf op de borst te slaan, maar ik bouw al bijna 30 jaar regelmatig custom PC's als onderdeel van mijn werk, dus ik heb best wel een diversiteit aan hardware in mijn handen gehad en durf toch wel te beweren dat ik een systeem weet te configureren.
Ik heb ook al een paar decennia ervaring met beide, en herken wel wat je zegt, maar denk dat het wel vooral gebaseerd is op de historische achterstand van AMD met hun drivers. De ondersteuning daarvan in het verleden was onder de maat t.o.v. Nvidia, dat geef ik je zeker. Maar de 7950 is een kaart van 9 jaar geleden. AMD heeft de laatste tijd enorme sprongen gemaakt met de kwaliteit van hun drivers, en ook qua features beginnen ze eindelijk in te lopen op kamp groen. Wat dat betreft is er wel echt wat veranderd.
Vertrouwen komt te voet en gaat te paard, dus ik snap de weerstand heel goed. Maar wat vertrouwen betreft heeft Nvidia het bij mij ook behoorlijk verpest met hun anti-consumenten gedrag.
Historisch is ook een groot woord, mijn eerste ervaringen met Ati gaan terug t/m de VGA Wonder, en die was goed.

Heb de eerste "echte" Nvidia gekocht, de Riva128 destijds, was een beetje afhankelijk van welke vendor je had hoe goed je TV-out in die tijd was, en na de Riva TNT en TNT2 deed Ati's Rage FuryGL het een stuk beter..

Drivers is altijd een ding geweest, maar je had toen al de "Rage Underground" optimized drivers zodat je niet met de standaard drivers hoefde te werken. Het is echter niet zo dat Nvidia altijd goede producten heeft gehad(GeforceFX), en er was een tijd dat gebruikers van beide kampen op "Omega drivers" draaiden ipv de officiele. Nu kan je oudere AMD kaarten "herbezoeken" met de Nimez-drivers, maar die installatie zal de gemiddelde user ver boven de pet gaan.

Echter is het me nog nooit niet gelukt om iets speelbaar te krijgen op AMD kaarten, vaak met betere resultaten als op Nvidia mogelijk bleek.

Out of the box, voor iemand die "geen gedoe wil", zal Nvidia echter wel de voor de hand liggender keuze zijn.

[Reactie gewijzigd door mjansen2016 op 22 juli 2024 16:22]

Ben ik ook benieuwd naar. Ik kijk ook naar DLSS enzo, daarin schijnt Nvidia nog wel een streepje voor te hebben, maar ik heb me daar ook niet voldoende ingelezen om daar echt over te kunnen oordelen.
DLSS kun in veel games overriden naar FSR2.0 ondertussen.

[Reactie gewijzigd door mjansen2016 op 22 juli 2024 16:22]

Voor mij zijn dat:
- ervaringen uit het verleden met AMD cpu's en GPU's (te warm, slechte drivero ondersteuning e.d.) die waarschijnlijk nu onzin zijn
- een x38 scherm dat gsync ondersteunt

Misschien geldt iets soortgelijks voor JPS2K5 ;)
Ik hoor laatste tijd ook wel meer over slechte drivers hoor. Er zijn ook goede dingen, maar op reddit zie je toch wel dat mensen op oudere versies blijven.
Dat is dus precies de reden waarom Nvidia dit kan doen.
Heeft het overstappen van een 3090 naar een 4080 zin? Ik heb zelf een 3080 en de 4090 is dan juist aantrekkelijk, maar in jouw geval lijkt de winst niet heel groot.
een 4090 aantrekkelijk? Ik ben oprecht benieuwd wat voor games jij speelt (of andere toepassingen) die zoveel power (en daarmee stroom) nodig hebben dat je de extra energierekening goed kunt praten.
Qua performance is ie erg aantrekkelijk. Ik heb een G9 en dat zit toch in de buurt van 4k, met hoge settings schiet mijn 3080 toch soms wel tekort. Power draw is wel hoog ja, maar als je de power target iets verlaagd in combinatie met zonnepanelen valt het wel mee. FPS cap zou ook nog kunnen op bijv 120-160 en dan langer met de kaart doen.

Verder zou ik het leuk vinden om vaker van RT gebruik te kunnen maken, weet dat het veel mensen niet veel doet, maar ik hou wel van mooie pixels :)
Stroomverbruik is LAGER als een 3090TI dus die "600 watt stroom onzin" komt van oude fabels van prutsende leakers maar is geen realiteit. sterker nog met een 40% lagere power limit is deze kaart super zuinig voor de prestaties die hij levert.
Als hij 700 a 800 was had ik er voorin de rij gaan staan zo goed is de kaart als product. Hij is alleen ver boven mijn budget voor tech.
Dat weet ik dus nog niet. Ik zit ook een beetje met het feit dat ik aan het emigreren ben en dus misschien gewoon voor het 'gemak' kies om hier mijn 3090 te verkopen en daar een 4080 te kopen, ipv de kaart (en vele andere dingen) mee te verhuizen. Maar ik wacht eerst nog even wat benchmarks af.

Zowieso speel ik hoofdzakelijk train en truck simulator, dus DLSS enzo is voor mij niet zo van belang. Maar ik heb wel altijd graag nieuwe dingen :)
Dat laatste gevoel ken ik zeker. Als je inderdaad emigreert naar een plek waar de hardware goedkoper is snap ik het wel. Maar dan kan een 4090 ook :p Je videokaart wil je waarschijnlijk niet in je case hebben als je deze mee neemt, en qua garantie is het misschien ook wel makkelijker.
Dan kan Megekko er nog wat meer van profiteren :)
We wachten toch mooi af tot de prijzen zakken naar een eerlijke prijs. Waar mensen niet een mediaan maandloon moet uitgeven om videospellen te kunnen spelen. Als we dat met zen allen doen, dalen die prijzen vanzelf.

We hebben tijdens de wachttijd genoeg alternatieven. Cloudgaming, Xbox, Playstation, Nintendo die dus geen maandloon kosten.

Dus waarom deze walgelijke praktijken van Nvidia sponseren?
Inderdaad helemaal mee eens :)
Al ben ik van plan om een RTX 4060 aan te schaffen ;)
Zal er wel aan liggen welke prijzen deze krijgen....
Ik vermoed dat Nvidia lucht heeft gekregen van de RDNA3 performance. Als deze goed zijn kan AMD claimen dat hun kaarten beter presteren dan de 4080 serie (de minst goede 4080). Deze claim doet dan afbreuk aan de 4080 die beter presteert.
Afhankelijk van de prijsstelling zou het straks zomaar eens kunnen lonen om op zoek te gaan naar zo een kaart en een bios flash te doen. Een "bijna volwaardige 4080" voor de prijs van een 4070.. oude tijden herleven.. :+
Is het niet. Deze heeft een andere core (AD104) dan de 4080 16GB (AD103).
Die kaart is 30% sneller in tests dan deze 12GB.
Andere core, lagere geheugenbandbreedte, minder geheugen.
Dan kun je flashen wat je wilt, maar daar ga je geen 15%, laat staan 30% extra uit halen.
Vandaar "bijna volwaardige" :+
Dit kan je niet echt een 4070 noemen. Het is meer een 4060 ti
Precies dat, Dit is een xx60 level kaart qua specs. de 4080 zou eigenlijk de xx70 kaart moeten zijn en de een echte 4080 had dezelfde chip moeten gebruiken als de 4090 in een cut-down variant. Puur technisch gezien dan. De prijzen zijn bizar. ze hebben het de vorige keer gedaan met de 3090 om te kijken of er gehapt wordt en nu breiden ze die onzinnige pricing uit naar het model er onder. Nividia maakt er echt een potje van. Ik koop echt al heel erg lang Nvidia kaarten. Maar de manier zoals ze de klant proberen te misleiden en met de prijsspelletjes van de 3000 series heb ik mijn neus er wel van vol. Momenteel sta ik open voor een wissel naar AMD. Hopelijk krijgen die nu niet dezelfde fratsen nu ze er goed voor staan.

[Reactie gewijzigd door mr.babek op 22 juli 2024 16:22]

Op basis waarvan? Wat zou een 34070 dan moeten hebben?

[Reactie gewijzigd door Alxndr op 22 juli 2024 16:22]

Geheugenbus, relatieve die size / class ten opzichte van de andere varianten.
Nou, de 4080 12GB is niet "bijna een volwaardige 4080". Hij zit op ongeveer 80% van de 16GB variant: https://www.extremetech.c...080-and-dlss-3-benchmarks
Niet. Want het is geen echte 480 chip. Maw: een 480 bios ala de 48016GB gaat er nooit op werken.
Had men de 16GB RTX4080 ook niet kunnen rebranden naar een RTX4080 TI, wellicht met lichtelijk andere clocks? Dan was dit allemaal niet nodig geweest, had de 12GB RTX4080 ook kunnen bestaan en was er ook geen verwarring volgens mij...

[Reactie gewijzigd door Da_maniaC op 22 juli 2024 16:22]

Nee dan was het probleem niet verholpen maar enkel erger gemaakt, dan waren er 2 kaarten die hun naam niet waar zouden zijn ipv 1.
Hoezo zou die hun naam niet waardig zijn?
Er zit nog een groot gat qua performance specifcaties tussen de huidige 4080 16GB en de 4090. Waar Nvidia in de toekomst een 4080Ti zal plaatsen. Verder is de 4080 12GB qua specificaties minder dan de 16GB variant dat men al spreekt over dat het een 4070 zou moeten zijn. Maar de MSRP van de 4080 12GB is zo hoog dat ze het niet kunnen maken om het met de huidige prijs als een 4070 kunnen verkopen. Er is ook een verwachting dat de MSRP iets zal dalen om het enigzins nog interessant te maken als een 4070 product.

[Reactie gewijzigd door Spooner op 22 juli 2024 16:22]

..

[Reactie gewijzigd door Alxndr op 22 juli 2024 16:22]

Dat gat is zo enorm dat er een 4080 super, 4080 TI tussen kan. En misschien nog wel een 4085 serie ook.

Meestal verschillen die super en TI modellen 5 tot 15%.

Ben ook benieuwd wat ze met de full size die gaan doen. Word dat een 4090 TI en weet een Titan deze keer. Die full chip heeft potentieel tot 20% meer prestaties.

[Reactie gewijzigd door computerjunky op 22 juli 2024 16:22]

Nee, het probleem is dat de 12GB versie gewoon geen 4080 is qua specs.
Het gaat niet zozeer om het geheugen, maar vooral de andere specs die niet in lijn zijn met de 80 serie kaarten (ook de 3080!), zoals de lage bus breedte, het aantal shader units etc.

Blij dat deze basale cash grab poging door de community niet geaccepteerd is.
De videokaarten hebben 2 verschillende gpu's.

RTX 4080 16gb = AD103 GPU
RTX 4080 12gb = AD104 GPU

Histories gezien waren deze ook geclassificeerd als 2 verschillende kaarten, waarschijnlijk een 4070 en een 4080. NVIDIA zit alleen deze generatie met het probleem dat er een overvloed aan voorraad beschikbaar is van de 30 series die eerst verkocht moeten worden (oorzaak oorlog -> crisis, miners verkopen stock). Vandaar dat ze de nieuwe kaarten naast de oude generatie laten leven tot die op zijn. Pas dan zullen ze waarschijnlijk de 4050, 4060 en 4070 presenteren. Het geld strategie van NVIDIA geweest om verschillende videokaarten onder de zelfde naam te verkopen.
Oorlog als oorzaak? Lol je bent 2020 zeker vergeten 😅
Zeker niet😂, fabrikanten gebruiken het excuus van de pandemie gewoon steeds minder. Wou ook niet letterlijk alles schrijven dat ze als excuus gebruiken 😂
Nee. Het is en blijft een andere chip.
4070 !

*gasp*

En een dikke middelvinger naar de board partners. Geen wonder dat EVGA weg is gelopen.
Waarschijnlijk eerder een 4075 of 4070 Super of iets in die trend, anders moeten ze de hele lineup verschuiven.

[Reactie gewijzigd door Wolfos op 22 juli 2024 16:22]

Het aanpassen van namen is zo moeilijk niet hoor. Hoogstens wat stickers plakken en de text in bios aanpassen.
Als ze al massaal in dozen in magazijnen zitten gaat daar toch aardig wat werk in zitten, lijkt me.
Ja, maar vergeleken met de marge is het natuurlijk ook maar peanuts.
Welke marge? Boardpartners hebben niet zoveel marge.
Genoeg voor een omdoos. Maar aangezien Nvidia hier terugkomt op een eerder besluit is het sowieso niet gezegd dat die niet betaalt of i.i.g. meedeelt in het overkomelijk leed.
Dan plakken de vendors er gewoon een ander stickertje op :P 8)7
Al die dozen zullen toch open moeten om alle kaarten van nieuwe firmware te voorzien.
Zal leuk zijn voor de partners die "4080 Gaming" of wat dan ook als LED op de shroud hebben. Ook eem een sticker op?
Alleen qua marketing wat lastiger uit te leggen dat de 4040 de opvolger word van de 3050.
Er is nog ruimte voor een 4050 Ti die was er niet in de 30 serie en dan kan de 4050 blijven voor het langzaamste model. ;)
Ditto voor de 4060 en 4070 natuurlijk.
De onderste kaart drop je gewoon.

Daarmee zorg je er ook voor dat gebruikers de prijs van een 4050 betalen, voor wat feitelijk gewoon de 4040 zou zijn. Heeft Nvidia eerder gedaan met de GTX 680 dacht ik. Ze hadden genoeg voorsprong op AMD dat ze gewoon alles 1 stapje naar beneden konden schuiven (met behoud van prijs) en dan de Titan er boven zetten.

Volgens mij was dat ook waarom de 660 zo klein was. Of wellicht is mijn geheugen wat minder en was het een andere serie.
Precies, stikker er daarna afhalen en verkopen op marktplaats als een 4080!

Zo makkelijk is het helaas niet.
In vergelijking tot de 30-serie schijnt de 3080 12GB dichter bij een xx60ti te zitten dan een xx70. Maar het zal wel de 4070 worden.
Die 4080 12gb is alsnog sneller dan een 3080. De 3060ti is niet sneller dan een 2080 toch?
Ik zie een aantal benchmarks waarin de 3060Ti de 2080 verslaat. Best wel duidelijk zelfs.
De standaard 3060 zat nog wel zo'n 10%+ onder de 2080.
De 2060 daarentegen kwam echt niet in de buurt van de 1080 en kon met mazzel af en toe de 1070 evenaren.
De 1060 (6GB) daarentegen kwam wel weer in de buurt van de 980 en ging er zelfs met sommige spellen overheen (bijv VR spellen).
Qua cuda-core aantallen en prestaties is lijkt het meer op een xx60ti. Overigens niet mijn woorden maar weet dat ik de vergelijking gehoord heb bij LTT en volgens mij ook bij GamersNexus en Moore's Law is Dead.

Het voelt dus logisch om het meteen een 4070 te maken, maar ik denk dat Nvidia voorlopig de 30-serie in de lagere prijsklasses wil verkopen. Vandaag dat dit ook een 4080 moest voorstellen.
De 3060 ti zit tussen de 2080S en 2080ti in. De 3060ti was op papier een ongelooflijk sterke kaart voor het geld. 2 uur na launch was het alleen nog een sterke kaart.
Remove plix uren later dubbel post

[Reactie gewijzigd door itContinues op 22 juli 2024 16:22]

TI kan prima die wordt vaak pas veel later aangekondigd dus die zijn nog lang niet gemaakt. Al vind ik relatief gezien de 4070TI titel optimistisch met 30% lagere performance...

[Reactie gewijzigd door computerjunky op 22 juli 2024 16:22]

Nou ja, die dikke middelvanger hangt ervan af natuurlijk in hoeverre Nvidia ze compenseert.
Zoals aangehaald ze betalen de kosten voor verpakking/bios omvorming ed maar niet de gemiste inkomsten en voorraden, extra werknemers,...

Dus die board partners zal dit geld kosten.
Benieuwd wie de volgende is die stopt.
En als het op de shroud stond of ge-etst op de backplate moeten die ook nog vervangen worden
Er stopt niemand. De producten kunnen misschien wel een laag netto winst marge hebben maar 2 miljoen x 5% op een duur product als GPU's is alsnog tientallen tot 100+ miljoen.

EVGA staat echt alleen met zijn actie denk ik en heeft daarmee ook zijn halve winst weggegooid en de vraag is of ze het lang term gaan overleven.

Die 600 tot 1500 euro waar je 5% netto winst uit haalt heeft wel misschien 20 of meer % bruto winst. Daar worden dus lonen, transport, materialen, panden, energie, verzekeringen enz enz van betaald. Dat betekent dat EVGA dit nu allemaal moet gaan betalen van een veel lagere omzet. En dat gaat ze gegarandeerd problemen opleveren. De vraag us dus oom of EVGA over 3 jaar nog wel bestaat.

Daarnaast kunnen de AIB ipv 10 tot 20 sku's ook gewoon 1 sku per kaart lanceren. Dat scheelt en miljoenen. Het maken van verschillende plastic molds alleen al kost tonnen per stuk. 1 item in bulk is goedkoper als 3 a 4 verschillende.

[Reactie gewijzigd door computerjunky op 22 juli 2024 16:22]

Nouja, aan de andere kant zijn die boardmakers zelf ook schuld, ze hadden dit zelf ook al kunnen aankaarten maanden geleden voordat ze met de productie startten.
Bwa andere bios erop en je hebt een 4070(ti) een stickerrtje op de doos dat zegt dit was een 4080 12G maar nu een 4070 ti 12G :+
Maar qua prestaties is t nog niet eens een ##70Ti waardig..
Twee kaarten onder dezelfde naam uitbrengen is verwarrend.
Men heeft de RTX 4080 met 16 GB al uitgebracht. Achteraf had men misschien eerst de 12 GB versie onder die naam uit moeten brengen en de 16 GB versie een toevoeging XT of pro moeten geven.
Nee dan had het nog steeds een probleem geweest. De prestatie compleet anders en ontstaat er dus verwarring. Stel pietje ziet een review van de 16 GB variant en besloot een 4080 te kopen maar door deze vage naamgeving koopt hij de 12 gb variant.
Pietje gaat heel er boos zijn als hij erachter komt dat zijn 12 gb 30% trager is.

Je wil ook geen Porsche met een 4 cilinder kopen. Dat is niet wat je verwacht van een Porsche
Van een pro versie verwacht men dat hij technisch grote overeenkomsten heeft met de niet pro versie, maar wel beter presteert.
Nu er al een "pro" versie van de 4080 is, zonder de pro in de naam, wordt het inderdaad moeilijk om daar een beperktere versie naast te zetten. Men zou het nog kunnen proberen met een 4080-lite, maar dat is geen gangbare naamgeving bij de grafische kaarten.
Ik verwacht dat men bij de 12GB versie nog wat features beperkt en dan de kaart als 4060, 4070 of 4075 in de markt gaat zetten, Misschien zelfs wel in meer dan één variant.
Het is meer een 4060 kaart
Ik heb de video een tijd terug al gekeken en er werd aangegeven dat Nvidia de rebranding voor eigen rekening neemt, dus het is niet echt een dikke middelvinger... Wel een dunne.
prijsdaling ? Als je bepaalde webshops ziet doen zij daar niet aan mee..
Hoe kan je dat zien dan. Ze komen dus pas in januari uit volgens de geruchten.
Feit dat de rest hier duur is komt door duur betaalde inventaris die niemand meer gaat kopen en daarom zakken de prijzen van 30 serie kaarten niet.
Dat kan je niet zien maar is in de lijn van mijn verwachtingen. Sinds afgelopen 2 jaar zag ik nauwelijks prijsdalingen bij webshops.
Wat is het alternatief? De kaarten gewoon weggooien?
Nogal een open deur. Die kaarten worden niet langs de milieustraat gebracht natuurlijk… Dat kan iedereen je vertellen zonder ‘genoeg gesprekken met bronnen’ te hebben gevoerd.
We zagen dit allemaal aankomen.

Het is een trucje om de 4070 te verkopen onder een hogere prijs, onder de vermomming "we brengen de 4080 uit onder een andere naam met een lagere prijs".

Ik durf te wedden dat het adviesprijs minstens €800 wordt.
De kaart is niet echt een 4070, meer een 4060 ti
Dit geeft ze wel een probleem. Dan moeten ze een 4070, eventueel een 4070 Ti voor $800 verkopen. Dat is een flinke prijsstijging.

Het was slimmer geweest voor Nvidia als ze de 4080 16GB hadden hernoemd naar de 4080 Ti. Dan klinkt $1200 acceptabel. De 4080 12GB kan dan 4080 blijven heten. Dan lijkt het allemaal wat minder op enorme prijsstijgingen.
Dat betekent dat ze de dan de 4080 Ti nog willen lanceren onder een nog hogere prijs?
Tuurlijk, de kaarten waren al geproduceerd, verpakt en verzonden naar distributeurs. Ze gaan niet zomaar miljoenen dollars aan chips vernietigen.

Die gaan gewoon gereflasht worden, en ofwel in een nieuwe doos gestoken worden, of de huidige doos krijgt een sticker met de nieuwe naam.
wist iedereen dat ondertussen al niet? Dat nieuws zat er al aan te komen met de annulatie en Steve had het zaterdag al uitgebracht, verbaasd dat het pas zo laat is opgepikt, want hij is een van de grootste en meest betrouwbare techyoutubers die er is, waardoor het bijna ondenkbaar is dat de redactie daar nog over ingelicht moet worden.

Op dit item kan niet meer gereageerd worden.