Eerste beelden tonen GeForce RTX 4080-videokaarten van Gigabyte en MSI

Er zijn beelden opgedoken van de GeForce RTX 4080-videokaarten van Gigabyte en MSI. Uit de beelden blijkt dat MSI zes varianten van de videokaart zal uitbrengen. Hoeveel de verschillende videokaarten moeten kosten, is nog niet duidelijk.

De RTX 4080-videokaart van Gigabyte heeft het Eagle OC-label meegekregen en zal daarom te overklokken zijn. Al is het nog niet duidelijk in welke mate. De kaart krijgt een koelingsysteem met drie fans mee en heeft verder blauwe kleurendetails. Wat betreft de aansluitingen zijn er volgens de beelden die Videocardz in handen kreeg, drie Displayport 1.4-uitgangen, en een enkele HDMI 2.1-poort. De kaart neemt 3,5 uitbreidingsslots in.

MSI zal zes varianten van de GTX 4080-kaart uitbrengen: Ventus 3X, Ventus 3X OC, de Gaming Trio en Gaming X Trio en de Suprim, Suprim X. MSI heeft nog geen details gedeeld over de kloksnelheden van de videokaarten en de mate waarin de verschillende modellen te overklokken zullen zijn. Alle kaarten beschikken eveneens over drie Displayport 1.4-uitgangen, en een enkele HDMI 2.1-poort. Op basis van de informatie die op de website van MSI te vinden is, maken al deze videokaarten gebruik van de 12VHPWR-connector die volgens sommige bronnen zouden smelten. Het is niet duidelijk of de fabrikanten ook een eigen connector gaan meeleveren.

Nvidia kondigde eind september zijn nieuwe GeForce RTX 40-videokaarten aan. Deze worden gebaseerd op een nieuwe Ada Lovelace-architectuur. Het bedrijf komt met een RTX 4090 voor 1959 euro en twee RTX 4080-varianten voor respectievelijk 1099 en 1469 euro. De 4080 kwam aanvankelijk twee varianten uit, een versie met 12GB ram, een versie met 16GB ram. De versie met 12GB ram is halfweg oktober geannuleerd waardoor er enkel een variant met 16GB GDDR6X-geheugen op de markt komt. Die komt op 16 november uit voor een adviesprijs van 1469 euro.

Nvidia 4080-videokaarten van Gigabyte en MSI
Nvidia 4080-videokaarten van Gigabyte en MSINvidia 4080-videokaarten van Gigabyte en MSINvidia 4080-videokaarten van Gigabyte en MSI

Door Jay Stout

Redacteur

30-10-2022 • 11:04

150

Reacties (150)

Sorteer op:

Weergave:

maken al deze videokaarten gebruik van de 12VHPWR-connector die volgens sommige bronnen zouden smelten. Het is niet duidelijk of de fabrikanten ook een eigen connector gaan meeleveren.
het is niet de connector op de kaart, maar heel specifiek de convertor van 12VHPWR naar 4x8-pin die bij de kaarten werd geleverd die kan smelten onder bepaalde omstandigheden: side to side bending waarbij de uiterste solderpads zijn losgekomen en de kaart denkt dat ze nog altijd zijn aangesloten doordat de sideband pins nog rechtstreeks verbonden zijn met de groundpins van de kabels, terwijl hierdoor eigenlijk de S3-pin (SENSE0) onderbroken zou moeten zijn om veilig tot 450W (225W bij boot) beperkt te blijven. 1 8-pin mag vanuit de voeding max 288W leveren, dus dan blijf je binnen de specs van 2 kabels.
GamersNexus is wat dieper ingegaan op de overhaastige conclusies die eerder zijn gemaakt over de connector. Het lijkt erop alsof de problemen voorkomen met een adapter die niet volgens de spec is gemaakt. Die 'IGOR's Lab' in handen heeft gekregen en heeft open gemaakt in ieder geval. Getuige het ontbreken van de 'bus bar' type aansluiting ipv losse aders, lagere spec draden en het ontbreken van de interne trekontlasting van de connector.

Dus of deze kabels zijn van een spec voor de waarschuwing van PCI-SIG. Of deze kabels zijn überhaupt niet conform de 12VHPR spec gemaakt en dienen dus helemaal niet in de handen van gebruikers terecht te zijn gekomen. Afgaande hoe fragiel de soldeeraansluiting is neig ik zelf naar optie 2. Lijkt me vooralsnog wijsheid om een 4090 niet onbeheerd te laten staan tot je weet dat je een goeie adapter hebt, dit kan je in ieder geval deels checken door de sleeving wat los te halen en kijken of er 150V or 300V op de dikkere 12V kabels staat.

https://www.youtube.com/watch?v=EIKjZ1djp8c
Het beste is om ook volgens advies van JTC om kabels te kopen waarvan elke draad rechtstreeks de nieuwe connector ingaat, en niet dat busbar ontwerp heeft van de originele adapter.

Bijvoorbeeld onderstaande kabel van Bequiet.
https://www.techpowerup.c...d-rtx-4080-graphics-cards
Het hele idee van een bus-bar is om de problemen met de belasting op de losse ader hulzen te verlichten. Gezien de PCI connectors daar niet op berekend zijn. Jay slaat wel vaker de plank mis als het om het technische aspect gaat. Advies zou ik daarom eerder bij 'hardcore youtubers' zoeken zoals GN en der8auer. Stuk drogere stof dan JTC maar in ieder geval technisch goed onderbouwd eigen onderzoek.

Detail is wel dat het op dit moment zich lijkt te beperken op de "4x 8-pin naar 1x 12HPWR" kabels. Er zijn geen incidenten bekend met 12HPWR -> 12HPWR kabels die o.a. Seasonic en Cablemod leveren voor ATX 3.0 / PCIe 5.0 spec voedingen.

Snap alleen niet waarom ze niet met een haakse adapter zijn gekomen. De meeste problemen doen zich voor omdat de kaarten zo immense zijn en je de kabel vaak naar beneden moet drukken om de case te sluiten. Plus de kabel met de adapters eraan weegt ook wel wat. Dan komt alles onder druk te staan. Iets wat je nooit wil met kabels. Zeker niet waar zoveel wattage overheen moet.
Is die corsair kabel ook nog wel safe dan?
Gezien Corsair geen rommel maakt als het aankomt op PSU's lijkt het me van wel. Zo lang je op z'n minst de waarschuwing van de PCI-SIG maar respecteert. Dat wil zeggen, steek de stekker er goed in en druk deze helemaal aan. Zorg ook dat de kabel zo lang mogelijk evenwijdig aan de stekker blijft lopen, minimaal 35mm gemeten vanaf de start van de kabel (dus niet de connector). Zowel horizontaal als verticaal is dit van toepassing. Als het geen haakse connector is kan dit dus betekenen dat je side panel niet dicht kan.
Deze lijkt reeds in de (nog ongesorteerde items) pricewatch the staan voor 24-30 euro momenteel.
Op de prijs van een 40series kaart lijkt mij dat een no-brainer. Wellicht dat er bij
de nieuwe highend voedingen deze standaard meegeleverd gaan worden(?).
unsorted: be quiet! 12VHPWR PCIe Adapter Cable
ik had net na m'n reply dezelfde video gezien en ben op zoek gegaan of zulke kabels effectief gespecced zijn op 150V of 300V en ondanks lang zoeken (pci-sig zit achter een inlog, dus kon ik niet lezen) heb ik quasi alleen 300V kabels gevonden, dus het kan er wel iets mee te maken hebben, ondanks dat er natuurlijk maar max 12V door gaat en er geen stroomrating op staat. Je kan wel 300V 80° 18AWG vinden op ali, maar dat zijn duidelijk niet de kabels die bij deze kaarten geleverd zijn

[Reactie gewijzigd door dasiro op 25 juli 2024 20:33]

Het is ook meer een indicatie waarbij het op dit moment de snelste actie lijkt om verschil tussen de 'gevaarlijke' (150V) of de 'goede' (300V) kabels te identificeren. Gezien er nog veel onduidelijk is lijkt me voorzichtigheid zowel in conclusies als in gebruik raadzaam.

Zonder te weten wat voor type draad (koper, gecoat koper of aluminum) het betreft zegt de rating niet zo bar veel. Over het algemeen is de Voltage indicatie meer gericht op de temperatuur welke de isolatie kan hebben en een hele ruime indicatie voor de kwaliteit van de kabel. Gezien je buiten de spanning (Volt) natuurlijk ook rekening met stroom (Ampere) moet houden is het niet zo zwart-wit.
Die rating 150V of 300V zegt gewoon iets over de spanning waarbij je de draad veilig kan gebruiken en is gerelateerd aan de doorslagspanning die natuurlijk een stuk hoger ligt. Bij 12V zijn beide goed.
Het laat je gewoon nu op een niet destructieve manier nakijken welke connector je hebt.
Dus ik sluit me aan bij je eerste conclusie, maar niet 'gevaarlijke' of 'goede' kabels, maar wel gevaarlijke of slechte 'connector' (aparte soldeereilanden of gemeenschappelijke).
Voorlopig gaan we er vanuit dat er bij NVidia 2 versies bestaan of dit zo is zal later blijken.

[Reactie gewijzigd door redzebrax op 25 juli 2024 20:33]

Het probleem hoeft niet specifiek 1 probleem te zijn. Er gaat 40 ampere door de connector als de kaart vol draait. Als die 40 ampere ergens niet goed verdeeld is doordat de connector scheef zit of er een slechte verbinding zit door het knikken, gebruik van te lichte pinnen etc. dan onstaat er een hogere weerstand op dat punt.

Het vermogen wat die weerstand opbrengt is enorm, want P (Watt) = R (Ohm) * I (Ampere) ^ 2. Dus 0.1 Ohm weerstand in de connector is 160Watt aan vermogen over dat punt. Ik was er dan ook meer voor geweest om een connector te hebben die je goed vastschroeft. Twee dikke kabels van de voeding naar de kaart zou ook veel beter zijn. Kijk gewoon naar de auto-industrie, die hebben al decenia ervaring met deze hoeveelheid Ampere's op 12 Volt.

edit:
Overigens zou 0.1Ohm ook een 4V lagere spanning opleveren voor de kaart. Het is ook aan de kaart om dit goed te monitoren en een probleem te melden als de spanning omlaag gaat bij belasting. Dat kan al een hoop problemen voorkomen.

[Reactie gewijzigd door PuzzleSolver op 25 juli 2024 20:33]

Zoals je zelf al zegt: de spanning over de kaart zou dan met 4 V kelderen. Dat betekent dat de kaart uitvalt, dat is ver buiten specs.

Je redenering over die 160W klopt simpelweg niet; je neemt aan dat de PSU een constante stroom levert (40A) ongeacht de weerstand. Het is echter een constante spanning, niet een constante stroom.

Zou je uitgaan van 0.01 Ohm, dan klopt je verhaal een stuk beter. De kaart zal bij 11.6V waarschijnlijk blijven werken, en nog steeds ongeveer 40A trekken. Dan heb je een spanningsval van 0.4 V over je kabel, en dat produceert dan 0.4V * 40A = 16W. Je PSU heeft daar geen probleem mee, je kabel wel.
Ergens hoop ik dat het niet nodig is, we zijn van energie slurpers naar zuinig naar extreme slurpers gegaan in een aantal jaar tijd. Toen men kaarten met 3x 8-pins is gaan voorzien had de tijd rijp moeten zijn om dat hele PCIe connector concept te stoppen.

Het grote nadeel is dat over het algemeen enkel mensen met wat meer kennis of een doel aan de elektra van auto's zitten. In principe kom je als gebruiker daar nooit. In dit geval is dat natuurlijk heel anders dat buiten pre-builts om moet je zelf de boel aansluiten. Dus een concept zoals accupolen is qua elektra verreweg superieur maar qua veiligheid en "retard proof" natuurlijk niet zo handig als een 8-pin connector die maar op 1 manier aan te sluiten valt.

Snap alleen niet waarom ze blijven vasthouden op die slechte verbindingen van de PCIe connector. Als ze beginnen door die flink te vergroten heb je er minder nodig omdat je dikkere draden kan aansluiten en heb je minder snel problemen met de weerstand zoals je aanhaalt. Molex heeft hier zelf al een veel sterkere kabel voor in de vorm van de 'MultiCat' series. Kan er maar op 1 manier in, zijn ronde connectoren (evenwijdige belasting) en is geen fragiel poppenspul.
Inerdaad gewoon betere connectoren en betere positionering. Ik zie net een plaatje van zo'n gemolten stekker, alle gemolten pinnen aan 1 kant van de aansluiting, duidelijk dat die er niet goed in heeft gezeten.

Het is inderdaad een consumenten product en handig dat het een no-brainer is met aansluiten, maar met dit soort amperages loopt het risico gewoon erg op. Het is ook niet voor niets dat er apparte stekkers zijn voor krachtstroom waar dit soor amperages ook spelen (maar dan ook nog met een veel hoger voltage). Voor de vergelijking, een normaal ge-aard stopcontact gaat niet verder dan 16 Ampere. Het zijn de Ampere's die dingen doe smelten (maar hoge voltage's veroorzaken meer vonken bij slecht contact).

Tijd voor de industrie om hier gewoon goed aandacht aan te geven, een aantal branden door dit soort zaken en ze worden geforceerd door regelgeving om dit aan te passen (en in america natuurlijk ook ge-sued). Beter om dat soort elende voor te zijn ipv minder dan 1 euro te besparen op een connector.
Niet 1 adapter,maar alle adapters,van welke fabrikant dan ook voldien niet aan de officiele eisen.
Dat heb ik begrepen door het bekijken van meerdere filmpjes,ook die van gn.

[Reactie gewijzigd door nutty op 25 juli 2024 20:33]

Een bijkomende vraag is waarom er verschillende versies van de convertor op de markt zijn. Gamers Nexus beschrijft dit in zijn video van een uur geleden.

Eén van de verschillen is dat zijn versies (5 stuks) van de convertor gebruik maken van bedrading met een specificatie van 300V voor de 12V/GND-aansluitingen. Terwijl Igor's Lab over een versie beschikt met een specificatie van 140V. Gamer Nexus was bovendien in staat om de kabels bloot te leggen zonder de verbindingen te beschadigen. Volgens Igor's Lab was dit niet mogelijk met zijn versie. Nvidia wil hier volgens Gamer Nexus nog geen commentaar op geven.
Voor mij is het iig geen probleem wat voor een stekker er dan ook op zit of gebruikt wordt, want ik koop zeker geen kaart voor dit bedrag, dan maar geen nieuwe AAA-titels spellen, en blijf ik mijn 1080Ti wel nog wat langer gebruiken, of AMD moet wel met een redelijke prijs/prestatie verhouding wat aan bieden.

Ik ben er iig helemaal klaar mee en speel het spelletje iig niet meer met ze mee, vond de originele €700 voor de 3080 al veel geld, ruime het dubbele is gewoon uitgesloten, dan ga ik nog liever Klaverjassen of Pasjansen, voor dat geld kan ik echt een hele leuke tropische vakantie hebben met mijn meisje. |:(
Daar naast, als ik €1469 voor een videokaart zou uitgeven, slaap ik zeker 2 weken op de bank. :+
Altijd leuk die marketing om de beste kaarten eerst te lanceren, en ik kan me er ook heerlijk aan vergapen, maar heeft iemand hier een idee over de uiteindelijke verhouding van het aantal high-end, midrange en budgetkaarten qua verkoopcijfers?

Tuurlijk zitten we hier op tweakers, maar het aantal mensen wat ik hoor over het aanschaffen van kaarten van vele honderden en nu zelfs regelmatig meer dan 1000 euro (of het dubbele)... Zoveel mensen kunnen en willen dit toch helemaal niet betalen?

Ik bedoel, het is alsof je naar de presentatie van de nieuwste Audi of BMW kijkt, maar ondertussen zijn de straten gevuld met Skoda's, Dacia's en 10+ jaar oude auto's waarmee mensen zonder problemen mee naar werk/de winkel/vakantie gaan.

Ik zie mezelf als enthousiast, maar het xx60(Ti) segment wordt mij al bijna te duur. Ben ik nu zo arm/zuinig of is het inderdaad allemaal "kijk mij nou" en marketing en koopt slechts 1% van de mensen een xx90 of zelfs xx80 model?
Ik ben zelf ook best wel een pc enthousiast maar eigenlijk sinds die prijsverhogingen tijdens en na de Coronapandemie ging mijn enthousiasme behoorlijk bergafwaarts. Vooral qua videokaarten kon ik mij ook niet voorstellen dat mensen soms duizenden Euro gingen neertellen. Ook nu verbaasd het mij echt dat Nvidia vooral die peperdure kaarten op de voorgrond zet.

Daarbij speelt voor mij ook nog iets anders mee namelijk hoe Nvidia ook dat hoge verbruik nog in deze tijd kan verantwoorden. Je zou toch zeggen dat de uitdaging er net ligt om met zo'n laag mogelijk verbruik zo hoog mogelijke prestaties te halen. Ook naar de consument toe gezien en de toch al hoge energieprijzen vind ik dit soort ontwikkelingen eigenlijk een beetje onverklaarbaar. Het is dan niet alleen die hoge aanschafprijs maar je kan dan bijna een 2de hypotheek erbij nemen voor het energieverbruik.

Wie weet, misschien dat Nvidia aandelen heeft bij energieleveranciers........
De 4090 is behoorlijk efficienter dan de vorige generatie, maar je moet hem dan niet op fabrieksinstellingen gebruiken.
De 4090 is behoorlijk efficienter dan de vorige generatie
Ik geloof best wel dat als je prestatie naast verbruik zet dat die 4090 dan puur qua getallen efficiënter is dan de vorige generatie. Daarbij kan je natuurlijk vraagtekens plaatsen of de vorige generatie wel een goede graadmeter is. Maar waar ik het meeste naar kijk is wat die 4090 uiteindelijk in de praktijk verbruikt en tja, nee dat vind ik vooral in deze tijd eigenlijk niet kunnen.

Tuurlijk kan je zo'n 4090 dan op allerlei manieren undervolten en ik weet niet wat allemaal, maar dan kan je ook net zo goed een veel zuinigere kaart pakken. Ik zou veel enthousiaster ervan kunnen worden wanneer men eens kwam met een videokaart die heel zuinig is en alle andere videokaarten voorbij schiet qua prestaties.
Prachtig. Je hebt echter nog steeds een dikkere voeding nodig. Vaak ook een beter moederbord, rap geheugen , dikke koeling en een vettere kast. De kosten lopen dan ook rap op
der8auer (en anderen) hebben er meerdere onderzoeken op losgelaten, als je zijn 'power target' instelt op bijvoorbeeld 50%, dan werkt de 4090 erg efficient (0,42 Watt per fps; een 3090 Ti zou een 0.15 Watt per fps hebben).

Linus heeft hem op een 550 Watt voeding gehad zo uit mijn hoofd.

En dan kan je hem ook nog eens undervolten (hier en daar wel wat wisselende resultaten).

Maar met de huidige prijzen [van de videokaarten] duurt het wel even voordat je dat hebt terugverdient, alhoewel met de huidige prijzen [van de energiemarkt] gaat dat een stuk sneller dan wij zouden wensen.
Natuurlijk, iedereen gaat massaal undervolten 🙄
Jij bent normaal.

Aan de andere kant, door de megawinsten op deze kaarten gaat de ontwikkeling wel hard. Zelfs Intel is ingestapt.
Historisch gezien zijn computers nog steeds erg goed betaalbaar. En je krijgt steeds meer waar voor je geld. 1000 of 2000 euro is een hoop geld maar het is voor veel mensen echt niet onbetaalbaar. Kijk wat veel mensen aan andere hobbies uitgeven en het stelt niet zoveel voor.
Daar gaat het niet om. Die kaarten zijn niet meer dan 400-500 euro waard.
Wat je ze waard vindt is natuurlijk per persoon verschillend.
Wat ze kosten aan materiaal om te maken zal inderdaad een stuk minder zijn dan wat ze kosten voor consumenten maar daar komt ook nog R&D bij en weet ik wat voor andere kosten dus echt goed te bepalen is dat niet.

[Reactie gewijzigd door Kalder op 25 juli 2024 20:33]

Je kan altijd naar de steam hardware survey kijken. Die bron is natuurlijk niet al omvattend. Ten eerste betreft het alleen steam gebruikers, en ten tweede alleen mensen die steam toestemming geven om hun systeem uit te lezen, maar een redelijke indicatie is het wel.

Als je dan de survey van september er bij pakt, zie je dat de eerste xx80 kaart pas op plek 16 in de chart staat. In de top 15 staan 2 xx70 kaarten(de 1070 en 3070) en verder alleen maar xx50 en xx60 series.

Als ik zo naar de lijst kijk zie ik in de top 30 ook maar een stuk of 4 xx80 modellen staan, de rest zijn allemaal goedkopere series. En pas daaronder komt het eerste xx90 model naar voren.
Je kan een goede inschatting maken op Steam voor verspreiding van GPU's voor games via de hardware survey.

De 1060 is nog steeds de meest voorkomende op 6.7%, dan de 1650 op 6.1%, 2060 op 5%, 1050 ti op 4.7%, 3060 Laptop op 3.8%, 3060 op 3.4%. Dan ga je al snel richting 2% of minder.

3090, 2080 en 2080ti zitten op 0.5% en de 1080 en 1080ti op ong 1%.

Als je dus een beetje kijkt naar de 2000 serie toen alles nog "normaal" was als in voordat Corona de boel een beetje vernielde zit het totale marktaandeel van de 2000 series nu op ongeveer 10.5% van het totaal aantal waarvan 6% de 2060 varianten. 2.8% 2070 varianten en 1.5% 2080 varianten.

Dus globaal gezien van elke 10 kaarten die Nvidia verkoopt voor desktop gaming zijn er ongeveer 6 de goedkoopste en 3 de midrange. En 1 van de highend.

[Reactie gewijzigd door SideShow118 op 25 juli 2024 20:33]

LOL, die Steam survey had ik natuurlijk zelf moeten kunnen bedenken |:(
Dus globaal gezien van elke 10 kaarten die Nvidia verkoopt voor desktop gaming zijn er ongeveer 6 de goedkoopste en 3 de midrange. En 1 van de highend.
maar dit dus, thanks!
Haha ja die brainfarts ken ik.

Wat wel interessant is:
De 2060 founders was $350
De 2070 founders was $600
De 2080 founders was $800

Dus totaal omzet voor 10 kaarten is 6x350, 3x600 en 1x 800 = $4700

Nu weten we natuurlijk niet marges maar 10% van de verkoop is levert 17% van de omzet op. (800/4700). 38% midrange omzet op 30% van de verkoop en 44% van de omzet op 60% van de verkoop.

Het lijkt mij aannemelijk dat Nvidia het meest blij is als het aandeel midrange kaarten groot is.

Maar hoe dat zit met 3070 vs 3080 erbij is dan weer lastiger omdat de verschillen zo groot waren daar. $1500 voor een 3090 vs $700 voor een 3080. Debiel verschil imo

[Reactie gewijzigd door SideShow118 op 25 juli 2024 20:33]

De 4080 zou niet meer dan 1000 euro mogen kosten, vergelijk je het met de vorige reeksen. Alleen, na de laatste vette jaren wil de Ceo van Nvidia diezelfde marges binnenschrapen Helaas zien we nu deze absurde prijzen en ook de midrange gaat hier last van krijgen. Tenzei er een concurrent is die dit weer in balans brengt, aka Nvidia dwingt om de prijzen te laten zakken.
Het nadeel van proberen te redeneren over marges is dat je de R&D kosten moet omslaan. En dat is nogal arbitrair. Leg je die helemaal bij de 2080? Tenslotte was de 2070 niet echt nodig, NVidia had in die performance categorie al de 1080Ti. Maar dankzij de R&D investering kon de 2070 goedkoper worden dan de 1080TI.
Fabrikanten brengen altijd als eerste het top segment uit, omdat dit voor hun het hoogste rendement oplevert en uiteraard de naamsbekendheid / reclame.
Als ze aankomen met een xx50 range, zullen niet veel mensen geinterresseerd zijn in het artikel.
Slechts een kwestie van tijd voordat de xx70/60/50 uitkomt.
jij bent normaal hoor, ik had tijdje terug een pc gebouwd oa voor gaming en foto's verwerken maar de videokaarten waren schaars / relatief duur .. Het is alleen maar erger geworden en slaat helemaal nergens meer op.

De video kaart is duurder dan een gemiddeld goede pc bij elkaar, neemt meer sloten in beslag dan waar het oorspronkelijk voor bedoeld is, creëert meer warmte en verbruikt gigantisch meer stroom en het zal er allemaal wat mooier uit zien maar is wel een overkill omdat je toch niet alles in detail kan bekijken als je gamed.

Voor mij hou ik het wel op office, wat browsen , foto's corrigeren en that is it , Bij met mijn ps5 ... net zoveel spelplezier en een stuk goedkoper

het patser niveau ben ik allang voorbij maar het is niet normaal dat je een videokaart koopt van 2000 euro of meer als jong iemand... zeker niet in deze tijd van energie crisis en andere zaken die spelen als volwassene ... en als jongere beseffen vaak niet dat er meer is op aarde dan patserig doen.

Ze (videokaart makers ) schieten hun doel voorbij met de energie behoefte en grafische mogelijkheden
Ik wilde een 3060ti kopen om mijn 970ti uit 2014 te vervangen, maar tot op heden heb ik afgehouden door de prijzen. En ik game toch een aantal uren per week, maar toch vind ik het niet waard. Ik moet toegeven dat ik mezelf stilletjes aan toch aan het overtuigen ben dat, met inflatie e.a., vandaag de dag een midrange kaart meer dan 500€ kost. Ergens hoop ik dat de laatste midrange 30-reeks kaarten aan 'normale' prijzen worden verkocht wanneer de 40 reeks kaarten goed verkrijgbaar zijn.. zullen zien
Ik geloof dat ik voor m'n 1060 6GB rond de 400 betaald heb (in Malta is electronica duur), dat was ook m'n budget toen ik in juli 2020 een nieuwe PC bouwde.. Maarja, de gok gemaakt om te wachten op de aanstaande release van de nieuwe generaties en toen begon alle ellende.

Heb uiteindelijk toen de ellende over z'n piek heen was begin dit jaar 700 voor een 3060Ti betaald, 200 meer dan de huidige prijzen, maar toch nog steeds geen spijt van. Ik kan in ieder geval weer een jaar 3 of 4 vooruit en zal wel zien wat een 6060 tegen die tijd kost (of het equivalent van team rood of blauw).
Ik zie mezelf als enthousiast, maar het xx60(Ti) segment wordt mij al bijna te duur.
"Bijna"?

Wat mij persoonlijk veel meer interesseert met de komende video kaarten kaarten is dat, eindelijk, de nieuwste generatie spelcomputer (theoretisch) geëvenaard gaat worden op of onder de psychologisch belangrijke €300 grens. Sterker nog, voor de meer dan 70% van de steam gebruikers op of onder de 1080p gaat de lagere middenklasse van €150-€200 zelfs afdoende zijn voor een vergelijkbare ervaring met de kruis-platform spellen die primair op die eerder genoemde consoles gemikt worden.

Marktsegmenten waarin nvidia's nieuwere generaties op dit moment gewoon niet opereren.

[Reactie gewijzigd door Verwijderd op 25 juli 2024 20:33]

Wat apart dat zowel de 3080 (al) en de 1080 (nog) twee keer zoveel worden gebruikt als de 2080.
1469euro! WTF
Ik hoop dat AMD gehakt gaat maken van deze 4000series, hopelijk word Intel de komende jaren ook een gezonde concurent want deze prijzen zijn echt bizar.
Als dat zo is worden die ook "gewoon" 1400 euro.

Het lijkt me allemaal een kwestie van gewenning. 10 jaar geleden kostte een high-end kaart 500-600 euro. Dat was toen voor een paar mensen weggelegd. Nu is dat de standaard.
Nou is het nut van die high-end kaarten ook steeds meer beperkt. De midrange kaarten van ~€300 halen bij vrijwel iedere game al wel 60FPS, terwijl een GTX 560 van 10 jaar terug dat meestal net niet haalde.
Je had toen ook geen variabele refresh rate, waardoor 50FPS echt geen doen was.
144fps is de standaard bij games en niet 60fps meer.
Zelfs mijn GTX1080 haalt wel 60fps in games.

[Reactie gewijzigd door mr_evil08 op 25 juli 2024 20:33]

Bij Counter Strike misschien, maar de meeste games zijn niet ontworpen voor 144FPS. Als je hogere eisen hebt dan is het niet gek dat je meer gaat betalen.
Nee hoor 144fps is bij de meeste games de norm geworden.
Dat is bij gamers de norm geworden.
Bij gamers die per se hoge fps willen want competitief of zo... to be fair, persoonlijk ga ik resolutie > fps, maar ik speel dan ook niets competitiefs waar die FPS me wellicht een voordeel kunnen opleveren.
Heb je daar statistieken van? De grootste markt is console. Daar is 60 de norm, en dat is ook waar de meeste games voor geoptimaliseerd worden.

Volgens mij zijn er zeer weinig nieuwe games die een constante 144 halen op mainstream hardware.
Valt wel mee, als je op 1080p gamed wat veel nog doen is die 144fps makkelijk haalbaar.
Wat een kolder, omdat jij dat graag wil wil nog niet zeggen dat dat ook standaard is, zeker op 4k ga je maar in enkele (oudere) games halen (native met alles aan).
Mijn 3080Ti doet het echt belabberd slecht in Microsoft Flight Simulator met VR. Het is wat lastig de FPS te meten maar het beeld is heel erg schokkerig en ik moet de details op laag zetten.

Dus als je VR gamed is er nog veel verbetering mogelijk ook met normale framerates. Helaas.
VR is dan ook een techniek die pas in om de hoek komt kijken en zoals altijd zijn de 1e paar generatie,s nog niet zo best.
Ja maar het is vooral de rauwe kracht die ontbreekt momenteel. Een betere GPU gaat veel helpen. Het is gewoon veel zwaarder om het beeld 2x te renderen en met een korte latency.
Schrokken betekent dat je gpu throttled. Undervolt en een iets lagere oc lost dit probleem vaajk op. Beter 120 fps vloeiend dan 160 fps met schrokken
Nou met schokken bedoel ik meer dat ik de frames zie als ik naar de grond kijk. Bij VR heb je een techniek ASW: asynchronous space warp waarbij hij frames gaat verplaatsen in plaats van nieuw tekenen.

De precieze FPS weet ik niet want ik heb geen FPS counter gevonden die werkt met msfs op Oculus.
ACM Software Architect @Wolfos30 oktober 2022 12:38
bij vrijwel iedere game al wel 60FPS
Tenzij je een 4K-scherm hebt... Dan is het zelfs met de high-end kaarten uit de 30x-generatie soms nog krap zonder offers op beeldkwaliteit te doen.

[Reactie gewijzigd door ACM op 25 juli 2024 20:33]

4K is ook alles behalve standaard te noemen en is pas om de hoek gaan kijken.
Met 1080 of 1440p is het geen probleem wat nu nog de norm is.

[Reactie gewijzigd door mr_evil08 op 25 juli 2024 20:33]

ACM Software Architect @mr_evil0831 oktober 2022 08:09
Uiteraard, maar voor de doelgroep van deze kaarten zal het wellicht wat meer relevant zijn. Mijn punt was vooral om te illustreren dat het van de beoogde use-case afhangt of deze kaarten 'net voldoende' of 'zwaar overkill' zijn.
De overgang naar 4K spreekt dat weer tegen. Daar zit wel echt een enorme toename in de benodigde rekenkracht. Mijn GTX 1060 6GB deed z'n werk nog verbazend goed op 1080p de afgelopen ~5 jaar, maar laat het nu hard afweten op 4K. Zelfs met niet heel zware games, op medium settings, haal ik 4K60 niet. DLSS zou helpen, maar dat wordt pas ondersteund vanaf de RTX 20-serie. Andere upscale-technieken zoals FSR kunnen hier en daar een beetje helpen maar dat is het dan ook. Zou ik The Witcher 3 of Cyberpunk 2077 willen spelen op hoge instellingen en 4K60, laat staan 4K120, dan is een hoog gepositioneerde kaart wel echt van nut.

Dus zo nutteloos zijn de dikkere kaarten niet wat mij betreft. Ik zou nu eigenlijk eerder geneigd zijn naar een relatief hoog geplaatste kaart dan voorheen, bijvoorbeeld een xx70 of xx80 als het om Nvidia-nummering gaat, waar ik eerder met xx60 tevreden was op 1080p. Maar de prijzen van generatie op generatie zijn flink sneller gestegen dan de inflatie (die recent op zich al niet mals is). Kijkend naar de 970, 1070, 2070, 3070 en speculatief de 4070 (prijs nog onbekend), dan is het geen fijne tijd voor gamers.

[Reactie gewijzigd door geert1 op 25 juli 2024 20:33]

Maar die overgang is er niet echt in PC land, juist omdat het zo enorm veel performance kost. Ook zijn die monitors een stuk duurder dan de 1680x1050 die 10 jaar geleden de norm was.

Je kunt echt een stuk beter gamen met de kaarten van nu dan met de kaarten van toen. 1080p is er ook niet slechter uit gaan zien, en 2K is best te doen met een 3060.
Nou ja, "die overgang is er niet echt" lijkt me wel erg sterk uitgedrukt. Uiteraard is de benodigde hardware beperkt als je jezelf beperkt tot 1080p of 1440p. En ja, dan kun je prima plezier hebben. Maar 4K wordt steeds meer normaal.

Er zijn flink wat monitoren met 4K en in tv-land is dat zelfs het enige dat er verkrijgbaar is. Al jaren zelfs. Ik doe m'n pc-gaming vanaf de luie stoel met een 4K LG OLED; prachtige ervaring. Streaming video is vaak in 4K en ook consolegames gaan steeds vaker standaard naar 4K en steeds vaker in combinatie met 60 fps. Soms wel met checkerboard rendering of andere upscaling. Alles is in beweging richting 4K, al heel wat jaren. Games zijn uiteraard enorm veel zwaarder dan een videostream of werken in Windows, maar er is zeker een grote groep pc-gamers die in 4K speelt of wil spelen. Ik vind dat niet meer zo'n exotisch doel dat de GPU ervoor €1500+ zou mogen kosten. 4K zou in pc-gaming nog wat meer de standaard mogen zijn inmiddels, want deze resolutie bestaat alweer vele jaren.

De prijzen van GPU's zijn met het oog hierop wel echt bizar hoog. Voor €500 heb je een PS5 met de performance van een AMD 6800 / AMD 6800XT, en zowat alles is dan in 4K. Die kaarten zijn voor de pc duurder dan de hele PS5! Dan kunnen we niet stellen dat er niet iets faliekant verkeerd gaat met de prijsbepaling van GPU's in recente jaren. Corona en crypto hebben de markt gek gemaakt en dit kost liefhebbers onnodig veel geld.

We kunnen altijd wel concluderen dat de koper gewoon minder moet verwachten of de broeksriem moet aantrekken. Daarmee beknibbelen we echter vooral onszelf.

[Reactie gewijzigd door geert1 op 25 juli 2024 20:33]

Er is een langzame overgang naar 2K, maar het meerendeel van de gamers gebruikt een 1080p scherm.
Zie:
https://store.steampowered.com/hwsurvey/

De ontwikkeling is er wel, maar hij gaat nou eenmaal niet zo snel als dat sommigen willen. Je kunt nu prima met een midrange kaart op 2k gamen, waar je drie generaties terug nog een 980Ti voor nodig had van €800.
Er zit natuurlijk wel een natuurlijke grens aan dit proces. Op een gegeven moment kan 99% van de markt de prijzen gewoon niet meer opbrengen (of is de business case weg in het geval van professioneel gebruik).

[Reactie gewijzigd door ytsmapieter op 25 juli 2024 20:33]

Hou er rekening mee dat de euro zijn waarde nogal heeft zien verdampen de afgelopen maanden.
Kan best zijn dat de kaart "goedkoper" is in andere markten.
Er is natuurlijk ook sprake van inflatie. Het gemiddelde inkomen is ook fors hoger dan 15 jaar geleden. (al is dat procentueel vermoedelijk wel minder dan de prijsstijging gok ik)

[Reactie gewijzigd door DLSS op 25 juli 2024 20:33]

500-600 euro de standaard is bepaald niet waard, maar zo willen die marketing teams het natuurlijk wel proberen neer te zetten. Echter Steam laat een heel ander beeld zien, daar zijn jarenoude videokaarten van een paar honderd euro de norm, niet 500-600 euro. Van de 4 types met per stuk de grote marktaandelen, zitten er drie duidelijk onder in prijs, enkel de RTX 2060 komt nog een beetje richting de € 500, maar was ook al genoeg rond € 400 te vinden destijds, en vandaag de dag zelfs rond de € 300 nieuw verkrijgbaar. Die 2060 bouwt daarmee nog wel wat verder marktaandeel op en is in de volledige lifecycle bezien zeker met de feestdagen in aantocht, gemiddeld steeds verder onder de 500-600 euro range.
uitvoering: ASUS Dual GeForce RTX 2060 EVO OC Edition 6GB

https://store.steampowered.com/hwsurvey/videocard/
NVIDIA GeForce GTX 1060
7.17%

NVIDIA GeForce GTX 1650
6.45%

NVIDIA GeForce RTX 2060
5.08%

NVIDIA GeForce GTX 1050 Ti
5.62%

Na deze vier duikt het lijstje verder meteen al naar kaarten met nog geen 3% marktaandeel per chip type bij Steam, waar ook nog genoeg in de x50, x60 en oude x70 te vinden is, voor de echte topmoddellen in beeld komen. 3080 is 1,5% en 3090 0,5% ondanks hoe lang die al op de markt zijn en een 3080 ook nog momenten onder de duizend euro gekend heeft, en zelfs die is een niche in de markt te noemen met zo een laag percentage marktaandeel en slechts een paar SKU's in die performance range in de lijst, terwijl veel andere kaarten meer bij elkaar in de buurt zitten, zeker rondom het mainstream segment van rond een paar honderd euro zijn heel veel SKU's van soms maar een paar tientjes prijsverschil.

Net als dat nieuwe iPhones boven de duizend euro kostten, maar ondertussen heel veel mensen een 2e en 3e hands iPhone kopen en gebruiken, voor prijzen die dan veel lager liggen. Uiteraard moet je genoeg kopers vooraan hebben om zoiets vol te houden, maar als zeg eens slechts 40% van je ecosysteem nieuw koopt en die spullen lang genoeg mee gaan in alle opzichten, dan kun je heel leuk een veel groter ecosysteem draaien dan je eigenlijk zou denken. Die overige 60% hoeft dan die torenhoge prijzen ook niet te (kunnen) betalen.
Die steam survey geeft sowieso een vertekend beeld want vrijwel elke pc heeft ook een IGP erbij die niet gebruikt wordt maar wel mee wordt getelt in de survey zodoende is het percentage dGPU,s veel lager.
Als dat zo is worden die ook "gewoon" 1400 euro.

Het lijkt me allemaal een kwestie van gewenning. 10 jaar geleden kostte een high-end kaart 500-600 euro. Dat was toen voor een paar mensen weggelegd. Nu is dat de standaard.
m'n totale PC koste toen minder dan 2000€ inclusief GPU van 400€.
Nu kost het nog steeds 1400 voor "de rest"&(, enkel nog eens 1400 voor de GPU.
Dat is er totaal niet meer in verhouding
Waarom zou AMD dat doen? Omdat AMD de underdog is (of iig de kleinere partij), en genoeg mensen liever een Nvidia kiezen voor verschillende redenen, zal AMD een ~10% onder Nvidias prijs gaan zitten voor dezelfde ruwe performance. AMD heeft nul interesse om een prijzenoorlog met Nvidia te gaan beginnen.
ik zie hoe ze met AI bezig zijn bij NVidia en Google maar van AMD zie ik niet zoveel langskomen. Misschien omdat ik een NVidia kaart heb en daar op focus.

Zelf zou ik wel een 4080 met 24G VRAM willen. (Die komt er niet) Ik zit te azen op een 3090 24G of toch een 4090. (2080ti nu) Bij een 4090 wil ik wel zo'n slimme nieuwe voeding. Keuzes keuzes ;)
Het helpt ook niet voor AMD dat CUDA koning is voor AI taken en compute in het algemeen :/
Nouja, 3090(-ti)'s kun je nu voor 'dumpprijzen' krijgen, zag ze 'al' voor 1200.
Ik hoop dat AMD gehakt gaat maken van deze 4000series
Op grond van wat we nu weten is er een redelijke kans dat de Radeon 7000-serie een stuk aantrekkelijker kan worden dan de 4000-serie van NVIDIA.

RDNA3 is net als de Ryzen processors een chiplet design, dat betekent op zijn minst hogere yields voor het productieproces. En dat vertaalt zich in een netto lagere kostprijs voor AMD. Dat maakt het makkelijker om op prijs te kunnen concurreren. Ook al zullen ze niet ver onder de prijzen van NVIDIA gaan zitten is de kans groot dat de consument wel beter af gaat zijn.

Als de beweringen rondom efficientie en power draw waar blijken te zijn (en dat moeten reviews eerst uitwijzen), dan zou deze generatie nog wel eens een no-brainer kunnen zijn voor iedereen die niet strikt afhakelijk is van NVIDIA's CUDA/OptiX/etc.

Ik ben heel benieuwd wat we zometeen voor dynamiek gaan krijgen.
Tja, het is vrij simpel: als de vraag er is dan volgt het aanbod die vraag. Zolang mensen deze producten voldoende blijven aanschaffen zal die prijs hoog blijven. Ik betwist echter of het een groot verkoopsucces wordt. Met ethereum dat naar PoS is gegaan verwacht ik toch een dermate lagere vraag naar zulke dure videokaarten. Vroeger kun je de aanschafprijs van je kaart nog terugverdienen door je kaart in te zetten voor mining, iets wat een stuk minder voor de hand ligt nu. De prestaties van de 4090 mogen er echter wel wezen ter vergelijking van die van de 3090. De echte liefhebbers zullen deze high-end kaarten mss nog wel blijven kopen.

Ik blijf ook van mening dat oudere hardware nogsteeds een goed alternatief is. Zowel voor de portemonnee alsmede duurzaamheid. Ik heb zelf een 2e hands GTX 780 op de kop getikt tijdens de corona gekte voor mn nieuwe PC (€90). Maar die €300-350 kostende 3070 begint nu wel redelijk interressant te worden voor mij.
Bij AMD mis ik de continuïteit in het uitbrengen van videokaarten, terwijl Nvidia redelijk voorspelbaar is wanneer de nieuwe serie uitkomt.
Eind deze maand begin volgende maand kun je de 7000 reeks van Amd kopen.

Edit: ik had begrepen eind november

[Reactie gewijzigd door Damic op 25 juli 2024 20:33]

Morgen op zijn vroegst dus!
Ja sorry ik was al in November aan't denken.
Ik hoop vooral dat AMD een keer kan gaan bijbenen met CUDA.
HIP is een goede stap die kant op maar CUDA zorgt er nog steeds voor dat als je ook maar iets met 3d werk of wat dan ook wilt doen dat NVIDIA nog steeds de enige optie is.
Ik speel zelf graag met blender en AMD met HIP kan het gewoon niet afleggen tegen NVIDIA met CUDA. En dan is er ook nog OptiX die de RTX cores van een nieuwere NVIDIA kaart gebruikt om de lighting te renderen, dat is zo ontiegelijk snel.

Dus voor mij zal het wel weer een NVIDIA worden, ondanks dat ik graag een keer AMD wil vanwege de veruit superieure linux ondersteuning.
Het bedrijf komt met een RTX 4090 voor 1959 euro en twee RTX 4080-varianten voor respectievelijk 1099 en 1469 euro.
Als ik het goed begrijp is de RTX 4080 voor EUR 1099 dus geschrapt?
yup,
hoewel als je goed kijkt, zie je dat dit nog de doos is voor de 12Gb versie.
De AIB's worden zullen hier nog veel onder lijden want de kaarten waren al geproduceerd voor nvidia ze unlaunchde!
Ik meen gelezen te hebben dat Nvidia dozen en stickers etc zou vergoeden
dat is inderdaad de algemene aanname, want opnieuw printen van de doos zal ook niet niks kosten.
heb geruchten gezien dat nvidia hiervoor zou tegenmoet komen. Maar pak zout zeker bij huidige omstandigheden is aan te raden bij deze meldingen.

Maar gezien de fratsen van Nvidia, zitten er een legio mensen uit te kijken wat amd presenteert deze week.

Zoals het er nu naar uit ziet (gelekte benches, wederom korrel zout) is de 4080 op geheugen en dlss3.0 na niet interressant sneller dan een 3080 voor een duurdere prijs.

Ben heel erg benieuwd hoe Nvidia dan van de backlog 3000 serie af wil komen.
Als je ziet wat de 4090 presteert is het zeer aannemelijk dat de 4080 de 3090ti verslaat. Dan is €1.500 helemaal zo gek nog niet.
Ben heel erg benieuwd hoe Nvidia dan van de backlog 3000 serie af wil komen.
Dat probleem hebben ze doorgeschoven naar de board partners ;)
Niet meer san normaal dat de 4080 sneller is. Het zijn chips met een kleinere node, de nieuwe generatie. Wat niet normaal is, of was, is dat je vroeger die extra performance min of meer gratis kreeg, nu mag je voor bijbetalen.
Ja, maar dat was een "4080", die qua specs eigenlijk een 4070 of 4060ti had moeten heten. Daar was men niet blij mee dus is die gecanceld en komt 'ie later terug onder een andere naam.
Ja, dat was de 12GB "4080" met 25-30% minder cores, een kleinere geheugenbus, een kleinere die (vergelijkbaar met xx70/xx60ti), en ruim lagere prestaties dan de 16GB 4080

Edit: Een compleet andere videokaart als de 16GB 4080, hier was zoveel ophef over ontstaan dat Nvidia deze uiteindelijk geschrapt heeft (in ieder geval in deze vorm, men verwacht hem als 4070(ti) terug te zien)

[Reactie gewijzigd door Pawnhamster op 25 juli 2024 20:33]

Komt mogelijk terug als een 4070ti variant.
Het was niet echt een 4080 variant met alleen minder geheugen.
Ja dat was de 12GB model
Dat was eigenlijk de 4070. Nvidia dacht die als 4080 12GB te labelen, ze er dan ook wel meer dan €1000 voor konden gaan vragen, maar gelukkig leverde dat zoveel negatief sentiment op dat ze die "truc" geschrapt hebben.
AMD zou hier wel mooi van kunnen profiteren door de 7900XT voor rond de €1.000 in de markt te zetten.
in het kort : ja.
Deze zal naar alle vermoeden terug komen als een RTX 4070 oid.
Het formaat van die kaarten is echt belachelijk.
Ja ik verbaas me er al een tijdje over. Zo massief.. dat je bijna beter een GPU-BOARD kunt hebben in een case en dat wat nu je moederbord aan CPU en MEM doet module wordt. Of zeg ik nu iets stoms? lol :)
Nee klinkt als een leuke oplossing. Koop je een CPU met onboard GPU dan heb je genoeg aan een mini moederbord zonder PCIE slots, wil je toch een losse GPU kopen dan kun je daarbij een mobo module aanschaffen.
Er zijn genoeg kleinere GPU's op de markt
Alleen presteren die dingen niet.
Als het goed is gebruikt deze kaart 320 watt waarom gaan ze dan in hemelsnaam voor die stomme 16pin connector. Dit jaar dus mijn eerste AMD kaart.
Heb je een bron hiervoor (320 watt)?

Het lijkt mij dat ze ook wat marge willen nemen. Je kan soms hoge pieken hebben. Ook wordt vaak niet de voeding die via het moederbord gaat (75watt) niet gebruikt en alleen de stroomaansluitingen. Wat zou betekenen dat je dan dus drie 150watt aansluitingen moet gebruiken.

Wellicht zijn er ook nog mensen die behoefte hebben aan overklokken, dan gaat het verbruik ook snel omhoog.

Verder ben ik het wel met je eens dat tot op nu toe ik deze nieuwe connector ook niet erg aantrekkelijk vind (los van het algehele gebruik van de topkaarten).
https://www.trustedreview...e-nvidia-rtx-4080-4268319
Een RTX 3090 gebruikt 350 watt en heeft 2 8pin connectors dus waarom deze niet.

[Reactie gewijzigd door Ryuukami op 25 juli 2024 20:33]

Mijn 3080 OC variant trekt al 360w dus lijkt me dat de 3090 nog wat meer trekt dan minder?
Ik blijf het maar raar vinden dat er maar weinig kaarten zijn met een usb-c output. Is daar een specifieke reden voor? Er komen aardig wat usb-c monitoren uit.
Mindere stekker voor als iets moet blijven zitten.
Je bedoelt dat de aansluiting te fragiel zou zijn? Ik heb een XDR monitor op mijn mac pro en het zit juist retestrak in de poorten. Het voelt niet echt fragiel aan.

Daarom baal ik ook zo dat er zeer weinig kaarten uitkomen met usb-c output erop. Ook de AMD's. De reference kaarten van AMD zelf hebben er wel eentje, maar van andere fabrikanten weer niet. Snap eigenlijk niet waarom niet. Er is plek zat op insteekkaart en het lijkt mij niet echt een prijzige upgrade daar een reference kaart vaak 'goedkoper' is dan alle anderen.
Nee dat hij er makkelijker uitschuift dan een hdmi of Dp.
gaat dat makkelijker? Ja.... maar hoeveel ben je met je kabels/laptop aan het klooien tussendoor dat je daar last van hebt? Volgens mij is het idee van het aansluiten van een monitor op een usb-c dat je het inprikt en er dan niet meer aan zit tot het eruit moet.

Bij een desktop waar de kabel eigenlijk 24/7 in blijft zitten is dit dus echt geen issue als het bij normaal laptop gebruik ook geen issue is. Knappe jongen die van een stilstaande pc de usb-c monitor kabel onbedoeld lostrekt. Als dat wel zo is denk ik dat er uberhaupt al wat kabelmanagement nodig was geweest, want dat klinkt als een rattennest erachter.
3080 had adviesprijs 750
4080 is een 50% sneller (non dlss)
https://www.extremetech.c...080-and-dlss-3-benchmarks

1469 is dus bijna dubbel zo duur voor 50% winst in fps, of een hele dure kaart zelfs al kan je die voor die prijs vinden wat onwaarschijnlijk is(cfg 4090)
Dat is dan ook het hele probleem met de 4090 en de 4080.

Er zit geen enkele verbetering in de price/performance ratio.

Leuk dat een 4090 2x sneller is dan een 3090 maar als die ook 2x zo duur is met de huidige prijzen dan is het gewoon een teleurstellende launch.

Traditioneel was het zo dat de x80 of x70 kaart ongeveer het niveau van de topkaart van de vorige generatie evenaarde tegen 60% van de prijs.

Ik blijf met deze prijzen lekker op mijn oude kaart zitten. Ook omdat je met nieuwe kaarten (zeker met deze prijzen) vaak met gigantische afschrijvingskosten te maken hebt in het eerste half jaar. Dat is nog wel te slikken als je echt een flinke stap in price/performance krijgt. Maar bij deze kaarten trek in de streep. Dit gaat mij te ver. Ik koop het niet.

[Reactie gewijzigd door Rixos op 25 juli 2024 20:33]

Probleem is wel dat daadwerkelijk de kosten van het produceren van deze nieuwe GPU's gigantisch gestegen zijn (al dan niet te danken aan inflatie, maar ook aan dat de wafers vele malen duurder zijn door het verkleinde proces).
Dat maakt die juist goedkoper.
Nee dus, omdat het een kleiner procede is maakt het niet per definitie goedkoper.
Allemaal lulverhalen van Nvidia, is allang ontkracht. Deze kaarten zijn gewoon overpriced en dat weet Nvidia donders goed.
Dat is helemaal niet ontkracht.
Niet door Nvidia, wel door anderen🥱
Hoe goed die kaart ook moge zijn, de adviesprijs is absurd.
Zolang 4 van de 5 van de consumenten en tweakers het groene kamp blijven kopen zijn deze prijzen verre van absurd.
Alsof je die keus hebt zonder specifiek anti-groen te zijn.

Op CPU-gebied heeft AMD's Ryzen zich wel bewezen en na 16 jaar Intel CPU's te hebben gedraaid had ik geen enkele moeite om over te stappen door een betere prijs/prestaties verhouding
Door het hele mining/scalping gedoe met GPU's en het feit dat ik de RTX20xx sowieso over wilde slaan in afwachting van wat dat raytracing ging worden heb ik wat langer met mijn GTX1070 gedaan.
Net als bij de 1070 is de keus uiteindelijk gevallen op een RTX3080 door prijs/prestaties en belangrijker, beschikbaarheid.

Afgezien daarvan ligt deze hoge prijs volgens mij veel meer aan het feit dat grondstoffen nog steeds erg duur zijn en dat ze de inkomsten op een aanvaardbaar niveau willen houden terwijl de mining-markt aan het inzakken is.
Nvidia moet enorm veel geld aan R&D blijven besteden om de toenemende concurrentie voor te blijven.
Er zijn meerdere lekken geweest die laten zien dat prijsverhogingen helaas lang niet alleen het gevolg zijn van gestegen kosten. Nvidia is echt heel hebzuchtig bezig, met heftige beheersing van de hele keten, het achterhouden van voorraad, het absoluut maximaal verhogen van adviesprijzen van nieuwe kaarten, die prijzen zo laat mogelijk bekend maken zelfs aan de eigen partners, het hoog houden van de prijzen van oudere kaarten, enz. De board partners en de winkels hebben hier ook hun aandeel in, maar Nvidia is er zeker niet van gevrijwaard. Corona en crypto hebben de winsten verhoogd en nu wordt er in vreemde bochten gewrongen om die winsten te behouden en verder te verhogen. Terwijl de vraagsituatie nu heel anders is, en het leven duurder is.

Sterker nog, inflatie in het algemeen is minstens voor de helft simpelweg misbruik. Vaak zelfs twee derde. Het begin van inflatie wordt een excuus voor prijsverhogingen door producenten, en consumenten kunnen dan toch niet direct nagaan hoeveel verhoging echt nodig of redelijk was. Maar aan de kwartaalcijfers zien we vervolgens of de prijsverhogingen vooral nodig waren om de hogere kosten te dekken, of dat de prijsverhogingen vooral meer winst opleverden. En dan blijkt telkens dat laatste.

Dus laten we niet automatisch uitgaan van de redelijkheid en klantvriendelijkheid van Nvidia en co. Die eigenschappen hebben ze nog nooit laten zien.

[Reactie gewijzigd door geert1 op 25 juli 2024 20:33]

Of we moeten ons realiseren dat het fabriceren van deze GPU's daadwerkelijk gewoon veel meer kost. 'We' willen behoorlijke vooruitgang ten opzichte van de vorige generatie, maar dat kan dus, op dit moment, alleen met deze vele malen duurder te fabriceren chips. Willen we echt goedkoper dan zou de prestatie ten opzichte van de 30xx range marginaal zijn. Verwacht maar dat de nieuwe AMD kaarten als die vergelijkbare prestaties hebben als de 40xx range, ook vergelijkbare prijzen heeft, net zoals dat ook bij de 30xx range was.
Hoe ik het nu zie is dat de 4080 niet eens de top end is maar soort van gepositioneerd wordt als "high mid-range". €1.469 voor deze kaart is naast inflatie nog steeds VEELS te duur.

Eind 2018 en begin 2019 kwam de 20 series kaarten uit waar de verkoop prijs van een 2080 destijds tussen de €825 tot €875 uit kwam in Nederland met een verkoopprijs van $699 in de VS.

Nu zal dit wel een trucje zijn om van de 30 serie chips af te komen maar alsnog, waar de fuck gaat dit heen zeg. Ik ben bang dat AMD het voorbeeld gaat volgen want die kaarten verkopen toch wel met zo'n prijs.
Maar hoezo is dit te duur? Ik vind het te duur maar er zijn wellicht genoeg mensen die er toch eentje gaan kopen. Uiteindelijk gaat de markt bepalen wat wel en niet door de beugel kan.
Was mijn voorbeeld niet duidelijk? Daarin vergelijk ik dezelfde modellen in een lijn van nvidia videokaarten waar in bijna 3 jaar de prijs verdubbeld is. Hiermee wil ik aangeven wat voor verandering er plaats vindt voor een product in die tijd. Wat de markt doet was in mijn voorbeeld niet relevant, het gaat om de aanbieder.

[Reactie gewijzigd door Mario op 25 juli 2024 20:33]

Maar wat we wel moeten beseffen is dat verbeterde technologie in het begin niet altijd goedkoper hoeft te zijn om te produceren, vergeet niet dat alles op dit moment veel duurder is door bv ook de verhoogde energieprijzen, maar zeker met de weer verkleinde procude kost zo'n wafer ook veel meer.

Op dit item kan niet meer gereageerd worden.