'Nvidia RTX 50-serie ondersteunt DisplayPort 2.1 en wordt op 3nm gebakken'

De RTX 50-videokaarten van Nvidia zullen ondersteuning bieden voor DisplayPort 2.1. Dat meldt een bekende leaker. De nieuwe reeks videokaarten zal ook op een 3nm-procedé van TSMC worden gebakken.

De bekende Nvidia-leaker kopite7kimi kreeg op X een bericht met de vraag of er al meer info was over de processor node van de RTX 50-serie. Kopite7kimi schreef vervolgens dat de RTX50-kaarten op een 3nm-procedé van TSMC zouden worden geproduceerd, maar gaf niet aan om welk specifiek procedé het gaat. Een andere gebruiker vroeg aan de leaker of DisplayPort 2.1 ondersteund zal worden en dat was volgens kopite7kimi het geval. Meer details gaf de leaker echter niet.

Eerder dit jaar deden er al geruchten de ronde dat de RTX 50-kaarten gebruik zullen maken van GDDR7-geheugen, net als de aankomende AMD Radeon RX 8000-gpu’s van AMD. Dankzij dit geheugen zouden de videokaarten geheugenbandbreedtes van 36Gbit/s per pin bieden, wat met een 256bit-geheugenbus neerkomt op 1,15TB/s.

Volgens geruchten zou Nvidia volgend jaar zijn RTX 50-serie willen introduceren. Een exacte releasedatum is er nog niet. De RTX 30- en RTX 40-series werden in het najaar van 2020 en 2022 aangekondigd, maar het is niet bekend of Nvidia een soortgelijk releaseschema aanhoudt voor zijn komende gpu's. Nvidia houdt in januari een CES-presentatie, mogelijk voor de release van RTX 40 Super-videokaarten.

Door Jay Stout

Redacteur

19-11-2023 • 12:20

102

Lees meer

Reacties (102)

102
99
39
1
0
38
Wijzig sortering
In essentie, wat is dan beter voor gamen, HDMI 2.1, of DisplayPort 2.1?
Toms Hardware heeft daar eerder dit jaar een artikel over geschreven: https://www.tomshardware....vs-hdmi-better-for-gaming

Conclusie is dat DisplayPort er voor gaming beter uitkomt dan HDMI. De specs (zowel de bandbreedte als de maximale refreshrate) liggen bij DisplayPort hoger dan bij HDMI, bij zowel 4K als 8K.
Vergeet niet dat je met DisplayPort ook, indien de laptop / desktop het ondersteund, ook alles via USB-C kan laten gaan. Weliswaar moet je dan beschikken over een Thunderbolt 4 aansluiting, maar die aansluiting is in der loop der jaren ook naar consumenten laptops en desktops gegaan.

Met de juiste gaming monitor zou je in principe dus zowel de down- als upstream via USB-C laten lopen, waardoor je maar eigenlijk 1 kabel nodig hebt voor zowel beeld als input. KB+M vergt gelukkig niet veel bandbreedte, waardoor je meer dan genoeg overhoudt voor het beeld.

Enige nadeel van DisplayPort zijn de haakjes bij de connectoren, want die wil je niet beschadigen (zowel aan de kabel kant als aan de aansluiting). Mini DisplayPort heeft die probleem gelukkig niet en USB-C is natuurlijk ook een verademing als het gaat om de connectoren.
Ik hoop echt dat ze DisplayPort over USB-C op videokaarten gaan terugbrengen (en eigenlijk dat het ook voor andere AV-toepassingen de standaard wordt).

En als we dan toch bezig zijn, laat mijn beeldscherm er dan ook gelijk door gevoed worden, dat scheelt weer een voedingskabel.
Ondanks dat het leuk zou zijn om een beeldscherm te voeden op deze manier, denk ik niet dat hier behoefde aan is.
-Een duurdere en betere voeding benodigd.
-je videokaart moet deze stroomtoevoer ook weer doorgeven.

Dit gaat dus nooit gebeuren, zeker niet omdat juist het tegenovergestelde gebeurd. Monitoren met usb-c bieden vaak de mogelijkheid om laptops op te kunnen laden. (Al dan vaak beperkt tot een bepaalde hoeveelheid watt)
Die behoefte is er wel degelijk, denk aan portable schermen met ITX systemen, ik ben nu ook gedwongen om het videosignaal via de igpu laten lopen waardoor g-sync niet meer werkt.

(Moederbord kan videosignaal richting iGPU sturen).
Dan is de noodzaak om dit te ondersteunen natuurlijk nog steeds te klein. Hoe groot is de afzetmarkt voor losse grafische kaarten die een portable scherm moeten voeden? (En al helemaal via Gsync)

Het merendeel van de gebruikers zal een groot scherm gebruiken die al aardig wat verbruiken, laat staan als daar hoge resoluties, refresh rates, helderheid etc… bij komen kijken.

Normale monitoren verbruiken gewoon teveel om door een videokaart gevoed te worden, en mensen zullen niet snel bereid zijn om mee te betalen voor een niche functie.
De videokaart zal complexer en duurder worden met deze functie, en al helemaal als deze geschikt moet zijn voor monitoren die op gamers gericht zijn.

Ik wil het nut van de functie zeker niet onderuit halen, maar wel de haalbaarheid op technisch en financieel niveau. Ik heb een desktop voor thuis waar ik prima mijn monitor op een stopcontact kan aansluiten.
Voor onderweg heb ik een laptop (beiden met gsync)

Mocht er echt een markt zijn voor de groep waar jij onder valt, dan was hier vast al op ingespeeld door een fabrikant. Maar hoe jammer het ook is, jouw markt is te klein om rendabel op in te spelen met betaalbare schermen.

Zien mijn reactie niet als een aanval maar echt als een onderbouwde gedachte over hoe de hardware markt werkt.

Kijk eens wat het prijsverschil al is als je een witte videokaart wilt, of een kaart met aio-waterkoeling… laat staan als je PCB en stroomvoorziening aangepast moeten worden hiervoor.

Het merendeel van de videokaart kopers, zullen kiezen voor een videokaart zonder deze poespas, omdat wij goedkoper uit willen zijn.
Mochten er toch nog een merk zijn dat zich hier aan wilt wagen, dan zal de keuze voor GPU beperkt zijn terwijl je er ook de hoofdprijs voor betaald.

In het verleden heb ik genoeg merken gezien die iets anders geprobeerd hebben, maar geen van allen een lang leven hadden.
-Een extra GPU op de kaart voor Physx
-Crossfire op één kaart (met een zelfs tot 3 GPU’s)
-GPU met een extra x86 slot (ik weet niet meer welke socket)
-GPU met ingebouwde “creative soundcard”
-gpu met een 50pin VGA aansluiting, om een laptop monitor in een desktop te kunnen zetten als alternatief voor plexiglas. (Deze lijkt nog enigszins op jouw gewenste functie)
USB-C maakt de videokaart niet duurder, zie AMD bijvoorbeeld, dit is een gevalletje kip/ei, de vraag is er zeker.

Technisch vormt dit geen enkel probleem.
Zelfs Intel heeft het.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 15:26]

USB-C niet nee. Maar power delivery via die USB-C poort zou de kaart wel een stuk duurder maken.
Dat is dan maar zo, kennerlijk kan AMD en Intel het wel.
Als ik kijk naar mijn eigen portable monitor, die kan idd via dezelfde USB-C kabel gevoed worden als waar het beeld vandaan komt. Handig voor onderweg als die aan mijn laptop hangt. Maar thuis waar die als 2de monitor aan mijn desktop hangt krijgt die de voeding via een 2de kabel, dat kan zo goed als elke portable monitor als ik mij niet vergis.

Door een aparte voeding te gebruiken 'unlocken' ook wat features zoals een hoger volume (al gebruik ik de ingebouwde speakers niet) en een hogere helderheid. Onderweg wil je immers ook niet teveel stroom uit een laptop trekken.
Itx systemen met portable scherm.
Ik heb Dp kabels zonder haakjes en knop die je moet indrukken :Y)
Ligt vooral aan de monitor. Mijn monitor (FI32U) heeft HDMI 2.1 en DP 1.4. Ik kan dus beter HDMI gebruiken.
Hier hetzelfde. Voor 10-bit op 4K 144hz zonder Display Stream Compression is alleen HDMI 2.1 geschikt, DP1.4 red dit niet.
Met custom resolution lukt dat soms alsnog. Ik zit op 167hz 10bit 1440p UW wat standaard niet via dpi1.4 kan.
Veel monitoren ondersteunen via HDMI ook niet de volledige featureset. Het is de bedoeling ze via DP te gebruiken en HDMI is meer een backup. Je bent dan bijv. gelimiteerd tot 1080p60 op een 1440p144 monitor.
Zal best, maar is toch idioot? Zet er HDMI 2.1 op zodat je backup in elk geval 4K120hz doet.
Of je wil er een console bij op hebben.

Het is ook gelijk de reden dat ik een OLED tv als monitor gebruik. Ik wil sowieso groot en dan gewoon alle HDMI ingangen op versie 2.1 dus 120Hz
HDMI is niet gratis voor de videokaart- en monitor producenten - die betalen licentiekosten om het toe te mogen voegen. Vandaar dat je vaak veel DP- en maar 1 HDMI connector hebt. Misschien is het zo dat ze ook nog per feature-set binnen HDMI moeten dokken en ze daarvoor voor een beperkte implementatie gaan.
De hdmi standaard is zo om zeep geholpen, dat hdmi 2.1 niks meer betekent. Als je ook maar voldoet aan 1 van de eisen van de "standaard", dan mag je het al hdmi 2.1 noemen. En dat is inclusief het oude hdmi 2.0. Hdmi 2.0 bestaat namelijk niet meer |:(

[Reactie gewijzigd door GromuhlDjun op 22 juli 2024 15:26]

Conclusie is dat DisplayPort er voor gaming beter uitkomt dan HDMI. De specs (zowel de bandbreedte als de maximale refreshrate) liggen bij DisplayPort hoger dan bij HDMI, bij zowel 4K als 8K.
DisplayPort is juist inferieur voor gamen:
- DisplayPort heeft geen mechanisme om geluid te synchroniseren met het beeld, HDMI heeft al sinds v1.3 audio sync
- DisplayPort heeft geen mechanisme om volume controls via de kabel te versturen, HDMI wel: CEC
- DisplayPort heeft geen faciliteit om audio naar een aangesloten soundbar of AV-versterker te routeren, HDMI wel: ARC
- DisplayPort heeft geen manier om het scherm naar de juiste beeldmodes van het scherm te zetten ("GAMEMODE" voor als je spellen speelt, "CINEMAMODE" als je films kijkt), HDMI wel: content-type
- DisplayPort heeft geen gegarandeerde instant resolution switching in 1 frame, HDMI wel: QMS
En al die dingen zitten bijna nooit op een monitor(het meest gebruikt bij een game-PC. Daarom zie je ook bijna/geen tv's met DisplayPort ingangen en geen Gameconsoles met DisplayPort.

En was DisplayPort de eerst met free/g-sync ondersteuning.

[Reactie gewijzigd door loki504 op 22 juli 2024 15:26]

Ik ken er genoeg die een pc aansluiten op een TV.
... Ik zeg ook nergens dat er geen mensen zijn die hun game pc op een tv aansluiten. Alleen het een monitor het meest gebruikt wordt. Net zoals de meeste console aan een tv hangen.
Zo beetje alle computermonitoren hebben ook HDMI, dus wat is je punt?

Displayport is de concurrent van HDMI, het is nooit PC only geweest.
De reden dat Displayport zo goed als afwezig is op TV,s komt door de content leveranciers, die hebben een flinke vinger in de pap.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 15:26]

Maar het ging om HDMI voordelen die voor pc gamers bijna tot geen voordelen hebben voor pc gamers en dan heeft DP weer meer bandbreedte tot zijn beschikking.
Ik lees allemaal dingen die irrelevant zijn voor PC gamers en ook de meeste TV gamers.
DisplayPort heeft geen mechanisme om volume controls via de kabel te versturen, HDMI wel
Wel dus, via DDC/CI. Bestaat al sinds het DVI tijdperk. Kun je ook je backlight en contrast mee aanpassen. Alleen ondersteunen Windows, Linux en macOS dit om een of andere vage reden niet native, je moet er een tooltje voor installeren. TwinkleTray voor Windows, Lunar voor macOS en voor Linux weet ik het zo ff niet.
Wist niet dat je dit softwarematig kon bedienen. Super handig dat TwinkleTray, bedankt voor de tip!
Er is alleen geen enkele GPU die HDMI-CEC aan boord heeft.
enkel voor console-gamers en die hebben geen RTX-kaarten :+
HDMI 2.1 gaat op 4k tot 120hz met HDR 12-bit zonder compressie. Er zijn maar weinig videokaarten die dat volledig kunnen benutten. En als je geen games speelt is 60hz voldoende.
Ik denk dat DP 2.1 pas echt nut gaat hebben als we 2 generaties videokaarten verder zijn. En dan vraag ik me af of je dan alsnog wel 240fps haald op 8k
Hdmi is voor tv,
Display port is voor pc,

Daarom hadden dell en zo altijd dp voor hun monitoren maar in tijd is dp ee. Beetje verloren gegaan en is iedereen overgestapt op hdmi.
HDMI ondersteunt HDCP, dat is waarom het op tv's de standaard is. DisplayPort is de standaard voor gaming. Vaak zie je ook dat VR-headsets een DP-connector hebben. Ook zit DP in the Thunderbolt-spec, waardoor docks met TB over USB C gebruik kunnen maken van DP.
HDCP wordt prima ondersteund door DisplayPort, bij mijn weten.
Hmm ik lees inderdaad dat je daarin gelijk hebt.
Wat dat betreft zou ik stellen dat tv's gewoon DP moeten hebben. Dan is de HDMI-lobby waarschijnlijk gewoon te sterk geweest.
HDMI is dan ook verzonnen door o.a. Sony, Philips en Panasonic.
Displayport is royalty free, hdmi niet
Onzin HDMI en DP kunnen gewoon op zowel monitoren als tv. Je ziet het alleen niet zoveel.\
Maar wat echt onzin is, is om HDMI 2.0 ingangen te zetten op monitoren die een UHD paneel hebben en een refreshrate hoger als 60. En dat zie je bij bosjes.
dat is geen onzin dat is nou eenmaal hoe het in het begin ontworpen was en wat de standaarden waren.

Je kunt het ook terug zien dat oude tvs alleen HDMI hebben en oude monitoren alleen DP
Aangezien de meeste porten op gpu display port is, lijkt me dat wel duidelijk
Denk niet dat iemand iets anders zou verwachten. Het zou pas echt verrassend zijn als de nieuwste GPU van nVidia niet op de modernste node wordt gemaakt of niet de nieuwste displaystandaarden zou ondersteunen.

En als je nu al weer enige tijd om de 2 jaar met een nieuwe generatie afkomt, en er zit nog rek op je productportfolio in de huidige generatie, dan moet je die nieuwe generatie, toch zeker voor consumentenspul, niet in de eerstvolgende maanden verwachten.
Denk niet dat iemand iets anders zou verwachten. Het zou pas echt verrassend zijn als de nieuwste GPU van nVidia niet op de modernste node wordt gemaakt of niet de nieuwste displaystandaarden zou ondersteunen.
Nou DisplayPort 2.0 is al uit sinds 2019, terwijl de RTX4090 nog steeds gebruik maakt van 1.4a wat zover ik weet niet genoeg is om 4K 120Hz uit te sturen zonder compressietechnieken laat staan 144Hz of hoger. Eigenlijk een blamage voor een kaliber en prijs van die GPU die het eigenlijk wel aankan.

Mede daarom heb ik gekozen de 4090 links te laten liggen.

[Reactie gewijzigd door CriticalHit_NL op 22 juli 2024 15:26]

Precies. Nvidia adverteerd met 4k240, 8k60 en hdr maar HDMI 2.1 en DP1.4 ondersteunen dat bij lange na niet. Kiezen om geen DP2.0 in de 4000 serie kaarten te doen is een onwijs slimme move. As we speak releasen er steeds meer en meer schermen met een resolutie en refreshrate die de 4090 gewoon niet aan kan sturen zonder kwaliteitsverlies. Zelfs op release waren er al zulke schermen waardoor je eigenlijk kan zeggen dat de 4090 bij release al direct veroudert was. Dus dit wordt een major selling point voor de 5000 series. En dat terwijl DP2.0 al jaren uit is en weinig kost.
Het feit dat de output het niet kan verwerken, wil niet zeggen dat er geen usecase voor is. De videokaart kan natuurlijk ook intern renderen om het naar een ander proces te sturen.
Wat de use case ook is, dat staat los van bewust kiezen voor geen goedkoop DP2.0 poortje op een 4090. Het is een bewuste financiële keuze die daar is gemaakt. De doelgroep die dit belangrijk vind gaat straks giga bedragen neerleggen (hopen ze) voor de 5090. En dat is logisch want het is een groot gemis op de 4090. Je koopt geen 4090 met het idee dat er schermen zijn waar je moet kiezen tussen een hoge framerate of HDR, alleen maar omdat ze te eigenwijs zijn om een compatible poortje erop te plaatsen.
Het zou pas echt verrassend zijn als de nieuwste GPU van nVidia niet op de modernste node wordt gemaakt
Zoals de 3000 serie bedoel je?
Toch zat GPU`s gezien die bijvoorbeeld geen HDMI 2.1 hebben, zelfde voor monitoren. Wel 4K120HZ schermen, maar HDMI 2.0 ingangen.
Wat gaat het allemaal snel, ik heb sinds begin dit jaar een 3070 en zit voor mijn gevoel wel even gebakken.
Snel? Valt wel mee. Vroeger had je om de half/1 jaar een nieuwe high end kaart.
Vooral omdat men eerst met een xx80 model kwam, dan een xx80ti. Om vervolgens nog eens een halo model als een Titan uit te brengen, die tegenwoordig als xx90 door het leven gaat. Ook volgden de kleinere nodes elkaar natuurlijk sneller op.

Nvidia heeft deze generatie gewoon meteen een 4090 neergezet voor een one hit KO in het topsegment. Er is wellicht wel ruimte om nog een snellere versie er bovenop te doen, maar waarom? De prijs zal er ook naar moeten zijn en het is niet alsof de 4090 zo'n prijspakker is. Een 4090Ti uitbrengen voor de prijs van een 4090 en de rest navenant mee laten zakken, is tevens nergens voor nodig.

Wat dat betreft deel ik je gevoel dat de markt eerder gestagneerd is, dan dat het snel gaat. Ook AMD brengt niks uit wat een upgrade vanaf een 6800 zinvol maakt.
Het is inderdaad gestagneerd. Drie jaar gelden kwam de 3080 voor 700 euro uit. De 4070 biedt vrijwel hetzelfde en kost 600 euro. Dat schiet natuurlijk niet op.

Nu hebben we dat eerder gezien met de 1080 en 2080. Dus hopelijk gaat volgend jaar de 5080 nu wel een betere prijs/prestatie neerzetten.
gestagneerd
Wel als je alleen naar de 'domme' snelheid van de kaarten kijkt.
Met iedere nieuwe lijn wilden we op hetzelfde modelnummer een minimale snelheidswinst zien van 30% en af en toe werd het VRAM wat opgehoogd.
Maar bovenop de toename in resolutie, de groei van textures, die van 1080 naar 1440 naar 4K steeds verdubbeld, zijn we ook ver voorbij het punt waar anti-aliasing de enige optie was die aangezet kon worden.
De manier waarop ray-tracing en nu path-tracing inhakt op de rekenkracht is gewoon griezelig en er moeten allerlei trucs worden toegepast (waar de vorige generatie kaarten al niet mee kan werken) om alsnog presentabele frame rates te halen.
En dan moest er ook nog iets gedaan worden aan het verbruik

Natuurlijk kun je 'tevreden' zijn met een lage resolutie, met alles op medium en alle realisme verhogende functies uit. Mits de games 'netjes' ontwikkeld zijn game je dan grafisch op hetzelfde niveau als 10 jaar geleden en het spelplezier was er toen niet minder om.
Maar 10 jaar geleden speelde je de zwaarste games ook niet op de zwaarste settings met je mid-range kaart en was je je er ook van bewust dat het er veel beter uit kon zien.

Er zijn genoeg mensen die het idee hebben dat hun 30xx kaart al verouderd is.
Ah, ja ik ben een aantal jaren console gewend en sinds pc moet ik wennen aan hoe snel alles gaat, maar je niet persé mee moet aangezien ik veelal Rts/city builders speel
ik vind het grafische verschil tussen medium/high/ultra vaak ook bijna niet te zien bij wat sneller bewegend beeld. Mijn 2080 is nu vaak prima op 1080p ultra en vaak ook prima op 1440p medium.
En die nieuwe video kaart had je nodig ook, want om de 12-18 maanden zat je met nieuwe games onder de 30fps.

PC gaming lijkt duurder geworden dan destijds, maar dat is het niet, omdat je heel lang met een game PC kan doen. Mijn PC kost 2x zoveel als destijds, maar ik doe er zeker 4x zo lang mee; als het niet langer is. Ik heb ooit geprobeerd om naar console gaming over te stappen, omdat de kosten uit de hand liepen, maar ik ben al jaren weer terug.

Wat die GPU's tegenwoordig kunnen is fenomenaal. Naast gamen kunnen wetenschappelijke onderzoekers en cryptominers etc hun hart ermee ophalen. Je leest weleens dat de ontwikkelingen niet snel genoeg zouden gaan; de feiten wijzen anders uit, neem bv raytracing en DLSS.

Persoonlijk kan ik niet wachten op de release van de 5000 serie. Tegen die tijd ga ik uitkijken naar een nieuw systeem. En uiteraard kijk ik uit wat het rode en blauwe kamp daartegenover stellen, want ik ben niet getrouwd met een merk.

[Reactie gewijzigd door ABD op 22 juli 2024 15:26]

Dat mocht tijd worden. De 40-series kaarten ondersteunden alleen nog DP 1.4 en het missen van DP 2.0 was een groot issue. Zelf heb ik maar schermen zoals deze aangeschaft zodat ik 4k@160Hz kan draaien over DP 1.4: uitvoering: LG UltraGear 27GP950-B Zwart
Nu kan de beeldtechnologie via Displayport 2.1 een stuk verder gepushed gaan worden.
Net een 4070 met de black friday korting gekocht ;). Ach zo gaat dat.
Geen spijt hebben, zal nog even duren voordat de nieuwe generatie kaarten uitkomen, eerst moet Nvidia mensen nog even melken met de super varianten van de 40 series. En er is altijd wel iets nieuws dat eraan gaat komen, had een maandje geleden een 7900 XTX aangeschaft voor een goede prijs, zeker geen spijt van. Als je de hele tijd gaat wachten op nieuwe tech ga je niks doen behalve wachten.
Mag ik vragen welke Black Friday deal je hebt gevonden voor je 4070? :)
Mmmm gekko, had wat aanbiedingen en ik stond al op het punt mijn systeem te bestellen. Ik heb een pro art van Asus besteld. Maar de rest gaan ook een paar tientjes af.
Kijkend naar de vorige releases zal het pas in het najaar van volgend jaar uitkomen. Mijn 2080 Super doet het ook nog best wel 'super'.
Dat wordt wachten op een Samsung 58 inch ultrawide OLED schermpje (VA vind ik maar niks.) en dan icm zo'n RTX 50-serie kaart, €5k lichter en ik kan weer leuk gamen en office taken uitvoeren.
Maar dan wel eentje met normale subpixelindeling. Anders kun je je office taken niet goed uitvoeren.
Ik heb een qd-oled 34" ultra wide. But I doe er veel kantoorwerk op. Ik vroeg me af hoe het zou zijn maar zowel met Mac and Windows heb ik geen issues met de subpixel layout.

Anderen wel. Maar het is dus zeker niet universeel. Beste is om zelf te kijken natuurlijk.
Het kan misschien storend zijn maar je taken niet goed uitvoeren? Lijkt me nogal overdreven opmerking...

Heb zelf de S95B gebruikt icm een PC, en ja je ziet het maar nee alles deed het prima werd er echt niet door beperkt in mijn doen en laten. Kon het mooier of beter? Ja natuurlijk, het kan altijd beter.
Minder scherpe tekst is zeker iets dat de productiviteit i.i.g. niet ten goede komt, dus ik wacht liever.
Uiteraard, nieuwe OLED panelen die eraan komen hebben geen storende subpixelindeling.
dit paneel en een aantal andere hebben een iets betere indeling waardoor het probleem verminderd is

moet nog wel op de markt komen helaas

https://allboutgaming.com...32-inch-4k-qd-oled-240hz/
Kan je volgende keer een NSFW waarschuwing erbij zetten?
Nu zit ik hier te kwijlen en m'n collega's kijken me raar aan.. :9~

Dit is echt precies waar ik op zit te wachten qua monitor, al zou het zelfs nog een maatje groter mogen.
36" o.i.d. lijkt me perfect. Of wellicht een ultrawide met 4k resolutie.
Het gaat in ieder geval de goede kant op. 8-)

Overigens wel jammer dat hier dan nog geen DP 2.1 op zit, maar wellicht is tegen de tijd dat de 50xx uitkomen een nieuwe versie op de markt.
ahhah sorrry ik snap je volkomen deed zelf hetzelfde toen ik hem voor het eerst zag :+

zelf cap ik alles op 60 HZ dus nooit gekeken naar het gebrek aan DP 2.1 maar ja dat iss jammer inderdaad

[Reactie gewijzigd door atthias op 22 juli 2024 15:26]

kortom als je een 3000 reeks hebt, wachten op de 6000 reeks, want ze gaan de consument nog wel even uitmelken met hun tussenstappen. Overconsumptie ...
Ja, ik zie ook nog niet zo heel veel nut om de 3090 te vervangen, zeker niet als ik terug denk aan wat dat ding kostte...
Exact, ze hebben ons goed gehad met heel de economische situatie toen. Ze hebben ons letterlijk dingen verkocht op papier die nooit waargemaakt werden, tenzij je het drie dubbele betaalde...
Een van de grootste voorbeelden waren de wachtrijen die gewoon werden opgezegd en met een duurdere prijs weer opgestart werden, dat was crimineel... Ik denk nu wel twee keer na als ik een schermkaart koop. Ik moet nog uit mijn verlies op termijn komen, maar dat remt de overconsumptie en geeft wel een juiste perceptie dat we ons voorbij aan het lopen zijn. Als je erover nadenkt wat voor vuilnis we de wereld rondsturen om entertainment te hebben in ons leven... Anyway... Misschien de 7000 reeks? :D
Vroegah was het gewoon leuk om pak em beet 400 eur uit te geven aan een nieuwe kaart elke 1.5 jaar. Is mee te leven, zon 20 eur per maand voor top end gaming. Maar nu is het 2k+ eur. Dus dat zou na 2 jaar 100 eur in de maand zijn... ja dan wachten mensen wel even.
Ik kijk sinds men 2e hands 1080ti nog steeds de kat uit de boom.
Moedig en nobel zou ik zo zeggen. Zo verkleinen we de wereldmiserie. Minder consumeren en gelukkig zijn met wat we hebben en het optimaal benutten.
An sich geen bewuste keuze, langst de ene kant zou ik graag nog eens met een nieuwe prutsen. Langst de andere kant doet deze toch gewoon wat je wil. En als je dan kijkt naar de prijzen, ik bedoel, ik koop al high end gpu's sinds 2008. Dan heb je al wel het een en ander gezien. En ik weet hoe lang een nieuwe gpu leuk blijft, en dat is niet voldoende om er +1000€ aan uit te geven.

Dus ik wacht geduldig af tot een midrange nvidia kaart echt de moeite is om te upgraden met wat ik persoonlijk speel.

En af en toe bouw ik nog eens een computer voor men omgeving, zo ga ik deze week nog een 4080 door men handen weten passeren, en die zal ik ook wel eens wat benchmarks laten draaien om te zien wat de huidige generatie kan.

[Reactie gewijzigd door BlaDeKke op 22 juli 2024 15:26]

Ik wil een 34 inch ultrawide, met >200 PPI en 120 Hz. Wordt dat hiermee mogelijk of wat is de bottleneck daarvoor?
je vergeet belangrijkste detail, wat is uw resolutie en game settings
Dat is impliciet al met het formaat en PPI gegeven, maar laten we zeggen:
6880 x 2880 pixels op 34inch, dat levert 220 PPI op.
19,8 megapixel..
denk dat jouw eerste zorg dan zal zijn een 34" te vinden met dergelijke PPI...
En ik zat er net aan te denken om mijn 3070 te vervangen voor een 4070.
Zo te zien kan ik beter even wachten..
Eens, alhoewel ik wel benieuwd ben naar de 40 super series.
Zo kan je eeuwen blijven wachten :)
Beter wachten dan, altijd de beste keuze. 8-)
Ik merk dat het me helemaal niets meer boeit dit soort nieuws of videokaarten in zijn algemeen door de achterlijke prijzen die ze hanteren.

Jammer. Was altijd leuk om in de gaten te houden.
Exact dit, ze hebben de fun er helemaal uitgeperst...

Op dit item kan niet meer gereageerd worden.