Gerucht: RTX 5090 krijgt PCIe 5.0- en DisplayPort 2.1-ondersteuning

Nvidia's nieuwe RTX 50-serie zou krijgt volgens nieuwe geruchten ondersteuning voor PCIe 5.0. Ook zouden de kaarten ondersteuning krijgen voor DisplayPort 2.1a. De kaarten worden volgens de geruchten tijdens CES in januari aangekondigd.

Dat blijkt uit nieuwe informatie van BenchLife, kort nadat er eerder deze week al geruchten naar buiten kwamen over de RTX 5090 die een 512bit-geheugenbus krijgt. BenchLife meldt dat specifiek de RTX 5090 een nieuwe pcb-layout krijgt, maar ook voor het eerst een PCIe 5.0-aansluiting. Daarmee worden de gpu's geschikt voor de nieuwste generatie moederborden van AMD en Intel.

De geruchten stellen ook dat de gpu's ondersteuning krijgen voor DisplayPort 2.1a of UHBR20. Daarmee zou het mogelijk zijn 16K-schermen aan te sturen met een verversingssnelheid van 60Hz. Er gingen aanvankelijk ook onwaarschijnlijke geruchten rond over de stroomtoevoer van de kaarten, die stelden dat die twee 12V-2x6pinsconnectoren zouden krijgen. BenchLife schrijft nu dat dat definitief niet gebeurt en dat de RTX 50-gpu's een enkele standaard 12V-2×6-connector krijgen.

BenchLife bevestigt ook dat de nieuwe gpu-generatie pas volgend jaar wordt aangekondigd. Dat gebeurt naar verwachting tijdens CES, de beurs die in januari in Las Vegas plaatsvindt. Dat bevestigt eerdere berichtgeving van Tweakers; deze zomer wisten bronnen ons al te melden dat de RTX 50-serie was uitgesteld tot 2025, al was toen nog niet duidelijk dat het specifiek om een CES-release zou gaan.

Door Tijs Hofmans

Nieuwscoördinator

27-09-2024 • 18:18

79

Lees meer

Reacties (79)

79
79
27
1
0
42
Wijzig sortering
Tja dat van DisplayPort 2.1 werd al langer rondgeslingerd, eindelijk, PCI-E 5.0 was ook een no-brainer met de huidige moederborden die allemaal PCI-E 5.0 ondersteunen, nu nog de verticale mounts met PCI-E 5.0.

18 November 2023:
https://videocardz.com/ne...t-2-1-using-tsmc-3nm-node
PCI-E 5.0 was ook een no-brainer met de huidige moederborden die allemaal PCI-E 5.0 ondersteunen
Zo gangbaar is dat niet hoor. Maar mensen die een 5090 halen zullen ook wel een high end mobo hebben.
Gangbaar is wat anders dan dat de huidige generaties moederborden dat veelal wel hebben, al sinds Alder-Lake in 2021 met de Z690/LGA-1700 generatie, maar velen zullen nog oudere platformen bezitten.

Maar het is wel een no-brainer om dat bij nieuwe producten te implementeren, vond het gebruik van DisplayPort 1.4 bij de RTX 4090 al zo mank omdat die kaart prima capabel is voor hoge refreshrates op 4K en dat kan hij niet eens zonder compressie uitsturen.

En wat iemand anders al opperde is natuurlijk in het geval dat je PCI-E lanes, bijvoorbeeld door gebruik van een M.2 slot die de lanes deelt, je PCI-E 5.0 degradeert naar een 8x slot, dat zal dan wel in lijn zijn met een PCI-E 4.0 16x slot in bandbreedte en dan begint die bandbreedte wel mee te tellen.

Maar mijn inziens moeten ze niet zo gierig doen met de PCI-E lanes bij CPUs, zeker bij Intel, er kunnen er prima meer op.
Maar mijn inziens moeten ze niet zo gierig doen met de PCI-E lanes bij CPUs, zeker bij Intel, er kunnen er prima meer op.
Dit is helaas voor segmentatie.. Als ze dat zouden doen dan worden de consumenten processoren te interessant ten opzichte van de Xeon's en EPIC's.
En vergeet de Threadrippers niet. Die zitten mooi tussen de Ryzens en de EPYCs in. Performance van een Ryzen, maar dan met een hele berg PCI lanes, en soms, maar niet per se, wat meer cores.

[Reactie gewijzigd door hooibergje op 28 september 2024 14:08]

Gangbaar is wat anders dan dat de huidige generaties moederborden dat veelal wel hebben, al sinds Alder-Lake in 2021 met de Z690/LGA-1700 generatie, maar velen zullen nog oudere platformen bezitten.
Je kan het idd al heel lang krijgen. Maar bij socket AM5 zijn B650 borden het populairst en daar heeft maar 20% een pci-e 5.0 x16 slot.
Mja dat zal dan vaak ook niet de doelgroep zijn, maar dat is ook niet waar deze producten zich op focussen natuurlijk, bedrijven gaan hun high-end producten niet limiteren op basis van mid-range/budget chipsets die veel features ontberen.

Plus het is altijd backwards-compatible.

[Reactie gewijzigd door CriticalHit_NL op 27 september 2024 22:30]

Een 5090 heeft er misschien profijt van, een 5080 en zeker 5070 niet. Een 5070 zul je veel eerder zien bij een B650 bord. Want een 5090 is natuurlijk verre van populair omwille van de prijs, en net prijs is waarom de B650 wel zo populair is.
Als je serieus in de markt bent voor een 5090, dus net zo makkelijk duizend euro extra neerlegt voor relatief beperkt extra performance, of zo specifiek een 4090/5090 nodig hebt voor scientific of AI met veel VRAM, dan komt op zo een grote uitgave dat PCI-E 5.0 moederbord echt wel goed....
Nee maar het is de top kaart. Natuurlijk moet die PCI-E 5.0 hebben in 2025.

Waar heb je anders die sloten voor?

Ik vond het al jammer dat mijn 4090 het niet had (en idd ook de lagere displayport zoals @CriticalHit_NL zegt. Niet dat ik er nu al baat bij heb maar je koopt zo'n ding voor topprestaties.

[Reactie gewijzigd door Llopigat op 27 september 2024 20:20]

De vraag luidt dan hoeveel sneller is pciexpress 5.0 tov 3.0of 4.0?
https://www.techpowerup.c...4090-pci-express-scaling/

PCI-E 5.0 8x is ongeveer gelijk aan PCI-E 4.0 16x, dus 5.0 16x is dubbel zo snel als 16x 4.0
bedankt voor je reactie ,het verklaard veel.
Gaat de 5090 dan zoveel bandbreedte kunnen gebruiken dat het PCI-E 5.0 nodig heeft?
Want met de 4090 gaf nvidia aan dat het maximum van PCI-E 4.0 nog niet in de buurt kwam van wat de 4090 maximaal kan gebruiken.
Persoonlijk denk ik dat je dan genoeg bandwidth hebt, zelfs als je een moederbord gebruik waar je GPU lanes in twee worden gesplit voor extra M.2 slots. PCIe 5.0 x8 = 4.0 x16 qua snelheid, dus dat is nog meer dan snel genoeg.

Of ze doen weer het zelfde als ze deden met RTX30 en RTX40, vergelijkbare PCB's gebruiken om kosten te besparen. Dus dat de volgende generatie ook weer vrijwel hetzelfde PCB gebruikt (dus ook nogsteeds PCIe 5.0 en de output opstelling) en je dus een beetje kan futureproofen.
Geloof dat je bij pci5 ook minder lanes nodig hebt en dat dat ook verbruik daardoor lager kan.
Heeft het mss niet nodig maar het geeft toch weer een paar procent extra performance.
Gaat de 5090 dan zoveel bandbreedte kunnen gebruiken dat het PCI-E 5.0 nodig heeft?
Want met de 4090 gaf nvidia aan dat het maximum van PCI-E 4.0 nog niet in de buurt kwam van wat de 4090 maximaal kan gebruiken.
Ehh. Als 8x PCIE 5.0 genoeg is betekent het dat je kan bifurcaten en die andere 8 lans voor iets anders kan gebruiken.

Dus 5.0 is zeker wel welkom
nee dit is puur zodat NVIDIA denk ik niet word afgezeken op gebruik van verouderde standaarden OF omdat men voor de hele stack maar 1 PCI connectie wil hebben en dat dus zowel business en gaming op PCI 5.0 zitten

beide zijn aannames van mij dus als iemand betere speculaas heeft hoor ik het graag
Gaat de 5090 dan zoveel bandbreedte kunnen gebruiken dat het PCI-E 5.0 nodig heeft?
Want met de 4090 gaf nvidia aan dat het maximum van PCI-E 4.0 nog niet in de buurt kwam van wat de 4090 maximaal kan gebruiken.
In typische gebruiksdoeleinden (gaming) ja. Maar de inzichten op dat gebied veranderen natuurlijk ook steeds. En er komen nieuwe gebruksdoeleinden bij zoals nu de AI LLM inferentie.

Het punt is dat je zo'n kaart niet voor 1 jaartje koopt en als je zo'n enorme prijs betaalt, wil je ook het beste op specs gebied hebben.

[Reactie gewijzigd door Llopigat op 27 september 2024 20:22]

Dat 1 jaar of meer doet er niet toe als de kaart op z'n max (of dat nou gaming of AI LLM of wat dan ook is) niet voorbij de PCI-E 4.0 spec komt, dan is het nog steeds niet nodig.

Ik ben dus erg benieuwd, als het waar is, hoe nvidia het gaat uitleggen waar PCI-E 5.0 voor nodig is.
Dit doet er echt wel toe het gaat niet alleen over bandbreedte.

De standaard is compatibel met de vorige en als gamer merk je daar misschien niet veel van. Omdat bepaalde features niet gebruikt worden in games. Maar je hebt een enorme verbetering in signaal integriteit en een hoop extra features die voor AI, gaming en (semi) professionele workloads en applicaties echt wel een meerwaarde kunnen hebben en zijn.

Bijvoorbeeld de Compute eXpress Link technology, die bouwt op de PCIe 5.0 standaard en CXL dan o.a. de Coherent Accelerator Processor Interface (CAPI) ondersteunt "designed to be layered on top of PCI Express, for directly connecting central processing units (CPUs) to external accelerators like graphics processing units (GPUs), ASICs, FPGAs or fast storage. It offers low latency, high speed, direct memory access connectivity between devices of different instruction set architectures." Ook alle nieuwe en geavanceerde geheugentechnieken zoals AMD 3D V-Cache en de Infinity Fabric hebben speciale ondersteuning hiervoor. Ik kan nog even blijven door gaan hoor ...

Je kan zelf de voordelen of specificatie van 5.0 opzoeken. Maar ik zal de basis hier neerzetten, aangezien je voor de volle officiële specs een account nodig hebt. https://pcisig.com
What new capabilities and features does PCIe 5.0 add in addition to increased bit rate?

As with prior generations, PCIe 5.0 adds some new optional capabilities and features. These include:

Alternate protocol support – This feature allows non-PCIe protocols to be based on the high-performance and robust PCIe PHY layer. This allows such protocols to be developed much more quickly.

Bypass Link equalization options – Two equalization bypass options are added: No Equalization Needed, and Equalization Bypass to Highest Data Rate. These bypass options can be used to reduce the time needed to bring up a PCIe Link to its highest data rate at start-of-day.

Precoding – Added to avoid LCRC/CRC aliasing for cases where a received clock-like bit pattern can lead to contiguous burst errors.

Component Measurement and Authentication (CMA) – Added to PCIe 5.0 by way of an Engineering Change Notice (ECN), CMA provides the mechanisms to perform security exchanges with a component or a Device Function. This capability, for example, provides the means to establish the hardware and firmware identities of a Function before assigning it to a Virtual Machine.

Integrity and Data Encryption (IDE) – Added to PCIe 5.0 by way of an ECN, this capability provides confidentiality and integrity protection for communications between two Ports connected through one or more PCIe Links.

What is Precoding and why is it needed?

For certain Decision Feedback Equalizer (DFE) settings, certain received bit patterns, such as clock patterns, can cause contiguous burst errors, which in turn can cause LCRC/CRC aliasing. Precoding involves XORing the current bit with the previous bit. That has the effect of converting long contiguous burst errors into two random bit flips that can be reliably detected by CRC. PCIe 5.0 adds the ability for Link partners to request precoding at data rates where one partner or the other requires it.

Retimers were introduced with PCIe 4.0. Up to two Retimers are allowed between the Upstream Port and the Downstream Port of a Link. They are used when necessary to reliably extend the achievable channel length between two PCIe Ports. PCIe 4.0 and PCIe 5.0 Retimers are Physical Layer protocol aware. That is, they participate in Link Equalization, and they adjust their data rate of operation and their Link width in concert with the Upstream and Downstream Ports of the Link

Edit Die kaarten zijn ook niet alleen "gamer kaarten" meer. Als je ze zo gebruikt dan zijn het natuurlijk heel duren GPU's (waar iedereen over klaagt).

[Reactie gewijzigd door sam1987 op 28 september 2024 01:20]

Dit doet er niet alleen toe (de maximale bandbreedte) je hebt veel andere features die PCI-E 5.0 ondersteund. Deze standaard is compatibel met vorige versies, maar die features heb je niet en zijn wel vrij belangrijk. Wil je die lekkere directe low latency communicatie tussen een van deze: CPU, GPU, Memory en snelle storage? Of een extra accelerator, je 3D V-CACHE etc. ?

Ik heb de specs en mogelijkheden hieronder in andere post al gepost ;) deze 2 zijn zeer belangrijk

integrity and Data Encryption (IDE) – Added to PCIe 5.0 by way of an ECN, this capability provides confidentiality and integrity protection for communications between two Ports connected through one or more PCIe Links.

Alternate protocol support – This feature allows non-PCIe protocols to be based on the high-performance and robust PCIe PHY layer. This allows such protocols to be developed much more quickly. Dit is voor CXL en CAPI-API ondersteuning.
Bestaan er al 16k monitoren dan?
Maar sowieso wel handig die nieuwe displayport versie voor hoge refresh rate 4K of zelfs 8K
Bestaan er al 16k monitoren dan?
Er wordt iig wel aan ontwikkeld, zie bijvoorbeeld nieuws: BOE demonstreert 110"-lcd-paneel met 16K-resolutie en 60Hz-refreshrate

Maar voorlopig zou ik er niet op rekenen dat je ze snel in consumenten-setups zult tegenkomen nee. Maar zo'n kaart kan natuurlijk rustig 5+ jaar mee gaan, dus wellicht komt er dan wel iets in die richting op de markt.
Dat is best indrukwekkend, en natuurlijk toekomstgericht ja. Hoewel op een gegeven moment ik me afvraag hoeveel resolutie we nodig hebben.
Je hebt in feite niet meer nodig dan 1080p om heel eerlijk te zijn. En toch is 4K fijner. En ik denk dat het op die manier altijd door blijft gaan.
Voor mij is een 4k toch echt een must. Ik speel al jaren met een resolutie van 3840x2160 en als ik op een lagere resolutie speel, zie ik echt niks meer.

Als ik zo'n spellen speel zoals Hunt:Showdown, Escape from Tarkov of andere shooters, kan ik geen verschil meer zien tussen een struikje en een persoon op langere afstanden. Alles is dan zo blokkerig.

Ook op een 1080p scherm heb ik dit probleem. In 4k heb ik hier geen enkele last van, op mijn 4k scherm spot ik vijanden veel sneller dan mijn 1080p scherm.

Strategie spellen maken mij niet zoveel uit.

[Reactie gewijzigd door Toonen1988 op 27 september 2024 18:51]

Wat voor jouw een must is betekent niet dat dat ook over het algemeen nodig is.

1080p kan iedereen prima mee over weg.
Daarom begin ik ook met "voor mij". ;) Het is gewoon een antwoord op je tekst "Je hebt in feite niet meer nodig dan 1080p om heel eerlijk te zijn." Voor mij wel, want het beïnvloed wel degelijk mijn gameplay.

Dat 4k fijner is, ben ik helemaal met jou eens.

[Reactie gewijzigd door Toonen1988 op 27 september 2024 19:15]

Als je pedantisch gaat doen over "nodig"... niemand heeft wat dan ook aan gaming apparatuur "nodig". Het is nou niet bepaald een eerste levensbehoefte.
Maar als je een beetje begrijpend leest dan kun je bedenken dat er gedoeld werd op dat we ergens op een punt komen dat je geen voordeel meer hebt van nog hogere resolutie. Onze ogen zijn op een gegeven moment de beperking (al hangt dat natuurlijk vooral ook af van formaat scherm en kijkafstand en is er ook nog aardig wat verschil van persoon tot persoon).
Ja. Hoe heb ik dan ooit kunnen gamen in mode-x 320x240. In die dos tijdperk. Die 800x600 sli toen was mij te duur 2d kaart en 2 dure 3d addon..
Die 4K manie slaat nergen op. Het niet nodig het is game luxe. Tot tussen de oren.
Ik heb wel use case daarvoor. Arma waar je rustig in omgeving struind om opfor op 300++ meter te zien en spotten,voordat zij jouw spotten. Want dan maak je kans tegen AK47 spray. Dan heeft het core gameplay invloed.
Voor de meeste corridor shooters is 720p omslagpunt elke stap erna wordt steeds minder merk baar naast scherm grote en afstand daar ook nog flinke invloed op heeft.
De stap naar 1080p is merkbaar, 1440 subtieler. 4k grote monitor 00 visie ,subtiel merkbaar. 16k zal de monitor keuze al te klein zijn om daar iets aan te hebben.

Een pro fotograaf zou aan zeer grote monitor 16k wel iets aan hebben.
Ik heb nu 4K 32” en 1440” 32” naast mekaar PS5 zie ik geen verschil. Heb hem linker staan de 4K is 120hz free-sync en dus mogelijk lagere inputlag.

4k wil wel hebben voor meer canvas real estate. Als meer source code overzicht maar dan moet ik flink stuk groter gaan dan 32”
Ik game nou op een 42" oled tv (dus 4k/uhd). Nodig? Neuh, alhoewel ik op de 32 QHD monitor die ik daarvoor had (en die ik wat dichterbij mijn gezicht had en flink curved was waardoor het effectieve formaat verschil niet zo groot is als het klinkt) toch wel het gevoel had dat het wat scherper mocht zijn.
Maar nodig is sowieso een aparte term bij gaming... Gaming doe ik voor mijn plezier en die TV, met zijn resolutie en sublieme kleuren, zwart en motion clarity verhogen absoluut het plezier wat ik ervaar. Dus nuttig is het absoluut :) (misschien niet qua game prestaties, maar dat is ook niet mijn doel)
sweetspot voor mij ligt op 1440p, al dan niet upscaled naar 4k. Daarna geef ik meer om hogere refreshrates etc (al vind ik op dat vlak 90 a 120hz eigenlijk ook wel het mimimum..)

[Reactie gewijzigd door PjotterP op 27 september 2024 19:53]

[quote
Ook op een 1080p scherm heb ik dit probleem. In 4k heb ik hier geen enkele last van, op mijn 4k scherm spot ik vijanden veel sneller dan mijn 1080p scherm.
[/quote]
Ik weet niet of de shooter een multiplayer game is maar als je voordeel hebt met een hogere resolutie dan zou ik als ontwikkelaar deze oneerlijke situatie ongedaan maken.
Dat betekent dat iemand die genoeg geld heeft voor een kaart die op 4K kan spelen en ook een 4K monitor heeft opeens vaker kan winnen.

En ja ik weet dat er genoeg zaken zijn waardoor echte prof gamers voordeel halen maar ik ben niet snel genoeg daarvoor :)
Maar dan moet je ook ervoor zorgen dat iedereen dezelfde muis gebruikt, zelfde contrast, hoe zit het met mensen die lagere hardware hebben en daardoor net tegen de 60 fps aanzit. Hoe zit het met de refresh rate van schermen.

En ga zo maar door. :)

Er zal altijd een onderscheid zijn in de gaming wereld. Dan moet ook iedereen dezelfde ping hebben, dezelfde hardware, dezelfde muis en toetsenbord, allemaal dezelfde monitor.

[Reactie gewijzigd door Toonen1988 op 27 september 2024 21:39]

Ik zie op wimbledon ook niet iedereen met t zelde racket spelen. Materiaal is vaak iets waar je voordeeltjes mee kan behalen in sport.
Is gewoon persoonlijk, ik weet nog heel vroeger als kind dat onze PC moto racer op 640x480 aan kon zei de buurman, want dat wisten wij niet. Toch bleef ik spelen op 320x240, want dat reed soepeler.
4k is toch wel fijn voor games. 1080p lijkt al gauw onscherp en blokkerig zeker zonder AA. Hoge AA lost dit wel op met meer schilderij effect en out of focus. 4k sowieso scherp en ook geen aa nodig of maar laag. Ik speel dan ook op 55 inch van 1a1.5 meter afstand dus dan is 1080p gewoon lelijk. Met 27-28 inch zal wel wat minder zijn. Met films etc zie ik vaak niet super veel verschil tussen 1080p of 2160p vergeleken met games die overduidelijk beter uitzien. Wel denk ik dat boven 4k niet echt meer nut heeft tenzij heel groot scherm is en je dicht op zit.
Theoretisch zou je op een 55 inch op anderhalve meter afstand een mindere resolutie nodig hebben dan een 27 inch op 50 centimeter afstand, zoals een normale opstelling.
Er is nooit een goede reden (behalve performance) om geen AA toe te passen bij het genereren van een beeld, zelfs als je de individuele pixels niet meer kunt waarnemen.
Je zou denken dat er ooit een punt komt waar je het echt niet meer ziet alzeker voor kleine schermen... Maarja, geen idee waar dat ligt. Ooit zullen we daarachter komen
Zelfs op een 110" scherm zie ik het nut van 16k niet echt, voor een standaard monitor of tv is dat echt overkill, daar is 8k al in principe overdreven.
Gaat 16K met gemak niet voorbij de resolutie van het menselijk oog?
In principe wel, maar het gaat meer over meer kleurendiepte (12/16bit) en ook hogere refresh rates. Daarnaast kan DP ook meerdere schermen op 1 verbinding doorlussen.
Heb altijd steeds de snelste kaarten gekocht, kan het mij veroorloven.
Maar een kaart die 600Watt verbruikt zie ik toch echt niet zitten.
Ok... ben ik het mee eens, maar waarom zeg je dat? In het artikel staat niks over hoeveel de kaart zou gaan verbruiken. Alleen dat hij maar één connector krijgt (die maximaal 600W kan leveren, dat wil niet zeggen dat de kaart dat ook gaat trekken).

edit: Vaag, nou zie ik andere mensen hieronder ook al over die 600 watt... is het artikel aangepast of zo of ben ik blind? Dacht eerst dat het misschien in de video genoemd werd maar als ik daar zo snel even naar kijk lijkt die video helemaal niet over de 5090 te gaan (en geen zin om 10 minuten video te kijken om te zien of het ergens tussen neus en lippen gemeld wordt).

[Reactie gewijzigd door Finraziel op 27 september 2024 19:25]

Helemaal mee eens. Eerlijk gezegd vind ik meer dan 300W eigenlijk al bizar veel. Zeker omdat videokaarten tegenwoordig af fabriek standaard zo worden geleverd zo dat 50% van het verbruik misschien maar goed is voor de laatste 10% extra prestaties.
Positieve noot: De oudere videokaarten die volop moesten stampen om je gewenste framerates te halen zullen wellicht meer verbruiken met minder performance dan enkele nieuwere generaties voorruit die uit de neus lopen te vreten, tenzij je de framerates nog hoger onbegrensd wilt laten oplopen wat niet voor elke titel nodig is bijvoorbeeld 600+ fps.
600 watt is maximaal.
Als je erop gamed kom je op 250/300watt misschien.

Nog even undervolte en er is niks aan de hand.
Super, dat mag ook wel voor de bedragen die tegenwoordig worden gevraagt voor een beetje GPU.
Maar 600 watt? waar is de tijd dat ik een 600watt psu nodig had voor mijn gehele pc? ik wacht nog even af, maar ik denk dat ik toch maar ga kijken naar een rtx 4080 super of 4090.
Let wel, 600watt is een gerucht, niet bevestigd. Het feit dat deze waarschijnlijk maar 1 stroom connector krijgt (welke maximaal 600watt aan kan) doet mij vermoeden dat de 5090 toch minder zal verbruiken.
1000 watt psu's dateren al van 2005, toen had je sli en redelijk hongerige cpu's en hdd's.
In de jaren '90 had ik al een HP-UX workstation met een kW PSU :)
De 4090 gaat schijnbaar uit productie binnenkort, als dat al niet het geval is.
480hz oled wordt genieten!
eindelijk DP 2.1 en de volledige bandbreedte ook nog eindelijk
16K schermen, mis ik ergens iets ?

Ben al jaren trots op mijn 4K scherm en die kwaliteit is echt top,
heb al 8K schermen gezien op plaatsen wat niet echt een must is tegenover 4K momenteel
Mogelijk wel voor VR ..
maar nog nergens 16K en ook nog nergens gehoord dat dit eraan zit te komen.
We hebben op het werk 3 meter brede 4k schermen in vergaderzalen hangen. 16K kan op een dergelijke grote zeker nog wat toevoegen.
3 meter .. ja, op die manier dus wel. Wat was de kostprijs daarvan ? .. :X Geschikt voor gamen .. :D
<beetje off topic>
Maar op het werk hebben we ook van die indrukwekkende schermen ... Om dan in Teams meetings te zitten. Waar de collega met een 1080p schermpje door een excel of een of ander dashboard zit te raggen.

Of als je dan zelf aant het sharen bent vanaf je 4k scherm(en) te moeten horen. 'Zeg kan je niet wat inzoomen, want ik zie niets'.

En ja hoor, ik weet dat 1080p verknochte mensen ook client side kunt zoomen, maar dan krijg je een paar minuten later , ik kan niet meer volgen want ze zien de knop niet meer of de muis niet meer.

Of ooh weee, als je terwijl je shared vanaf uw 4k met pijltje links/recht rap eens een paar schermen naast elkaar zit.... 'We zien niets'

[Reactie gewijzigd door blahenazo op 27 september 2024 19:59]

Er gingen aanvankelijk ook onwaarschijnlijke geruchten rond over de stroomtoevoer van de kaarten, die stelden dat die twee 12V-2x6pinsconnectoren zouden krijgen. BenchLife schrijft nu dat dat definitief niet gebeurt en dat de RTX 50-gpu's een enkele standaard 12V-2×6-connector krijgen.
Als K|NGP|N met PNY in zee gaat en wel daadwerkelijk videokaarten gaat uitbrengen dan komen er wel twee connectoren op beweerde hij zelf op video, en in de lengte van de videokaart omdat dat de koelste en meest toegankelijke praktische plek is op de videokaart.

Zie video:
YouTube: "EVGA is Gone" | KINGPIN's Future, NVIDIA RTX 5090 Plans, & Lab Tour
Ik ben erg benieuwd of de 5090 die PCIe 5 bandbreedte kan verzadigen…
Ben eerder benieuwd of de 5090, en ook de 5080 en 5070 over de PCIe 4.0 bandbreedte grens kunnen gaan. Zo niet, is de PCIe 5.0 functionaliteit grotendeels een gimmick.

Op dit item kan niet meer gereageerd worden.