VideoCardz: foto bevestigt dat Radeon RX 9060 XT drie monitoraansluitingen heeft

AMD's aankomende Radeon RX 9060 XT is beperkt tot drie displayoutputs. Dat zegt VideoCardz op basis van een afbeelding van een Acer-videokaart die op X is verschenen. De RX 9060 XT wordt verwacht tijdens de Computex-beurs in Taipei.

De bekende leaker @momomo_us heeft de foto van een AcerAMD Radeon Acer RX 9060 XT Nitro Nitro-videokaart gedeeld op X. In een aanvullende screenshot van de website van een Zwitserse computerwinkel zijn de Nitro RX 9060 XT 16G OC en 8G OC te zien. Volgens de beschrijving hebben deze videokaarten twee DisplayPorts en een enkele HDMI-connector, wat overeenkomt met de gedeelde foto. Dat aantal aansluitingen werd eerder genoemd in geruchten, onder meer door VideoCardz. Verder is op de afbeelding een 8-pins-PEG-connector te zien.

De vermeende Navi 44-chip van de RX 9060 XT zou voornamelijk gericht zijn op laptops, waardoor het aantal displaystreams in de gpu beperkt zou zijn. Dat was ook het geval bij de RX 6500 XT, die begin 2022 op de markt kwam en beperkt was tot twee monitoraansluitingen.

De RX 9060 XT beschikt naar verluidt over 2.048 streamprocessors, precies de helft van het aantal rekenkernen van de RX 9070 XT. Volgens geruchten kan de gpu een boostkloksnelheid van maximaal 3,3GHz bereiken. Er staan naar verluidt uitvoeringen met zowel 8GB als 16GB videogeheugen op de planning.

AMD heeft zelf bevestigd dat het de RX 9060 XT in het tweede kwartaal op de markt brengt. Geruchten wijzen op een aankondiging tijdens de Computex-beurs, gevolgd door de release rond begin juni. Naar alle waarschijnlijkheid gaat de fabrikant zijn nieuwste gpu onthullen tijdens de Computex-keynote van 21 mei, om 05.00 uur Nederlandse tijd.

Acer RX 9060 XT Nitro ADS Electronic Dillinger

Door Idriz Velghe

Redacteur

09-05-2025 • 19:06

73

Reacties (73)

73
72
33
0
0
38
Wijzig sortering
Is het weer tijd voor een kleine discussie over DP vs HDMI? Op m'n werk hadden we altijd DP maar tegenwoordig zie je voornamelijk HDMI. Waarom zou een grafische kaart 2 DP en (maar) 1 HDMI aansluiting hebben?

Zijn er eigenlijk al kaarten met een USB-C aansluiting? We hebben van die docking-schermen met USB-C, wat best handig is, maar zo benut je nauwelijks de grafische kaart.
Op wat voor schermen (en kaarten) is dat dan? Ik zie juist het tegenovergestelde, HDMI is zakelijk op sterven na dood en ik zie het eigenlijk alleen nog gebruikt worden voor presentatie schermen met oudere laptops die enkel HDMI hebben. Ook bij particulieren lijkt het enkel nog gebruikt in combinatie met TV's en andere AV apparatuur.

Ik zie juist eigenlijk alleen nog display port gebruikt worden (zowel zakelijk, bijv op desktop / workstation systemen en laptop dockings, als particulier, in bijv. gaming builds en prosumer workstations), of USB-C (op moderne laptops en sommige PC's maar dat is onderwater ook gewoon displayport geloof ik)

[Reactie gewijzigd door Dennism op 9 mei 2025 22:27]

Mijn oude laptop van HP op het werk had een DP, de nieuwe heeft een HDMI... hoe kan het dan dood zijn?
Dit kan ik bevestigen. Ook met HP als laptopmerk, en de nieuwe baseline configuratie in het hele bedrijf waar ik werk.
Wij beheren 80.000 werkplekken wereldwijd.
USB-C is tegenwoordig standaard voor monitoren op bureaus, soms nog HDMI + USB-A als het oudere monitoren zonder USB-C zijn.
HDMI is standaard voor connectie naar schermen en videoconf systemen in vergaderkamers.
Waarom? Zakelijke laptops hebben als sinds jaren alleen HDMI en USB-C.
DP is alleen voor desktops (hebben we nauwelijks meer) en docks (idem, is nu USB-C vanuit de monitor).
Ja, dat is dus exact wat ik aangeef, HDMI op oude meuk en soms in vergaderruimtes (wij zien daar steeds meer wireless mirroring gebruik worden in modern ingerichte vergaderruimte, HDMI is daar dus ook op de retour) en de rest DP (Want USB-C is zoals ik al dacht gewoon DP via een USB aansluiting en docks met primair HDMI zie je al jaren niet meer, is allemaal ofwel USB-C naar de monitor of iets als de HP G5 met USB-C naar een dock met primair DP aansluitingen en secundair misschien 1 HDMI poort.

Denk dat mensen bij DP vooral aan de grote connector van de desktop denken, en niet aan het DP protocol an sich, dat over veel verschillende poorten kan lopen.

[Reactie gewijzigd door Dennism op 10 mei 2025 11:21]

Op wat voor schermen (en kaarten) is dat dan?
uitvoering: LG UltraGear 32GP850-B Zwart en veel andere LG monitoren bijvoorbeeld.
Dat is een scherm van 4+ jaar oud, en heeft gewoon DP en HDMI, dat zegt dus niet over het gebruik van HDMI tegenover DP in de (zakelijke) praktijk. Daarnaast verwacht ik niet snel dat een scherm als dit veel zakelijk gebruikt zal worden, lijkt meer een gaming scherm.

Bij een modern scherm voor zakelijk kantoor gebruik denk ik eerder aan bijv. een setje van dit soort schermen op het bureau: https://www.dell.com/nl-n...itoren-monitoraccessoires

En dan zie je ineens nog maar 1x HDMI, maar wel 2x DP in (1x standaard DP, 1x DP over USB-C) en 1x DP uit voor het doorverbinden van DP schermen.
DP is de nieuwe en betere standaard, met veel meer bandbreedte (80gbit vs 48 gbit).
HDMI is nog gebaseerd op het oude DVI, maar door de populariteit (hoofdzakelijk in TV & Hifi) ervan heeft DP nooit echt veel populariteit verkregen, dat komt eigenlijk pas de laatste jaren nu de resoluties en refresh rates flink beginnen te groeien.
Wel wonderlijk want onze 'oude' HP laptops hadden stug allemaal DP en dat was altijd gedoe omdat de meeste schermen geen DP hebben, dus hadden we onhandige kabels etc. De nieuwere HP's hebben allemaal HDMI, ook de schermen. In mijn optiek was DP iets ouds, net als VGA en DVI.
Ach, tegenwoordig hebben ze (DisplayPort over) USB-C.

Maar ja, bij een bedrijf is het vaak dat je je laptop aan een (TV)-beeldscherm of projector hangt, die zijn vaak HDMI.

Computer monitoren hebben toch vaak beide.

Maar in principe heeft bij computers DVI de voorkeur en bij TV/versterker/soundbar/console weer HDMI.

[Reactie gewijzigd door Accretion op 10 mei 2025 08:22]

HDMI moet vooral dood omdat je er licentiekosten voor moet betalen. Wat bij DP niet nodig is.
Maar HDMI verkoopt het agressief, o.a. dat het logo op de voorkant van het apparaat moet staan om korting te krijgen op de licentiekosten.
Zijn er eigenlijk al kaarten met een USB-C aansluiting
Of ze bestaan weet ik niet maar het is nogal een ingewikkelde en omslachtige interface om op een GPU aan te brengen, dan moet je gelijk een USB controller gaan toevoegen of een USB-C poort maken die alleen maar DP Alt mode ondersteunt en verder niks (als dat al mogelijk is). En dan krijg je weer dat gebruikers gaan zeuren dat het niet werkt als ze via die aansluiting met een dock verbinden en verwachten dat het werkt.

Wat je wel eens ziet is een moederbord met een DP in poort waarmee je het beeldsignaal van een GPU aan een USB-C controller kunt geven zodat die het kan meesturen via USB-C. En bij IGP’s is dit al intern zo gewired op het moederbord.
Mijn reference 6900XT had usb C en ook mijn huidige 7900XTX reference heeft het. Het is vooral gewikd bij VR gamers aangezien je makkelijk veel soorten headsets kan verbinden via USB C.
Ok ja klinkt logisch, ik had het ook wel handig gevonden maar heel erg gangbaar is het niet zo te zien. Ik zie maar 9 GPU’s in pricewatch met USB-C waarvan twee workstation GPU’s van €3000+, 1 stokoude Radeon Pro, en inderdaad een paar 6900XT en 7900XT
Wellicht dat je op een HDMI poort meer royalitys moet betalen en dus duurder is dan het erop zetten van een DP poort connector?

Mijn eigen voorkeur gaat liever uit naar DP.. Aangezien de montage wijze met die haakjes juist erg secure vind.
HDMI gebruik ik liever meer voor consoles en TV dingen.
Is het weer tijd voor een kleine discussie over DP vs HDMI? Op m'n werk hadden we altijd DP maar tegenwoordig zie je voornamelijk HDMI. Waarom zou een grafische kaart 2 DP en (maar) 1 HDMI aansluiting hebben?
Sinds de RTX 2000 series hebben videokaarten over het algemeen meer DisplayPort dan HDMI, omdat DP meer bandbreedte heeft.
Zijn er eigenlijk al kaarten met een USB-C aansluiting? We hebben van die docking-schermen met USB-C, wat best handig is, maar zo benut je nauwelijks de grafische kaart.
Gigabyte heeft met de RTX 2000 series USB-C gehad op een groot deel hun videokaarten, maar dat werd volgens mij nauwelijks gebruikt, want bij de RTX 3000 kaarten waren ze al weer verdwenen.
Ook de high end AMD RX 6000 en 7000 kaarten hebben USB-C.

[Reactie gewijzigd door Militia Pilot op 9 mei 2025 22:39]

DP was vanuit mijn ervaring op kantoor iets van het verleden. Wij hebben voornamelijk van die HP EliteBooks die vroeger altijd met DP kwamen, maar tegenwoordig allemaal met HDMI. Handig als je h'm wilt aansluiten op je TV of zo.

Ok, dus USB-C is ook niet echt geland. Ik vond het eigenlijk wel makkelijk om alles via één kabeltje te doen.
Zoiets is met een HDMI <> DP kabel natuurlijk ook zo opgelost.
Zover ik weet waren dat de VirtualLink poorten.
Dit was bedoeld voor VR, maar er waren destijds amper tot geen headsets die hiervoor daadwerkelijk ondersteuning hadden (en de standaard was dan ook niet helemaal perfect) dus was het stilletjes gestorven.
Ik denk dat de doorsnede van het venndiagram van mensen die meer dan 3 connectoren nodig hebben en mensen die een RX9060XT overwegen erg klein is.

en dan zijn er natuurlijk altijd nog splitters.

[Reactie gewijzigd door Sachertorte op 9 mei 2025 19:18]

Je bedoelt DP MST? Ik denk dat dat nog lastig wordt als er echt maar 3 display streams zijn: DP MST zet meerdere display streams op een kabel, maar dan moeten die er wel zijn.
Snap het probleem niet…. Ik heb maximaal 2 monitoren tegelijkertijd aangesloten… hoogstens een enkele keer een derde monitor erbij.
Ken niemand die meer dan 3 monitoren heeft..
Ik heb zelf 3 monitoren waarop ik werk en game, en 1 naar de televisie. Ik zoek ook altijd een kaart met 4 aansluitingen, gelukkig zijn daar genoeg van.
Ik gebruik 3 x DP voor het sim racen. En de HDMI poort heeft bij mij een dubbele functie. Er ligt een HDMI naar de versterker voor de 5.1 speakerset van de simulator, zodat ik gebruik kan maken van Nv Hd Audio. En een tweede HDMI voor aansluiting van de game televisie een stukje verderop. Volgende videokaart wordt een 3 x DP en 2 x HDMI zodat ik geen kabels meer hoef te wisselen. Daar zijn er wel wat minder van op de markt maar dat is een 1e-wereldprobleem. Kijk nu al uit de komst van die vijfde poort!
Misschien een oplossing om de eventuele HDMI van het moederbord te gebruiken voor de audio? Ik heb dat ooit een tijdje gedaan, maar ik weet niet of dat breed wordt ondersteund.
Goede vraag, geen idee of dat werkt eigenlijk. Vraag is of je dan ook high def audio hebt, terwijl de gpu de rest doet. Alleen heb ik een MSI mobo en de interne audio controller met nahimic/realtek is me niet zo goed bevallen (was echter wel over spdif).
Audio was een van de redenen om anderhalf jaar geleden nog voor AM4 te gaan. ASUS ROG Strix B550-A Gaming heeft prima audio. Voor de woonkamer gebruik ik een HDMI audio splitter (ook vanwege een beamer die aan de andere kant van de kamer dan de receiver staat) die dus optisch met de receiver is verbonden.

[Reactie gewijzigd door AtariXLfanboy op 9 mei 2025 22:35]

Audio over HDMI loopt altijd digitaal, dus het zou (in theorie) geen verschil moeten maken mits je CPU (of iGPU???) dezelfde codec ondersteund als je GPU
3 schermen is niet meer nodig, tegenwoordig curved 1 gigantisch r800 scherm zo om de cockpit heen
Nee dat werkt niet hetzelfde bij een 1:1 cockpit view. Liever triple met juist platte monitors.
Maar dam daisychain je je DP monitoren toch? Staat een stuk netter ook.
Heb zelf 2 standaard monitoren, 1 drawing tablet en nog eentje naar de tv.
Ken niemand die meer dan 3 monitoren heeft..
Wellicht ken je dan niet de juiste gekken.

Technisch gezien heb ik ook 4 schermen aan m'n computer hangen, of tenminste, dat denkt m'n computer. 3x 27" 1440p schermen en 1x 1080p Denon receiver die gezien wordt als scherm.

Eerlijk gezegd, zou een kaart met maar 3 aansluitingen een 'do not buy' label krijgen in m'n hoofd.

[Reactie gewijzigd door SilentDecode op 9 mei 2025 20:26]

Wellicht dat als je vier schermen wilt gebruiken en gamen deze kaart sowieso niet de beste is. Voor de doelgroep van deze kaart zal hoogstwaarschijnlijk dit geen enkel probleem zijn.

Edit: I stand corrected =]

[Reactie gewijzigd door SRI op 9 mei 2025 21:26]

Wellicht dat als je vier schermen wilt gebruiken en gamen deze kaart sowieso niet de beste is
Wie had het over gamen? Ik game amper, dus ik heb geen dikke vette GPU nodig voor mijn doeleinden.

Er zijn meerdere dingen die je met meerdere schermen aan een computer kan doen, behalve gamen. Zat zelfs.

[Reactie gewijzigd door SilentDecode op 9 mei 2025 21:24]

Simracers gebruiken veelal 3 monitoren. Overigens zakelijk is het gebruik van 3 of 4 monitoren vrij normaal
Als je met zakelijk ICT bedoeld ja inderdaad. In de rest van de zakelijke wereld zie ik het nauwelijks (soms 3 als je het laptop scherm meetelt, maar die wordt dan vaak niet gebruikt als er 2 schermen staan)

[Reactie gewijzigd door andries98 op 9 mei 2025 19:44]

Normaal bedrijven is altijd maar 2 monitoren per werkplek. En je laptopscherm kan een derde zijn.

Maar die zijn ook doorgelust. Staan niet apart op een videokaart aansluiting.
In de financiële wereld hebben ze soms veel monitoren, maar dan zit je in een niche van traders denk ik.
op niet ICT-gerelateerde klantendiensten zie je ook vaak meer dan 2 schermen en bij veel administratieve diensten begint het ook op te komen.

Bovendien ga je ook voorbij aan het feit dat je dan ook nog de juiste aansluitingen moet hebben en gaan fabrikaten op kaarten vaak meer keuze moeten aanbieden om al hun klanten te bedienen (ja zelfs al zijn er verloopkabels en dergelijke)
MIjn werklaptop met Intel Graphics iGPU(arc) kan er maar 2 aansturen.
Pas met dichtklappen komt er beeld op de via usb-c aangesloten 2e externe monitor.

Gelukkig bestaan er dockingstations :+
Klopt, maar Simracers (of bijv. Flightsim spelers) zijn dan denk ik weer niet de doelgroep voor dit soort kaarten. Ik kan eigenlijk niet voorstellen dat de combinatie van een instap kaartje lekker werkt met 3+ high refresh rate schermen.
Maar simracers met 3+ monitoren zullen vaak geen xx60 range kaart kopen...
Maar een simracer kijkt niet naar een 9060XT :D, überhaupt moet je niet op 3 schermen willen kunnen gamen met een 9060XT.
Ik weet niet of het ook echt zo werkt, maar als je thuis drie monitoren hebt en deze inderdaad voor laptops bedoeld is zoals vermeld wordt in het artikel, dan zou je dus niet die drie monitoren tegelijk kunnen gebruiken omdat jouw laptopscherm een van die streams inneemt. Als dit niet geld voor wanneer je deze dicht hebt geklapt, dan is het ook natuurlijk niet zo'n ramp.

Los daarvan is het vooral een probleem als je een VR of TV naast je drie monitoren hebt. Van zichzelf natuurlijk een niche luxeprobleem, maar het is natuurlijk wel een onverwachte uitzondering gezien het limiet normaal op 4 ligt.
maar als je thuis drie monitoren hebt en deze inderdaad voor laptops bedoeld is zoals vermeld wordt in het artikel, dan zou je dus niet die drie monitoren tegelijk kunnen gebruiken omdat jouw laptopscherm een van die streams inneemt.
Als je drie monitoren hebt ga je toch niet meer prutsen met het laptopscherm?
Dat zal vermoed ik deels afhangen van je laptop scherm (de kwaliteit ervan). Op een HP Probook of iets vergelijkbaars zou ik er niet aan beginnen. Maar er zijn natuurlijk genoeg high end laptops met zeer goede en mooie schermen die je er prima bij kan gebruiken als 4de scherm, ik zie dit bijv. wel gebruikt worden door financiële professionals, maar ook wel bij digitale kunstenaars bijvoorbeeld.
Wat ik er meer mee bedoelde is of je laptopscherm een displaystream gebruikt als die is dichtgeklapt. Als dat het geval zou zijn dan heb je er nog twee over voor twee monitoren. Maar als deze stream vrijkomt wanneer je laptop dichtgeklapt zit dan is dit natuurlijk geen probleem.

Reden dat ik mij dit afvraag is omdat mijn desktop dit niet deed. Bij het aansluiten van een 5e scherm, en er eentje uitzetten in de instellingen kwam deze niet vrij, en deed dat 5e scherm het ook niet tot ik dat uitgezette scherm ook echt loskoppelde.
Ik zou persoonlijk een laptopscherm gebruiken voor statische dingen zoals OBS en een chat in het geval van streaming of Google Calendar ofzoiets. Er zijn zeker usecases maar die lopen meer op de achtergrond terwijl je je primaire dingen op de drie grote monitoren hebt lopen.
Een 4 monitor gebruiker hier, ik zou het toch wel erg jammer vinden als mijn gpu maar 3 schermen aan zou kunnen, zeker met de 16GB variant, dat had me nog wel wat geleken als die 4 schermen ondersteunde.
Ik ben benieuwd ? Wat doe je dan precies ?Hoe performed dat ?
Als je kaart 3 4k monitor moet aansturen, ik kan me niet inbeelden dat je dan heel veel fps haalt in een flight/racesim

Als ik workstations bouw/koop dan is het toch altijd met 2 videokaarten voor dit soort setups

[Reactie gewijzigd door klakkie.57th op 9 mei 2025 20:03]

Ik gebruik hem voor zowel het programmeren van Android en desktop apps, als gaming. Ik draai nu ook 2 GPU's, een 6900XT voor mijn Linux omgeving, en een 5090 voor mijn Windows gaming vm, of mijn llm vm, afhankelijk van wat ik aan het doen ben. Met mijn 5090 speel ik dan meestal games op 1 of 3 4k monitors, en in spellen zo als Forza Horizon 5 haalt hij dan gemakkelijk 90 fps.

Maar de 6900 XT (en bijvoorbeeld dus een 9060xt) is dus alleen voor mijn desktop, en hoeft niet heel veel te doen, maar heeft wel veel vram nodig (ik gebruik regelmatig rond de 12gb voor alleen de desktop en programmeer apps).
Tja, dan daisychain je toch gewoon? Veel monitoren kunnen dat tegenwoordig.
Zelf heb ik jarenlang een Asrock 5700XT Taichi gebruikt omdat dat de enige kaart was met 6 (!) aansluitingen die allemaal tegelijk werken. Voor een flight simulator cockpit is dat nog niet genoeg omdat je naast triple screen (3x 32"curved) ook diverse displays uit de cockpit wilt hebben. Daarom gebruikte ik ook de iGPU met twee schermen en een USB to HDMI. In totaal heb ik voor de cockpit 10 schermen.

Een tijdje geleden heb ik de 5700XT vervangen door een 4070Ti Super. Helaas heeft die maar vier aansluitingen. De 5700XT zit nu in mijn "werk pc" die met drie schermen eigenlijk alleen maar kantoor toepassingen draait.

Er zijn wel hele mooie simpele kaarten met veel aansluitingen. Maar helaas past dat niet allemaal op het moederbord. Dat zit dan zo vol ( er zit ook al een uitbreidingskaart met 7 extra USB poorten) dat de 4070 dan geen koeling meer zou krijgen.

Er zijn dus wel toepassingen waar je veel schermen nodig hebt.
Oef wat een prijzen. 1CHF = 1,07 euro op moment van schrijven.
Dat zegt niks, er is nog geen beschikbaarheid. Dan wordt er doorgaans een placeholder gebruikt als prijs.

De RTX5060Ti 16GB is nu al voor 460 euro te krijgen, en de 9070 voor 700 euro. Dan wordt een 9060XT voor >550 euro geen succes.

[Reactie gewijzigd door bwerg op 9 mei 2025 19:23]

Dat het geen success zou zijn volgens jou wil nog niet zeggen dat dat niet ook de prijs is voor een 9060 XT 16/GB OC (let op, het is dus ook nog een OC variant).
De 9070 is qua prijs gestabiliseerd, iets boven MSRP. De prijzen in bovenstaande lijst voor de 9060 klinken zodoende niet heel onwaarschijnlijk.
Maar goed, met dit soort bedragen wordt het voor mij eerder één generatie ouder. Ik vind 300 euro wel genoeg voor een grafische kaart. Ik kwam laatst nog een oude factuur tegen, Zotac Geforce 9600GT voor 110 euro. Die kon je vervolgens goed overklokken en dan had je een mooie midrange setup voor weinig.
Destijds had een midrange kaart twee DVI aansluitingen en een TV out. Met een adapter op de DVI aansluiting kon je naar VGA, dat was handig.

Analoog (VGA) is tegenwoordig zo goed als obsolete, dus twee DP aansluitingen en een HDMI zie ik eigenlijk als een terugkeer naar het oude recept.

[Reactie gewijzigd door Azbest op 11 mei 2025 15:02]

AMD heeft al bevestigd dat hij gaat komen, dus hij is al aangekondigd, dus dat event op de Computex lijkt me geen aankondiging, maar een presentatie.
>8GB model
>maar 50 euro goedkoper

Een cynisch persoon zou het kartelvorming noemen.
Zou je een budget videokaart kunnen toevoegen zoals de GT1030 voor nog meer displays? Om deze kunnen uiteraard geen gpu intensieve taken worden gedaan, maar een browsertje draait daar toch prima op ?
Nouja, of de iGPU van de CPU zelf...
Ja dat zou ook een optie kunnen zijn denk ik? Hoewel dat misschien de systeemprestaties misschien meer negatief beinvloed door dat je dan het systeemgeheugen gebruikt en de processor belast
Systeem geheugen sure, maar zowat de enige invloed die het gebruik van je iGPU in plaats van een dGPU zou moeten hebben on je CPU is een beetje extra hitte
Jammer dat ze besparen op uitgangen. Het is gewoon handiger als je een scherm kunt aansluiten op de beste connector ipv dat je adapters moet gebruiken als je net wat anders nodig hebt. Er is ruimte zat aan de achterkant, dus waarom niet. Voor die paar cent dat zo'n kaart duurder wordt.

Maar dit is toch vooral het referentiemodel wat deze aansluitingen heeft? Het is aan de fabrikant om ze wel of niet te implementeren? Zolang ze duidelijk zijn over hoeveel uitgangen je tegelijk kunt gebruiken, lijkt het mij nog wel prima.
Nee, dit is juist een productie versie van de kaart.
Ik adapt persoonlijk DP naar DVI met een passieve adapter en alles loopt gewoon net alsof ik een DVI connector heb ingestoken. Monitor overclocks en dergelijke gaan zelfs prima. Is misschien niet zo netjes maar heb je niet echt last van long term.
Meer monitoren kan je over het algemeen toch niet aansluiten.
Mijn Gigabyte kaart had 6 aansluitingen, 3 DP en 3HDMI maar je kon er maximaal 3 tegelijk gebruiken.
Die aansluitingen kosten wel geld, zet ze er niet op en je kan een paar euro besparen (geen idee wat zo'n aansluiting kost).

DP is makkelijker om te zetten naar HDMI dan andersom dus ik zou zeggen zet er 3 DP ports op en het is prima.
2 dp 1hdmi.

of ze moeten standaard een dp adapter meesturen.
hdmi, is over het algemeen toch een beetje de standaard. tv/goedkope monitoren.

beetje zoals vga heel lang was.
Dus na Nvidia (en Intel) komt ook AMD nu gewoon weer met een nieuwe 8GB videokaart op de markt, ondanks alle rumour in de PC tech/gaming media wereld dat dat anno 2025 echt niet meer kan.. Tja, wie heeft er nou eigenlijk gelijk?


Om te kunnen reageren moet je ingelogd zijn