Zes AMD-partners tonen hun custom Radeon RX 9070- en RX 9070 XT-videokaarten

ASRock, ASUS, Gigabyte, Powercolor, Sapphire en XFX tonen op de CES-beurs hun eigen varianten van de AMD Radeon RX 9070 en RX 9070 XT. Een aantal van de fabrikanten hadden een eigen ruimte, de andere modellen troffen we aan in een demoruimte van AMD.

AMD kondigde de Radeon RX 9070 en RX 9070 XT maandagavond aan via een persbriefing; in de op hetzelfde moment gelivestreamde keynote ontbraken de videokaarten echter. De gpu-ontwerper gaf tegenover diverse media, waaronder Tweakers, aan dat er in de presentatie niet genoeg tijd was om de aankondiging van de nieuwe videokaarten recht te doen, en er op een later moment op terug te komen.

Ook voor de diverse AMD-partners kwam het ontbreken van de RX 9070 en RX 9070 XT in de keynote als een verrassing. Een medewerker van een van de videokaartfabrikanten zei op CES tegen Tweakers na de keynote nog een keer extra met AMD gebeld te hebben, om te vragen of de kaarten desondanks wel echt getoond mochten worden.

Zodoende kregen we op CES heel wat RX 9070- en RX 9070 XT-kaarten te zien, en hoewel de specificaties officieel nog niet zijn bevestigd, zijn ze inmiddels een slecht bewaard geheim. Stickers met typenummers van diverse kaarten gaven aan dat beide modellen voorzien zijn van 16GB GDDR6-geheugen. Bij de RX 9070 XT zijn alle 4096 cores van de Navi 48-gpu ingeschakeld, bij de RX 9070 zijn dat er vermoedelijk maar 3584. De videokaarten komen volgens de laatste geruchten rond 23 januari uit.

ASRock Challenger, Steel Legend en Taichi

We lopen de kaarten netjes op alfabetische volgorde af en beginnen dus bij ASRock. In zijn hotelkamer toonde deze fabrikant in totaal drie series. Van de RX 9070 had het bedrijf de Challenger en Steel Legend meegenomen, van de RX 9070 XT diezelfde Steel Legend en de high-end Taichi.

De Challenger is de goedkoopste variant, maar heeft toch een triple-fan koeler en zelfs een kleine strip met rgb-verlichting op de bovenkant. De Steel Legend heeft een wit-grijs ontwerp met rgb-verlichte fans en ook nog eens een verlicht logo bovenop. De triple-fan koeler is wat dikker dan bij de Challenger. De Taichi is als enige een echt volledige triple-slot kaart en heeft niet zoals de andere kaarten twee achtpins PEG-stekkers, maar een 12Vhpwr-connector zoals we die van moderne Nvidia-kaarten kennen. Alle ASRock-modellen hebben een fysieke schakelaar om de rgb naar wens uit te zetten.

De ASRock RX 9070-serie Challenger, Steel Legend en Taichi

ASUS TUF Gaming

ASUS had vooralsnog maar één model klaar, de RX 9070 XT TUF Gaming. De kaart heeft een ietwat industrieel design, met bijvoorbeeld de uiteindes van 'bouten' op de shroud. De printplaat is veel korter dan de kaart zelf, waardoor de derde fan volledig door het koelblok heen kan blazen. Er zijn maar liefst drie achtpins PEG-connectors aanwezig.

ASUS TUF Gaming Radeon RX 9070 XT

Gigabyte

Bij Gigabyte troffen we een Radeon RX 9070 Gaming OC en een luxere RX 9070 XT Aorus Elite aan. De RX 9070 heeft twee achtpins stroomconnectors, de RX 9070 XT is zelfs met drie stuks uitgerust. Op beide kaarten gebruikt Gigabyte een vaporchamber en drie vernieuwde Hawk-fans. De Gaming OC heeft een verschuifbaar stukje op het bovenpaneel, waarmee je de rgb-verlichting kunt verbergen.

De Gigabyte RX 9070 Gaming OC en RX 9070 Aorus Elite

Powercolor

Powercolor had een drietal kaarten meegenomen, die uitkomen met zowel de RX 9070 als RX 9070 XT. Het nieuwe instapmodel is de Reaper, die het Fighter-model uit de voorgaande generatie opvolgt. Deze nieuwe naam past beter bij de 'duivelse' modelnamen van de overige kaarten; de Hellhound en de Red Devil. Alle drie de modellen hebben een triple-fan koeler en een zwart i/o-plaatje.

De Reaper heeft een wat ander ontwerp dan zijn voorloper. De volledig zwarte backplate en de afgeronde hoeken geven hem een wat elegantere look. De kaart is niet dikker dan twee PCIe-slots en datzelfde geldt voor de Hellhound, die in tegenstelling tot de Reaper is voorzien van verlichting. Die kan echter maar in één witachtige kleur branden, en is ook gemakkelijk uit te zetten met een fysieke schakelaar, die naast de bij dit model aanwezige dual-bios-switch zit. Zowel de Reaper als de Hellhound hebben twee achtpins stroomconnectors.

Het topmodel, de Red Devil, is als enige een triple-slot kaart. In het hoekig vormgegeven uiteinde zit rgb-verlichting verwerkt. Voor de stroomtoevoer heb je maar liefst drie achtpins connectors nodig.

De Powercolor Radeon RX 9070 XT Reaper, RX 9070 Hellhound en RX 9070 XT Red Devil

Sapphire

In de ruimte van AMD toonde Sapphire zijn eerste Radeon RX 9070 XT, namelijk de witte Pure-variant. Het is een kaart die drie slots in beslag neemt en ook drie fans telt. Wat de aansluitingen betreft zagen we twee achtpins stroomconnectors en een uitgang voor het aansturen van argb.

Sapphire Radeon RX 9070 XT Pure White

XFX

Van XFX troffen we op dezelfde plek twee modellen aan. Het witte model lijkt een wat lager gepositioneerde variant te zijn, met twee slotplaatjes (al steekt de koeler wel wat uit) en twee stroomconnectors. De zwarte versie is een triple-slot kaart met een drietal stroomaansluitingen.

Door Tomas Hochstenbach

Redacteur

10-01-2025 • 20:22

94

Lees meer

Reacties (94)

94
94
31
1
0
44
Wijzig sortering
Voor wie meer dan 16gb vram had verwacht, deze kaarten zijn midrangers en niet high end.

AMD gaat met deze serie ook geen high end maken deze keer (wie dus een high end AMD kaart wil, is beter af met de 7900XT(X) dan)
Dan kan je beter even wachten. Want er zal best wel een 9080 of 9090 komen neem ik aan.
Nee, die komt er niet. Al meer dan een jaar geleden heeft AMD te kennen gegeven dat RDNA4 op het middensegment gericht zou zijn.
Ergens dit jaar werd duidelijk dat AMD voorlopig niet als serieuze concurrent van nVidia moet worden gezien, omdat het beleid van RDNA4 waarschijnlijk nog wel even wordt aangehouden. Voor mij het teken om afscheid te nemen van AMD.
Dit is ook vaker aangegeven door anderen, dat ze vaak een "pauze" nemen met high-end te maken. Mogelijk om ook te zien of het "zin heeft" en/of goede doorontwikkeling te maken dat er in volgende iteratie wél weer een flagship chip gemaakt kan worden. Schrijf ze nu niet zo snel af.
Ik heb het in het verleden ook gezien volgens mij bij AMD.

Dus ik hoop er eigenlijk wel een beetje op.
Niet concurrentieel voor het highend, maar wel voor het middensegment lijkt me, niet?
Als je iemand bent die in dat segment gaat shoppen, dan zou dat wellicht interessant kunnen zijn voor je. Ik ben echter iemand die altijd de kaarten van het hogere segment koopt.
Daarnaast ik heb ook het vermoeden dat niet mee willen doen om de eerste plek er op langere termijn voor zal zorgen dat AMD gewoon niet meer mee kan doen in de concurrentiestrijd, omdat voor dat soort prestaties er ook een wil om te winnen nodig is. Als die wil ontbreekt ga je over langere tijd ook gewoon achter lopen in alles. Dus voor mij exit Radeon, want als je het niet gaat proberen, dan ga ik daar ook geen geld aan uitgeven. En afgezien van de 8800GTS zijn al mijn GPUs in de laatste ca. 24 jaar Radeons geweest. Dus dat zeg ik niet zo maar.

[Reactie gewijzigd door ocf81 op 11 januari 2025 10:29]

Het mooie is dat jij pro nv , voor je high-end extra veel gaat betalen.
Als AMD Radeon helemaal weg valt. Jij wilt AMD Radeon kapot gaat. Dat is zo anti concurrentie en niet gewenst. Nu moet nVidia nog altijd rekening houden met concurrency ergens midden in hun sku lijn. Met altijd nog kans dat er bij elke next-gen wel weer high-end kan komen. Maar omdat nV architectuur voor client en pro en ai markt dezelfde is. Kunnen ze hun chips altijd in de pro markt slijten.
Dat AMD niet mee kan komen komt door Global foundry tijdperk wat hun core busness cpu bijna de nek omgedraaid heeft. Dat Radeon en console AMD gered heeft van de ondergang en dat radeon afdeling een flinke periode in skeleton crew mode. Sinds Zen met TSMC waar AMD succes met Zen ook totaal van afhankelijk is. Werd Radeon opgeschaald. Maar die grote voorsprong wat nV heeft opgebouwd is niet zo maar even in te halen. En pure gaming architectuur RDNA maakt dat big chip niet zomaar is te gebruiken in de pro tak. Nv uni architectuur voor gamen en pro en AI maakt dat hun bigchips voor game kroon misbruikt kan worden en anders voor pro.
Nvidia in hun wijsheid hebben features verzonnnen zodat pro features ook voor gamen relevant worden tensor cores. En AMD volgt next gen wordt UDNA.
Het spitsen van game en pro was verleden goed idee zodat hoop vhip die real-estate wel in gamen gebruikt werd ipv hoop wat erbij ligt.
Dan backfired het multi chiplet gpu innovatie.
Ik trek mijn grens bij 300watt voor g-kaart iets meer of minder .
High-end gpu is dure prestige imago investering. En 2de plek houd in dat dure spul met slechte ASP moet verkopen naast enorme feature en pro feature voorsprong dat kwa prijs altijd lager in de markt moet zetten. Dat zijn geen goede kansen om high-end in de markt te zetten. Vooral op mindere nodes.
AMD ziet waar de kansen het groot zijn zo ook volume. Dat zijn gaming laptop APU die de lichte mobile RTX50 gpu weg druk uit de markt. En eindelijk OEM laptop een grotere rol gaat spelen. Beter gebruik van TSMC wafer allocatie dan high-end gpu chip.
Ach ja, pro-nv is wel wat overdreven. Ik heb echter niet langer het vertrouwen dat AMD nog iets voor gaat stellen. Dan is het tijd om je knopen te tellen. Ik ben het ook niet eens dat AMD nog langer last heeft van GF, die tijd ligt nu ver achter ons. De beperkingen die daarmee gepaard gingen zijn dus ook niet meer van toepassing. AMD verdient ook bakken met geld met andere onderdelen, dus het is ook niet zo dat het geld er niet zou zijn. AMD moet gewoon gaan presteren Daar zijn keuzes zoals CDNA en RDNA ook een onderdeel van. Daar hebben ze bewust voor gekozen. Als dan de prestaties achter blijven én je kiest ervoor om niet meer mee te doen, dan is het voor mij klaar met het uitgeven van geld aan producten van zo'n bedrijf. Als ze weer meedoen om de prijzen wil ik er wel weer naar kijken. Sowieso is linux ondersteuning een factor van belang voor mij, en nVidia heeft daar grote stappen in gezet, dus dat is ook weer een dingetje.
En het hogere segment heeft echt wel zijn plek. Voor bepaalde toepassingen, zoals VR, is de benodigde rekenkracht er nog lang nog niet en is elk beetje dat je kan krijgen broodnodig. Dat is alles behalve een prestige imago investering. Sowieso heeft een middenklasse kaart een korter leven dan een high end kaart, omdat deze doorgaans de generatie erna nog mee kan, in tegenstelling tot een middenklasse kaart.
Dan ga je lekker te veel betalen bij de concurrent.
Alleen 4090/5080/5090 en misschien 5080 ti van Nvidia zijn buiten schot, hoewel, best case scenario, kan de 9070 xt zelfs 4080 super bijbenen. Heb jij echt alleen 1500-2500€ Kaarten? :) En upgrade jij elk jaar? Zo niet zou ik niet zo snel afscheid nemen. Plus als je al 4090 persoon was, dan had je al afscheid genomen en is dus geen nieuws, dat gebasseerd is op RDNA4. Vind je bericht wat vreemd (tenzij je 1500+ € kaart hebt-).
Tot halverwege vorig jaar was nVidia gewoon geen optie, omdat je op linux dan geen goede ervaring had. Dat telt ook mee. En ik heb nu een RX 6800 XT, maar die is wat langzaam aan het worden. Dus zal de 5080 de waarschijnlijke opvolger zijn. Je hoeft echt niet elk jaar te upgraden hoor. dat is klinkklare onzin.
Daarom dat ik 6800/7800xt geskipped heb, (en zelfs 6950xt, meer die meer om z'n verbruik), ze zijn net te traag om vlot binnen 4 jaar te kunnen gamen, nu wel, 7900xt is echt badass performance als je niet teveel eisend bent, 100 fps in zware game 1440p, 200 bij makkelijke game, maar dan dat genoeg, dus dat niveau wil ik, maar zo goedkoop mogelijk, ik doe niet mee, aan hyperinflatie met grafische kaarten. De 9070 xt maakt kans om 7900xt te evenaren, minder (gemiddeld) te verbruiken, en maximu 600€ maar misschien nog minder te kosten, zeker bij 500€ of minder ga ik niet lang moeten nadenken, en volgende kaarten zullen nog langer nodig hebben om gemaakt te worden (je ziet dat de launches elkaar langer en langer opvolgen, dusja 3 jaar kan goed zijn voor we nieuwe kaarten krijgen (super varianten reken ik niet mee als nieuw).

En voor echt zware dingen is eigenlijk de 4090 nog te traag, cyberpunkt 4k, ray tracing, ultra, is te lage fps. Als die kaart te traag is, dan zijn die settings gewoon nutteloos voor mij, 5090 zal beter doen, maar ik denk nog altijd niet snel genoeg voor de moeilijkste situaties. Dan vind ik dat eerlijk gezegd niet zo schoon voor 2000€ kaart.

Dan liever 4k links laten, 240 fps links laten, ultra soms links laten, RT some links laten, en boem, 7800xt 7900xt 9070xt, enzovoort zijn plots zat snel, pas bij m'n volgende videokaart (hopelijk ook 7 jaar zoals m'n 1080 gtx), zal ik 4k een kans geven.
Voor mij het teken om afscheid te nemen van AMD.
Dus jij kocht hiervoor wel de highend kaarten van AMD? :z

Denk dat dit wel een goeie keuze is voor AMD, want de werkelijkheid is natuurlijk dat bijna niemand AMD kaarten koop, en al helemaal niet de echte highend kaarten

Meeste mensen willen dat AMD goeie kaarten uitbrengt om nVidia kaarten goedkoper te maken

[Reactie gewijzigd door Sinester op 13 januari 2025 11:42]

Lange termijn om in de AI race relevant te blijven hadden ze gewoon met een 32GB model moeten stunten van dan niet grofweg 600 euro voor 16GB wat nu verwacht wordt, maar die met 32GB dan 900 euro. Voor die prijs had je een heel leger aan AI enthousiastelingen op AMD hardware gekregen, waar dan ook steeds meer AI libraries voor gaan verschijnen. En nu, blijft ook dat geheel aan NVidia.

Begrijp me niet verkeerd, ik bedoel een 5090 is echt vreselijk lastig te maken en zo'n concurrerend ontwerp schud je echt niet even uit de mouw als AMD gegeven ook het R&D verschil tussen beiden, wat niet gaat dat gaat niet. Maar een design met dubbele VRAM had in die paar jaar dat er nu al AI gekte is, er meteen al in gegooid moeten zijn. AMD zag aankomen dat ze geen high-end TFLOPS gingen neerzetten deze generatie. Zie hoe klein die 5090 PCB van NVidia maar is met aan beide kanten luchtstroom langs de zijkant van de PCB zelf, desondanks hele grote GPU plus nog eens 32GB geheugen. Diezelfde geheugenchips kan AMD ook gewoon kopen. Wil brute kracht even niet dan moet je op een andere manier in de spotlight blijven toch?

[Reactie gewijzigd door OruBLMsFrl op 10 januari 2025 23:31]

Maar AI is alleen maar voor een handjevol gamers interessant, mensen die serieus bezig zijn met AI als hobby moeten gewoon de dedicated kaarten/systemen daarvoor kopen.
Dat is natuurlijk wel zo relatief ten opzichte van het aantal gamers, maar alles moet ergens beginnen. Niet iedere AI hobbyist heeft 3090/4090/5090 geld liggen. Zeker AMD zou alle zeilen moeten bijzetten om mensen naar hun platform te krijgen. AMD loopt daarin vooral achter op software support en optimalisaties.
Oh, dus omdat niet iedere hobbyist geld (over) heeft om zn hobby uit te voeren moeten deze fabricanten hun producten maar aanpassen (en daarmee duurder maken) om voor dat handjevol gebruikers te bedienen?
Behalve enkele tweakers is het overgrote deel van de kopers van dit soort kaarten totaal niet bezig met AI modellen. Als het maar een tientje meer zou kosten om 8/16GB extra geheugen erbij te zetten, dan zouden ze dat nog wel doen, maar het kost veel meer.
Ze moeten dus twee versies verkopen in mijn beleving. De 16GB gamer versie voor 600 euro en de 32GB gamer ai versie voor mijn part voor 900 euro, want vram zal inderdaad wel meer dan een paar tientjes kosten. Kost AMD wat moeite, en mogelijk een paar instap ai accelerator kaarten minder verkocht aan prosumers, maar de hele ai markt uit beeld voor hobbyisten kost je uiteindelijk meer denk ik dan...
Meer modellen maakt het er niet goedkoper op. En bij AMD zullen ze dondersgoed weten of het hun uiteindelijk meer zal kosten, die kennen hun afnemers beter dan jij of ik.
Ik denk dat het aantal hobbyisten op een halve hand te tellen is. Misschien bij jij er één van, en lijkt het door jouw interesse alsof dit voor veel mensen interessant is. Maar dat is bubbelvorming, vraag maar een aan je oom wat hij het beste platform voor inferencing vindt.

Door de betere tools zullen die paar fans waarschijnlijk toch nV kopen. Dan blijft een erg dure kaart over die niemand koopt, maar wél in de reviews zal staan als "bijna exact even snel als de 16 GB, maar superduur", en in elke "performance per euro" grafiek ver onderaan bungelt.
Wij hebben zakelijk de berekening gemaakt over de aanschaf van GPU's versus huren in de cloud. Het omslagpunt ligt rond een lifetime utilization van zo'n 25%. Kun jij in de aankomende 25000 uur meer dan 6000 uur aan AI training doen? Zo nee, dan kun je beter (ook als hobbyist) huren.
Wat je dan krijgt is dat al budget AI volk ook bedrijven die kaarten massaal gaan op kopen slechte verkrijgbaarheid en straat prijzen ver boven MSRP en kans op scalpen.
Als je op gamers wil richten moet genoeg vram bieden maar zeker niet onnodig veel voor gamen.
1200 euro voor zo'n kaart is waarschijnlijk nog steeds concurrerend, en zou AMD de inkomsten moeten geven om er genoeg van te produceren. Maar vermoedelijk ziet AMD inderdaad weinig heil in concurrentie op AI-gpu's, mede gezien CUDA.
Binnenkort kan je zelf extra geheugen gaan bijklikken. _/-\o_
Vroeger kon dat op hele oude g-kaarten maar ja die klokken waren ook zeer laag toen pre 3dfx tijdperk.
Ben wel benieuwd wat die passief gekoelde variant gaat kosten,
Ben daar zelf namelijk wel in geïnteresseerd, heb nu zelf een reeds passief gekoelde 2080ti’s welke ik dan deels zou kunnen vervangen
Eerste foto rechts onderin,
Dat is een 7900XTX. Volgens mij is die niet te koop voor consumenten. Lijkt een server onderdeel. Geen idee waarom die hier bij ligt.
@itcouldbeanyone

Ik had hem gemist op de foto en kon het niet terug vinden in de tekst. Die is inderdaad afhankelijk van airflow in een soort server behuizing.

nieuws: ASRock toont passief gekoelde RX 7900 XT- en XTX-gpu met vapor chambe...

[Reactie gewijzigd door HugoBoss1985 op 10 januari 2025 22:35]

Thankz, helaas dus een ouder model
Helaas dus een ouder model, mijn 2080ti’s worden nu ook gekoeld doormiddel van air flow vanuit het chassis, dit zit dan wel in een lawaaierige server rack.
Heb zelf weinig consumenten spul
Ik weet weinig van AMD videokaarten en kan op basis van de nummering niet achterhalen hoe deze zich verhouden met de vorige generatie. De vorige generatie had een 7x00 format en nu begint men met 9070 maar ik kom niets tegen over wat voor andere varianten er komen in de 9000 reeks.
De 8000 serie wordt overgeslagen, waardoor het nu 9000 is, in lijn met de huidige CPU range. De meerwaarde hiervan? Geen idee.
Het zal vast na een lichting of twee weer uit de pas lopen.

70 is het oude x700. Dit is de hogere midrange qua segment, wat vroeger dus de 6700/6750 was. Die hadden nog 10-12GB aan boord, evenals de 7700XT.

Wat geheugen setup is het dus een stapje opgeschoven, want in de 6000 en 7000 serie moest je een x800 klasse kaart hebben voor 16 GB / 256bit.

De xx70 loopt nu ook in de pas met de xx70 van Nvidia. Maar dan met meer geheugen. Zoals eigenlijk anno 2025 ook wel verwacht mag worden.
AMD RX 8000 series is voor RDNA 3.5, voor mobiele toestellen, zoals laptops en handheld game computers. RDNA 4 is voor RX 90*0 series, zoals de RX 9070 en RX 9070 XT.

Ze hebben de naamgeving iets aangepast naar NVIDIA, maar voor het heeft juist voor verwarring gezorgd. Ik vraag mij ook af of de volgende generatie dan RX 100*0 heet. Consistente naamgeving voor producten is iets wat ze ontbreken bij AMD.

Hoe dan ook, de RX 9070 series wordt volgens AMD zelf vergelijkbaar met RX 7800XT tot aan RX 7900 XT. Waarschijnlijk wel betere AI functies waardoor je FSR4 up-scaling techniek kan gebruiken. Zie schema van AMD (afbeelding van een Tweakers artikel).
De vorige generatie is hipper, maar ook duurder. Het is maar net wat je nodig hebt aan hardware.
Met de nieuwe benaming is het de bedoeling om duidelijker de vergelijking met nvidia reeks te maken. Heb zelf nooit de AMD benaming begrepen wat nu high/mid/low was.
Hoef je ook nog niet te weten. Die kennis komt met bench reviews dan weten we het.
Dan weten we de pole positie van 9070 en de XT variant.
Zou de 9070 xt een goede upgrade zijn voor de pny 3080 10gb ?
Even wachten op de reviews en benchmarks, maar denk wel stukje sneller ja. Vind m zelf ook wel interessant als upgrade van mn RTX3070. En uiteindelijke prijzen natuurlijk.

[Reactie gewijzigd door noes op 10 januari 2025 22:45]

De Kans op 7900 GRE +12.5% performance is heel groot, (lager is bijna onbestaand maar kan), 7900xt kan ook, maar met wat haken en ogen, bij 50 games gemiddeldes zal amd dat zakken vrees ik (bv geheugenbandbreedte limitatie). Maar 7900xt (+17%) kan, 4080 (super) +29% bijna onmogelijk.

Kijk naar benches en doe fps exact in het midden tussen 7900 GRE en 7900 XT, dat is het minimum dat je kunt verwachten, 7900xt, min of meer maximum, baseer daar je keuze op.

Bv op deze pagina

review: Radeon RX 7900 GRE - AMD's antwoord op de RTX 4070 Super
Powercolor had in een nieuwsbericht aangegeven de Red Dragon variant opnieuw uit te brengen. Sinds ze die niet lieten zien op CES vraag ik me af of dat nog doorgaat.
Ik vind de witte Sapphire toch wel de mooiste. Verder bekende designs, de partners houden zich wel aardig aan hun stijl. Uiteindelijk gaat het natuurlijk ook meer om performance dan looks (voor de meeste mensen :)). Benieuwd naar de reviews binnenkort en hoe ze gaan presteren.
Hmm, 3 8-pins connectoren voor een midrange kaart? Ben ik de enige die zich een klein beetje zorgen maakt voor een potentieel gebruik i.c.m. een 750W voeding?
Je bent de enige met deze vraag dus ik denk van wel :D
Vind het zelf ook niet handig... Was die nieuwe High power connector betere optie geweest.
Nou moet je er 3 kabels eraan hangen. Vind het best wel grappig.
Ik maak mij meer zorgen over het aantal, tijdje terug waren er volgens mij weinig of zelfs geen voedingen met 3 8-pins connectors voor GPU's.

[Reactie gewijzigd door Raven op 11 januari 2025 09:55]

W... wat? Geen PSU's met 3 6+2-pins? Nou weet ik niet wat jij 'een tijdje terug' vindt, maar er waren al voedingen met 3 6+2-pins in 2008-2010.
Dat is voor overklokken.
Als kaart 325 gaat trekken stock is 2pins zat. Maar niet voor custom modellen voor doelgroep waar ook de nodige overklokker zijn. Tja als 410wat kan halen dan 2 pins met 375 limiet te weinig met 0 marge. Dus 3de PEG erbij.
Maar is dat niet een beetje power hungry voor een midrange kaart? Ik bedoel, als je als merk dan toch besluit om niet meer mee te doen aan het high end segment, kan je dan niet op z'n minst proberen om de boel een beetje efficiënt te maken? De 7800xt had een streepje voor op de 6800xt met iets van 30 watt, waarom die trend niet doorzetten? Als voorbeeld: de 4070 super loopt op maximaal 230 watt ofzo...
Is gewoon zelfde shit als 7900xt, de sterkste overklokte (door fabrikant kaarten), kunnen eigenlijk nog wel net met 2 8 pin connector, maar vanaf overklokken schiet het omhoog, en dus riskeren ze het niet. Maar eerlijk, is vrij nutteloos, zeker omdat deze kaarten al 2.9 ghz (vrij hoog) klokken. De 2 pin varianten confirmeren dat het niet slechter zal zijn dan 7900 xt de performance/watt. Hopelijk nog wat beter.
Volgensmij hebben ze zelf geen booth op CES maar Yeston's RX 9070 XT is ook best leuk, weer eens wat anders :) https://x.com/YestonOfficial/status/1877655043798880632
Ben wel benieuwd hoe deze zich dan weer gaan verhouden ten opzichte van de nvidia en wat straks wijsheid is als upgrade. Zal begin februari een hoop leesvoer opleveren denk ik al die tests en reviews.
Vind het toch jammer als videokaarten vandaag de dag nog stekkers hebben die aan de 'bovenkant' zitten van een videokaart. Ondanks dat daar vast wel elegante oplossingen voor zijn zou ik die aansluitingen toch liever aan de 'achterkant/zijkant' van de videokaart zien.

Gezien deze stekkers ook nog eens ergens halverwege de cooler/PCB zitten zullen de kabels ook nog eens gedeeltelijk over het moederbord lopen of zelf een conflict kunnen krijgen met de CPU koeler.

Dat had vast beter gekund. En de horrorverhalen over de 12vHPWR aansluitingen doen mij toch nog niet overhalen om voor een dergelijk model te kiezen boven de normale stekkers. Het hield mij weg bij de topmodellen van Nvidia (die overigens ook te duur waren destijds), maar gelukkig zijn ze daar bij AMD nog niet geheel op overgestapt.
Dat stekker probleem is bij de nieuwe iteratie opgelost…

Op dit item kan niet meer gereageerd worden.