Foto's tonen mogelijk AMD Radeon RX 7000-prototype met twee 8-pinsaansluitingen

Er zijn foto's van een mogelijke AMD Radeon RX 7000-videokaart online verschenen. Het lijkt een prototype te zijn, die beschikt over twee 8-pinsaansluitingen voor de stroomvoorziening en drie fans. AMD kondigt de Radeon RX 7000-serie op 3 november officieel aan.

De foto's werden gepubliceerd door Twitter-gebruiker 9550pro, die vaker vroegtijdig informatie over gpu's publiceert. De afbeeldingen zouden afkomstig zijn uit een besloten QQ-chat. De videokaart op de foto's lijkt een Radeon RX 7000-engineeringsample te betreffen; de afgebeelde videokaart heeft een rood pcb met verschillende contactpunten aan de achterkant. Het is niet bekend om welke Radeon RX 7000-videokaart het gaat, hoewel VideoCardz speculeert dat het een model uit de hoogst gepositioneerde RX 7900-serie betreft.

Mogelijk beschikt het prototype wel al over de koeler die AMD zal gebruiken voor zijn RX 7000-referentiekaarten; het ontwerp komt overeen met teasers die het bedrijf eind augustus toonde. Zo heeft de videokaart drie rode streepjes op de heatsink, wat ook te zien was op teaserafbeeldingen van de chipmaker. De videokaart beschikt daarnaast over een koeler die langer en hoger lijkt te zijn dan die van de Radeon RX 6900 XT. Die koeler heeft drie fans, die ook groter lijken dan de fans in de RX 6900 XT-referentiekaart.

Voor de stroomvoorziening heeft de videokaart twee 8-pinsaansluitingen, net als de huidige RX 6900 XT. Die twee aansluitingen zijn gezamenlijk goed voor een vermogen van maximaal 300W, naast de 75W die door de PCIe-slot geleverd kan worden. Het is niet bekend hoeveel stroom de RX 7000-videokaarten van AMD zullen gebruiken. Eerder verscheen een vermeend diagram van een Radeon RX 7900 XT-pcb, die beschikte over drie 8-pinsaansluitingen.

AMD's eerste RDNA3-videokaarten worden dit jaar nog verwacht. Het bedrijf houdt op 3 november een keynote waarin het de videokaarten officieel aankondigt. Volgens VideoCardz kondigt het bedrijf zeker twee modellen aan, beide in de Radeon RX 7900-serie. De Radeon RX 7900 XT en RX 7900 XTX zouden allebei beschikken over een Navi 31-gpu met chipletontwerp. Er is nog geen releasedatum van de RX 7000-serie bekend, hoewel AMD-leaker Greymon55 stelt dat de eerste kaarten begin december uitkomen.

AMD Radeon RX 7000-prototype via 9550pro, TwitterAMD Radeon RX 7000-prototype via 9550pro, Twitter

Afbeeldingen: 9550pro, via Twitter

Door Daan van Monsjou

Nieuwsredacteur

31-10-2022 • 09:27

101

Lees meer

Reacties (101)

Sorteer op:

Weergave:

Op zich is die nieuwe connector op nVidia kaarten wel mooier en compacter, maar je ziet dat zo'n 1e generatie vaak nog wat kinderziektes bevat (in dit geval bepaalde adapter kabels) met resultaten waar je niet op zit te wachten.
Soms is het beter "de kat uit de boom te kijken" en een 1e generatie van een nieuwe technologie over te slaan.
Wellicht dat AMD in volgende generatie wel overstapt?
Ik denk dat 50 ampere door een paar kabeltjes probeert te laten lopen je geheid vraagt om problemen.
De draadjes zijn meestal het probleem niet, het zijn de contacten, een slechte crimp, of (in het geval van de huidige problemen bij Nvidia) de soldeerverbindingen (om meerdere draadjes aan elkaar te knopen).

50A zou in theorie totaal geen probleem moeten zijn voor 12VHPWR. De kabel heeft 12 "vermogens" draden en 4 control draden. 50A resulteert dus in 8.3A per draad, bij gebruik van 1mm² zou dat resulteren in een temperatuurverhoging van rond de 15-18 graden in de draad.
Zelfs als één connectie slecht is heb je maar 10A per draad, wat in zo'n 20-25 graden resulteert, nog steeds zeer acceptabel gezien de meest gebruikte bedrading geschikt is voor 85 graden (vormt dus pas een probleem als het 60 graden is in je PC). Het pinnetje in de connector heeft echter maar een rating van 9.5A...

Daarnaast adviseert de standaard overigens het gebruik van AWG16 (ongeveer 1.3mm²), waardoor de temperatuur nog veel lager uit zou moeten vallen.

[Reactie gewijzigd door knirfie244 op 25 juli 2024 12:45]

ze gebruiken er maar 6, de rest is ground.
Door de ground draden gaat ook gewoon diezelfde stroom en dit is ter referentie dat er ook nog 4 sense/control wires zijn die geen vermogen dragen. Een iets andere beschrijving zou zijn dat er 6 vermogensdraad-paren zijn maar goed, semantiek want ze dragen allemaal vermogen in tegenstelling tot een 8 pins pcie aansluiting waar er twee sense wires zijn en dus maar 3 paren/6 draden die vermogen dragen.
waar haal jij de sense wires in een 8 pins pcie plug vandaan.

die plug heeft 5x ground en 3x 12v
Als ik de pinout bekijk heeft de 8 pin PCIe heeft 3x ground, 3x 12 volt en 2 sense pins (PSU ground sense pin 4 en 6)... De sense pint zijn aan PSU ground verbonden en geeft de kaart te mogelijkheid op te checken of er een 6 pin of 8 pin is aangesloten. Aldus ongeveer elke site waar ik dit heb gecheckt.

De 8 pin plug (EPS) van het moederbord heeft geen sense pins, maar die heeft dan weer 4x ground en 4x 12V.

[Reactie gewijzigd door Thekilldevilhil op 25 juli 2024 12:45]

Waar er maar 4 van aangesloten zitten in die verloopjes.
ook horen de draadjes 300v 105c aan te kunnen.
Klopt En het is al gebleken dat bij 1 van de foto's van een verbrande connector, men er is achter gekomen dat het geen 300 V was, maar een stuk minder. Eens benieuwd wie er hier uiteindelijk voor op de vingers wordt getikt.
ja die van Igor waren 150v ipv 300. Verder was de pinout heel anders gesoldeerd.
In het bijzonder: Handgesoldeerd. Daar zit de grootste ellende: Je kunt discussiëren over krimpen versus solderen, maar beiden kunnen in beginsel een goede verbinding opleveren. Zodra je evenwel iets met de hand gaat doen, krijg je te maken met de kwestie dat arbeiders niet onfeilbaar zijn en er op miljoenen kabels onvermijdelijk de nodige slechte tussen zitten. Handwerk heeft altijd meer afwijkingen dan geautomatiseerde processen en moet in dit soort situaties van potentieel gevaar dan ook vermeden worden.
Precies ja. Ook de pinout inderdaad. Heb zelf de 4090 van Gigabyte, en vraag me af hoe die van binnen uitziet. Echter, ga ik wel de nieuwe kabel van Corsair of van kabel van Cablemod halen voor alle zekerheid.
ja die van Igor waren 150v ipv 300.
Maar er gaat 12V overheen dus dat is weinig relevant?
De 300V eis is vermoedelijk een veiligheidseis. Zelfs als er iets in de voeding fout gaat, wil je niet dat er 240V op de behuizing komt te staan. 150V is vreemd, zoveel 120V voedingen zie je niet meer. Logisch dus dat de nieuwe specs 300V vereisen.

Igor's kabel is dus vermoedelijk een ouder ontwerp, handgemaakt, volgens een oude draft van de standaard. En dan is er mogelijk dus nog wel meer dat niet aan de vastgestelde standaard voldoet.
Hoe hoger je voltage, hoe dunner je draad mag zijn.

12v heeft dikkere draden nodig ivm weerstand van 220v, bij gelijke amps.
hoe lager bedoel je ;-)
Nee, hoger.

Bij een lagere spanning (Volt) heb je een hogere stroom (Ampère) nodig om dezelfde hoeveelheid energie (Watt) te leveren. En de stroom is de beperkende factor in deze, die zorgt dat de draad opwarmt.

[Reactie gewijzigd door CyBeR op 25 juli 2024 12:45]

Bij een gelijk vermogen P(W) daalt de stroomsterkte I(A) als de spanning U(V) oploopt, dus kan je bedrading dunner.
Anderzijds ga je vanaf een zekere spanning meer isolatie moeten voorzien, maar tot 200V is de mechanische stevigheid van de isolator een grotere beperking dan de isolatie.
Nope :)

Maar ik zie wel dat ik een schrijffout maakte in mijn tweede zin waardoor het niet duidelijk was.

Cyber heeft het ondertussen uitgelegd zo te zien.
Volt zegt daarbij geen nuttigs voor dit, behalve waar je isolatie het begeeft.
Spanning is in dit geval niet relevant. Het gaat om stroomsterkte die de warmte veroorzaakt.
Weerstand R is constant, P=I^2*R
Vermogen (warmte) is kwadratisch met de stroomsterkte.
De draden zijn ook het probleem niet, het smelten zit hem in de pinnen.
Op basis van? Enige onderbouwing? "Een paar kabeltjes" is wel heel erg kort door de bocht. Het zijn natuurlijk gewoon voor dit doeleind goedgekeurde kabels. Je ziet dan ook dat de problemen die je nu ziet vooral optreden bij bepaalde pinnen in de connector. Ik heb nog geen enkele draad zien smelten.

Het probleem lijkt namelijk van meer af te hangen dan alleen de kabel zelf. GamersNexus heeft 5 kabels getest en kon het probleem niet reproduceren tijdens hun tests. Zelfs niet toen ze in de connector gingen knippen om zo te proberen meer hitte te veroorzaken.
https://www.youtube.com/watch?v=EIKjZ1djp8c

Dus de affikkende connectoren worden op zijn minst verergert door een omstandigheid, zoals bijvoorbeeld een slecht aangesloten kabel. Dit kan user error zijn, maar ook een ontwerp/fabricage fout in de connector waardoor hij niet netjes aansluit. Ik acht die laatste kans een stuk groter

[Reactie gewijzigd door youridv1 op 25 juli 2024 12:45]

Ik vraag me wel een ding af. Heb niet gezien dat ze testen in een krappe case met slechte koeling, alleen in open benches. Kan dat misschien nog een verschil maken? Zo'n krappe case kan flink heet worden van binnen.
slechte koeling in een kast is net zo slecht als 0 airflow over je kabels in een openbench lijkt mij.
In theorie klopt dat, maar het kan bij lange testen nog zo zijn dat de omgevingstemperatuur in de kast erg significant oploopt. Maar dit zou geen probleem mogen zijn. Bij open testbench omstandigheden zou de kabel niet binnen een graad of 20 van max mogen zitten.
Het verschil is echter dat de temperatuur in een kast met slechte koeling significant oploopt zoals @youridv1 inderdaad zegt. In een openbench zal de ambient temperature niet zo snel veranderen.
''Iets'' in een kast kan niet perse kouder zijn dan de omgevingstemperatuur, vooral niet als het de kans heeft gehad op te warmen. Stel voor de binnenkant van de kast is 60 graden, dan kan de kabel al niet kouder zijn dan 60 graden. Zo uit mijn hoofd is de kabel rated voor 85 graden. Dat is dan al niet zo'n groot verschil meer.

Uitgaande van een case die slecht gekoeld is met een 4080/90 en een dikke processor, kan dit best betekenen dat de case van binnen nog wel warmer is dan 60 graden.
Dat zou inderdaad nog kunnen. Echter waren de temperaturen tijdens de tests ~60-70 graden volgensmij. Die kabels zijn volgensmij rated tot 105C, dus dan zou het in die kast 35 graden boven de temperatuur van de kamer van gamersnexus moeten uitkomen. Tegen de tijd dat het een graad of 55-60 is binnen je behuizing heb je andere problemen denk ik.

Maar je maakt een valide punt. In kleine kasten heb je inderdaad te maken met extremere omstandigheden. Ik denk alleen niet dat de probleemgevallen op reddit etc uit krappe kasten kwamen, gezien het formaat van de gemiddelde RTX 4090. SFF behuizingen zijn niet echt een optie

[Reactie gewijzigd door youridv1 op 25 juli 2024 12:45]

Misschien is het probleem wel de voeding?

Zijn er ook zoveel van dat je door de bomen het bos niet meer ziet.
Lijkt me sterk. De kabel smelt aan de GPU kant, niet de voeding kant en een beetje voeding heeft een ripple van sub 50mV, dus van overvolting is ook geen sprake denk ik. Want hij zit met hele kleine marge strak op 12V

[Reactie gewijzigd door youridv1 op 25 juli 2024 12:45]

Staan toch echt foto's van PCI-SIG online waar de connector aan de PSU kant gesmolten is.
Mooier niet echt. Op de kaart zelf wel, maar in de kast zie je die splitter hangen. Daarnaast ook met custom braided cables is het effect wel een beetje weg.
Zodra je een ATX3 voeding hebt, heb je de splitter niet meer nodig
Ik heb ooit een 1250W voeding gekocht zodat ik die upgrade in ieder geval nooit meer hoefde te maken (voor 10-15 jaar dan). Doet het prima, en gaat waarschijnlijk nog 10+ jaar mee. Er is geen enkele reden te bedenken om zo'n voeding te vervangen zonder dat hij stuk is.

Dit soort gevogel met 'nieuwe stekkers' werken planned obsolescence alleen maar in de hand.
Wat moeten ze dan doen? 8pin connectors blijven toevoegen?
Ik zie niet in waarom niet. Kaarten met 3 PCI-e connectors zijn eerder ook uitgebracht, heb ik zelf ook gehad. De hele 'winst' van deze connector is een whopping 4 pinnetjes in de breedte minder op een totaal van 16 - 2x8 of 1x12. Nou, joe.

De overstap van Molex naar PCI-e was logisch. Maar net als met 2x8 heb je met deze HPWR stekker nog steeds evenveel +12v lijnen (6).

De echte winst is voor de fabrikanten, waarvan iedereen nu weer een of andere kabel, splitter of geheel nieuwe voeding kan kopen Voor 4 pinnetjes minder! Wat is nou het daadwerkelijke probleem dat die connector oplost? Waanzin.
Je telt niet helemaal correct, het worden dan 4x8pins (36). Dat is drie keer 1x12, het houdt op een gegeven moment op met het kunnen toevoegen van meer connectors. Ik snap dat je lang met een voeding wilt doen, dat is goed vanuit het duurzaam oogpunt.
Met pcie 8pins zijn we ook begonnen met maar 1 stekker op een voeding, voor 1 kaart. Daar zijn er meer bijgekomen omdat mensen SLI/Crossfire wilden. Toen kwamen er krachtigere kaarten en hebben ze de 2x 8pins 'misbruikt' om meer voeding te krijgen, daarna werden het er 4, etc..
Dit is een evolutie om het aantal kabels terug te brengen naar 1. (en dan begint dit weer opnieuw)
Die splitters naar 12vhpwr hebben 2x8pin in, dus waarom zou ik verkeerd tellen?
Wat ze moeten doen is naar 24V gaan. Dan heb je de helft minder ampere's. Scheelt pinnen, kabels en warmte.
Of ene aparte kabel als je een modulaire voeding hebt ?

Maargoed ik zou serieus AMD als alternatief overwegen als blijkt dat in de toekomst nVidia kaarten alleen nog maar een 12VHPWR connector krijgen. Niet iedereen staat te springen om een nieuwe voeding te moeten kopen :(

[Reactie gewijzigd door sapphire op 25 juli 2024 12:45]

als je ziet wat de prijzen doen van alle componenten dan zou je voeding op wat fans en ram na bijna de goedkoopste kunnen zijn en in tegenstelling tot zowat al de rest nog makkelijk in een paar builds bruikbaar
Uiteindelijk zal het vast goedkoper worden. Maar nu zijn ze nog vrij prijzig. De enige ATX 3.0 met zo'n 12VHPWR connector die nu te koop is, is de uitvoering: Thermaltake Toughpower GF3 welk nu 259 euro kost.
Corsair maakt voor Gen4/Type4 voedingen al een accesoire kabel die je kunt kopen voor je bestaande voeding. Je moet even controleren of je corsair voeding in die categorie valt. RMx valt er voor zover ik weet wel onder

toch handig gezien het aanbod van pcie5.0 native voedingen in de pricewatch nog erg schaars is momenteel

[Reactie gewijzigd door youridv1 op 25 juli 2024 12:45]

ATX 3.0 voedingen hebben ook al gesmolten connectoren gezien, aan de voeding kant zelfs. Dus dit probleem is echt niet over zodra je een ATX 3.0 voeding aanschaft.
Ik snap niet waarom de connectors altijd naar de zijkant wijzen en niet recht naar beneden. Videokaarten zijn een stuk langer dan de meeste andere add-in kaarten. Dus als je deze achter aan het einde naar beneden laat wijzen kan deze overal langs zonder buigen :).
Bij modulaire psu kun je ook hoek stekkers krijgen, of misschien zijn er ook wel verloopstekkers met een 90 graden bocht.
Cablemod werkt aan dat soort adapters:

https://store.cablemod.co...hpwr-right-angle-adapter/

Twee smaken beschikbaar voor de specifieke oriëntatie van de 12VHPWR adapter. Preorders starten vandaag.
Awesome! Nu nog ff sparen voor een 4090 :D
Voor mensen die weten wat ze doen zou dat inderdaad beter zijn maar, de kans dat je de kaart bij installatie beschadigd is veel groter wanneer je druk op de zijkant uitoefent in plaats van op de bovenkant (van de kaart)
Wat ik niet begrijp is dat ze die 4 sense/control wires per se op dezelfde connector moesten hebben. Ik kan me er vanuit een user-error perspectief wel iets bij voorstellen, maar nu is er dus een nieuwe frankenstein-connector nodig terwijl we al jaren naar tevredenheid met die Mini-fit connectoren werken zonder problemen.

Hoe lastig was het geweest om de sensing/control functies gewoon op een aparte 4-pins connector te gooien? En als je die niet aansluit gaat je kaart er dan maar vanuit dat ie maximaal 150W mag trekken. "doet niet"? #RTFM!
Ik hoop dat ze vooral de prestaties met Ray tracing aan hebben opgeschroefd.
Werkt raytracing uberhaupt op AMD videokaarten in games die in het begin enkel op nvidia werkte? Bijv. BF5?

Alleen daarom zou ik al bij nvidia blijven; weten dat "alles gewoon werkt"

[Reactie gewijzigd door Gamebuster op 25 juli 2024 12:45]

Raytracing werkt 'gewoon' op amd kaarten. Wat niet werkt is dlss. Dat is wel een reden om bij nvidia te blijven.

Dlss betekent gewoon 30 tot 80% meer frames. Dat is een generatie videokaarten. Normaal gesproken :)

En ja, FSR 2 is er nu. Maar dat komt niet in de oudere games. En ook niet in elke nieuwe game.

[Reactie gewijzigd door lordawesome op 25 juli 2024 12:45]

Uiteindelijk zijn DLSS en FSR in de basis hetzelfde concept, alleen met een ander marketing laagje er overheen. Als je zegt 'DLSS werkt niet op AMD' zou je ook moeten zeggen 'NVidia RT werkt niet op AMD', want ook de RT implementatie van NVidia leunt op hun eigen implementatie.
FSR werkt technisch gezien op NVidia omdat AMD kiest voor een open implementatie, waar NVidia historisch altijd kiest voor gesloten systemen. Dus zeggen 'DLSS werkt niet op AMD' is precies waarvoor NVidia hun marketeers heeft ingehuurd, het doet vermoeden dat DLSS een uniek iets is wat echt alleen bij NVidia kan. En ja techisch correct, maar FSR 2.0 is uiteindelijk soortgellijk en voor de meeste gamers redelijk vergelijkbaar (alleen de 'alles 8K, 1080p ziet er uit als een N64' overdreven typetjes zullen DLSS echt superieur vinden in alle aspecten)

Daarnaast moet DLSS net zoals FSR geïmplementeerd worden, waarbij NVidia zeker een voordeel heeft omdat ze gewoon een groter marktaandeel hebben. Voor oudere games moet er ook maar net DLSS beschikbaar zijn (DLSS 1 is per game getrained, dus niche games hebben dit sowieso niet). FSR 2.0 is relatief nieuw, dus ook logisch dat het nog niet 100% standaard in de workflow zit.
Dat is een lang en irrelevant verhaal. Er zijn games die DLSS support hebben maar niet AMD’s variant.

Irrelevant of het ongeveer hetzelfde is. Als je het niet kan aanzetten op kaart A en wel op kaart B, dan maakt het niet uit of het concept hetzelfde is, want het werkt 100% niet op de ene kaart en op de andere wel.

[Reactie gewijzigd door Gamebuster op 25 juli 2024 12:45]

Irrelevant ben ik niet met je eens, lang is ook allemaal maar relatief.

Er zijn zeker games die DLSS supporten en niet AMD's variant, maar er zijn ook games die de NVidia raytracing supporten en niet die van AMD. Waar ik op reageer is dat hij zegt 'RT werkt wel, DLSS niet' terwijl dat dus fundamenteel niet klopt. De bedrijven hebben een andere implementatie, maar ondersteunen allebei een dergelijke techniek.

Of het concept hetzelfde is vind ik daarbij zeker wel relevant, want ik vind het belangrijk dat mensen inzien dat 'DLSS', hoe fancy het ook klinkt, geen unieke techniek is. FSR is hetzelfde als DLSS, net zoals ze allebei een andere implementatie hebben van RT. Want als dat niet zo is, dan kun je altijd zeggen 'Deze precieze implementatie van exact hetzelfde werkt niet bij deze kaart', is het dan nog steeds irrelevant?
De technologie is niet zo interessant als het niet werkt in je favoriete games. FSR kan nog zoveel op DLSS lijken, maar als een game DLSS/nvidia-only RT support heeft en geen FSR/generieke RT support, dan heb je er niet zoveel aan.
Heb er zowiezo nietsc aan, nep frames
Natuurlijk heb je er wel wat aan... veel hogere framerates met vrijwel geen impact op graphics.
Nee, alleen extra latency🙄
DLSS zorgt bij mij in ieder geval nooit voor extra latency. Niet merkbaar in ieder geval.

Heb je een bron dat er wel extra latency zou zijn tegenover geen-DLSS?
DLSS is evengoed niet zomaar toepasbaar op elke willekeurige game. Zowel DLSS als FSR moeten geïntegreerd worden.

Zowel nvidia als AMD drivers ondersteunen een soort van generieke upscaling, maar die zijn minderwaardig aan de game-geïntegreerde technieken.

Verder is het voor nieuwe games niet onwaarschijnlijk dat het gewoon alles gaat ondersteunen. FSR is handig voor de consoles (nagenoeg allemaal AMD), DLSS want nvidia is martkleider en misschien XeSS want je hebt nu toch al een framework om die technieken te implementeren en 't is niet heel veel meer werk.
Dlss zit echter wel op elke zware game, waar je het ook nodig hebt.

Misschien gaat fsr netjes ondersteund worden. Deze maand was Uncharted en plague tale al met fsr en dlss uitgekomen.

En na wat googelen lijkt het erop dat oude dlss games naar fsr kunnen worden gemod met een dll vervanging. Wel onofficieel en lang niet overal toepasbaar, maar het geeft hoop.

Ik zou mijn 30 serie kaart kunnen dumpen als amd met iets moois komt over een paar dagen.
Hoe ouder de game is des te minder relevant DLSS natuurlijk wordt voor nieuwe kaarten.
Tuurlijk. Tenzij je een monitor upgrade doet naar 144hz en/of 4k. Dan heb je dlss ook bij oude games hard nodig.
FSR werkt in elke game in tegenstelling tot DLSS.
Dat is FSR 1 en daarmee render je het volledige beeld op een lagere resolutie om het dan op te schalen, inclusief de interface, wat kan leiden tot wazige tekst. FSR 2 moet wel per game ingebouwd worden. Voor FSR 1 heeft Nvidia trouwens ook een alternatief dat in elke game zou moeten werken (Image Scaling).

FSR 2 heeft als voordeel dat het werkt met GPU's van andere fabrikanten (dus ook Intel en Nvidia).
Klopt. Is dus gewoon FSR. De tekst wordt alleen wazig bij lage resoluties. Als je 1440p uscaled naar 4K merk je geen verschil. En ook op mijn SteamDeck werkt het uitstekend.
DLSS is inderdaad bizar goed. Vrijwel alle moderne games die het nodig hebben, hebben het.

Iedereen* vindt dat je AMD moet kopen om nvidia's "monopolie" te temmen, maar in praktijk koopt men alsnog zelf een nvidia kaart. Ze vinden vooral dat iemand anders AMD moet kopen geloof ik.

(*niet letterlijk iedereen)

[Reactie gewijzigd door Gamebuster op 25 juli 2024 12:45]

Geen idee waar je het over hebt. RT wordt gewoon als standaard ondersteund in Vulkan en DirectX.

In het geval dat er een heel vroege game was die nvidia-specifieke renderers/plugins gebruikte voor RT wil je gewoon zeggen "ik zou blijven bij de dominante partij omdate enkel die diens eigen proprietaire technieken ondersteunt in plaats van mee te werken aan een industriebrede standaard". Niet echt een goede boodschap.
Ik zeg gewoon hardop wat vele gamers zoals ik in praktijk doen. Door erover te praten kunnen we eventuele misverstanden de wereld uithelpen.

Je reactie geeft ook geen antwoord op de vraag. Mijn vraag was of alle games die RT ondersteuning ook dit ondersteunen op AMD kaarten. (zoals BF5) Ik begrijp dat als dit niet het geval is, dat deze games ervoor hebben gekozen om gebruik te maken van nvidia-specifieke technologie. Dit zou dan een smerig stukje vendor-lock-in zijn, maar dat neemt niet weg dat ik alsnog om die rede een nvidia kaart zou nemen daarvoor.
Mijn vraag was of alle games die RT ondersteuning ook dit ondersteunen op AMD kaarten. (zoals BF5)
Nee dat was je vraag helemaal niet, je vraag was:
Werkt raytracing uberhaupt op AMD videokaarten in games die in het begin enkel op nvidia werkte? Bijv. BF5?
@Arrigi geeft wel degelijk antwoord op je vraag, maar mist waarschijnlijk het specifieke stukje kennis waar jij naar op zoek bent, namelijk de technische details rondom BF5. Zijn antwoord dat in alle games die ray tracing ondersteunen door middel van de API's die hiervoor beschikbaar zijn in DirectX12 of Vulkan, ray tracing ook werkt op AMD kaarten, is gewoon correct. De performance van ray tracing op AMD kaarten is overigens wel een stuk lager dan die op NVidia kaarten, de techniek hiervoor is bij NVidia gewoon iets beter doorontwikkeld.

Voor BF5 gaat dit helaas niet op, want die maken gebruik van een gesloten, NVidia specifieke API voor ray tracing. Blijkbaar vermoedde je dat ergens al want je hint er naar in je vraag. Zoals je zelf ook toe geeft is dit een smerig stukje vendor-lock-in, iets waar NVidia helaas om bekend staat. Voor mij is dat juist een reden om bij hun producten weg te blijven, want als ze niet meer die enorme zakken geld mee kunnen geven aan ontwikkelaars om hun gesloten technieken te gebruiken in plaats van standaarden dan is het hopelijk snel afgelopen met dit soort praktijken.
Ik ben het nog steeds niet eens met dat Arrigi antwoord gaf op de vraag (of 1 van de 2 vragen) maar jouw reactie geeft in ieder geval wel een compleet antwoord, bedankt.
Voor mij is dat juist een reden om bij hun producten weg te blijven
Begrijpelijk. Mijn principes wegen niet zwaarder dan de wens om ook op deze games mijn reflectie te kunnen zien terwijl ik neergeschoten word.

[Reactie gewijzigd door Gamebuster op 25 juli 2024 12:45]

Geld speelt ook geen rol heb ik zo,n idee. Heerlijk die principeloze, rijke klanten Meer aub!
Ik zeg gewoon hardop wat vele gamers zoals ik in praktijk doen. Door erover te praten kunnen we eventuele misverstanden de wereld uithelpen.
grappig dat je dit zegt, maar ondertussen zeg je ook
Alleen daarom zou ik al bij nvidia blijven; weten dat "alles gewoon werkt"
Wat een onzin
Is dus geen onzin, er is net geroepen dat BF5’s RT niet werkt zonder nvidia.

Het was dus geen misverstand
Ik reageerde niet op je BF5 verhaal maar op het feit dat je eerst claimed ik blijf bij nVidia omdat alles gewoon werkt en daarna zeg je het is goed om het te bespreken om eventuele misverstanden de wereld uit te helpen (dit had ik ook in quotes gezet dus leek me duidelijk waar ik het over had)

IMO vind ik het al een misverstand om te claimen dat bij nVidia alles gewoon werkt.. en zulke dingen roepen helpt al helemaal niet mee om misverstanden de wereld uit te helpen

Alle bedrijven hebben zo wel hun problemen, nVidia is daar geen uitzondering in

[Reactie gewijzigd door Sinester op 25 juli 2024 12:45]

AMD loopt er (aardig) achter mee, ja. Dit was te zien in benchmarks waarin Raytracing aan/uit was. Het wordt voor AMD wel een item aangezien er steeds meer games er gebruik van gaat maken.
Denk dat het wel meevalt, de consoles zijn nog steeds AMD based GPU's en daar moeten games de komende jaren nou eenmaal rekening mee houden
Geen idee voor consoles. Maar raytracing kan uit. Misschien is dat standaard uit?
Terechte reactie! RT is geen Nvidia only technologie. AMD ondersteund dit ook, in de praktijk scoren Nvidia kaarten wel veel beter in RT workloads.

-getypt op een AMD only werkstation
Als ik het snel opzoek was het gewoon DX12 DXR. Standaard implementatie. Vermoedelijk had nvidia op dat moment wel de enige hardware-RT-acceleratie, wat de indruk zou wekken dat enkel nvidia het ondersteunt. Ook snel opgezocht, nvidia heeft wel een eigen RT SDK maar die wordt niet in games gebruikt.

RTX2000 kwam uit in september 2018. AMD kwam met RT-hardware in november 2020.
Battlefield V kwam uit in november 2018, dus dan had je wel een groot gat waarin je een nvidia kaart nodig had om RT te draaien, dat klopt.
In mijn hoofd kon de AMD-generatie daarvoor in 2019 dat ook al. Maar er was een gat van twee jaar.
Ja, het zit tegenwoordig in Vulkan en DirectX. De performance van AMD in raytracing is minder dan nvidia, maar het moet werken.
Helaas gaat dit verhaal voor Battlefield 5 niet op, deze game maakt gebruik van een proprietary oplossing voor ray tracing die alleen werkt op NVidia kaarten. Ondersteuning voor DXR of Vulkan RT zou door middel van een update aan de game kunnen worden toegevoegd, maar dat gaat waarschijnlijk niet meer gebeuren.
Ja. nvidia heeft heel handig hun marketing zo gemaakt dat het lijkt alsof het een nvidia feature is, door hen bedacht, maar het is een feature die komt uit DirectX en Vulkan.
Esthetisch gezien vind ik de 6000-series er toch mooier uitzien :)
Ergens hoop ik dat navi-31 qua performance net iets onder de 4090 ligt, maar dan aanzienlijk beter geprijsd.
Ik hoop het ook voor ze. Maar twee verschillende kaarten. Met een zo hoog mogelijke oplage en een lage prijs, zodat ze hun positie in de markt weer verder kunnen versterken.
We blijven in spanning afwachten!
Dan is de grand reveal ja, maar ook bij zowel AMD als Nvidia neem ik die benchmarks wel met een korreltje zout.
De eerste kaarten komen pas begin december lees ik bij de geruchten rubrieken.
Mooie kaart. Lijkt niet lomp groot ook. Hopen dat dit icm met 'normale' stekkers en stroomverbruik een beetje in de buurt komt van de performance van Nvidia
Nog even en er komt een 24 pins ATX stekker op :P
Ik moet daar ook altijd wel om grappen. :+ Hoe bijvoorbeeld de rokende hoogspanningskabels in Flevoland werd veroorzaakt door een RTX4090 die werd aangezet. :D
2 slots groot, zou mooi zijn voor mijn mini ITX kastje. AMD trekt dit keer wat meer aandacht, wat mij betreft, dan die te hoog geprijsde en vrij grote Nvidia kaarten. Hopelijk zijn deze beter geprijsd.
Is gewoon 3-slot hoor.
Ik zie toch maar 2 schroefbeugeltjes.
En toch is de kaart inclusief koeler 3 sloten dik.
Wow, ik had net zo'n dikke knoeperd verwacht als de 4090 en minstens de 3090. Dit valt enorm mee!

Op dit item kan niet meer gereageerd worden.