AMD heeft softwarefunctie Hypr-RX niet op tijd uitgebracht

AMD heeft zijn zelf gestelde deadline voor de release van Hypr-RX niet gehaald. De vorig jaar aangekondigde functie voor Adrenalin combineert Boost, Anti-Lag en SuperResolution, en moest in de eerste helft van het jaar uitkomen.

AMD kondigde Hypr-RX tegelijk aan met de RX 7900 XT en XTX in november vorig jaar. AMD zei toen de functie in de eerste helft van dit jaar uit te brengen en Videocardz merkt op dat dat niet is gebeurd. De eerste helft van het jaar was afgelopen weekeinde voorbij.

Hypr-RX moet een modus worden waarbij gebruikers met een enkele klik drie functies kunnen aanzetten. Boost verlaagt de resolutie dynamisch als de software beweging detecteert in een frame om de prestaties op peil te houden. Super Resolution schaalt games op met behulp van een algoritme en Anti-Lag moet de inputlag verminderen. AMD heeft geen nieuwe verwachte releasedatum voor de functie gegeven.

AMD Hypr-RX

Door Arnoud Wokke

Redacteur Tweakers

03-07-2023 • 11:27

50

Reacties (50)

50
50
14
1
0
31
Wijzig sortering
Ik heb liever dat ze gewoon de verwarming uitzetten als ik 2 schermen heb aangesloten ipv die nutteloze software features voor high end kaarten die daar sowieso al geen gebruik van zouden moeten hoeven te maken (is dat een goede zin?).

p.s. ik doel op het 100watt idle verbruik van de 7900xtx (in mijn geval) waar ik niks aan kan doen anders dan mijn monitor ontkoppelen.
Ik weet niet hoe het precies zit bij de 7900XTX, maar ik heb wat onderzoek gedaan naar high idle use zowel bij Nvidia als bij AMD en het lijkt te maken te hebben met de refreshrate.

Het is dus niet zo dat dit een AMD specifiek probleem is, het ligt aan de monitoren die je gebruikt en de refreshrate daarvan.
Het lijkt erop dat als die refreshrate ongelijk is, het geheugen meer stroom nodig heeft om het volledige beeld op tijd te kunnen refreshen.

Bij mij werkt alles prima bij 60hz en 120hz, alle andere refreshrates geven hoog verbruik zowel op AMD als op Nvidia.

Je kunt eventueel een tool als CRU gebruiken om de resolutie en de refreshrate zo te tweaken dat het wel werkt zoals vermeld in deze post.

Voor Nvidia gebruikers is er de handige Multi Monitor power saver die onderdeel is van Nvidia Inspector. Daarmee kun je de power state zelf regelen waarmee je het verbruik terug kunt brengen tot idle.

[Reactie gewijzigd door xenn99 op 23 juli 2024 08:05]

Ik sluit m'n secundaire scherm(en) altijd aan op de iGPU. Beetje desktop weergave van browser, discord, etc geeft nauwelijks belasting, dus waarschijnlijk hierdoor nooit last gehad van het fenomeen verhoogd verbruik.
Kan, en voor velen een prima oplossing (als ze een iGPU hebben; ik met m'n AMD 9 3900X niet). Ik heb twee game monitoren en speel op beide een game. Op zich maakt het ook niet uit, je hebt toch niet de hele dag de tijd om te gamen. Als je 'm daarna maar in slaapstand zet of laat zetten.
Hm goede, ik heb nu eindeljik een iGPU in mijn 7950x3D, wat mijn vorige 3950x niet had. Kijken ofi k mijn versterker en tweede scherm daar aan kan hangen, dan kan mijn primaire widescreen met 144hz op de dedicated grafische kaart blijven.
Nu hopen dat Linux lief is en dat dit makkelijk gaat.
Dit klopt niet. Je zal mij even op het woord moeten geloven maar met een Nvidia 1080 GTX met twee monitoren op 144hz en 165hz in idle met Steam, Discord en Youtube open, verbruikte tussen de 17 en 27 watt.

Nu dezelfde monitoren op een 7900XTX:

Single Monitor; 1440p@144hz:
Idle (Desktop only): https://i.imgur.com/WAuEVnO.png
Idle (Steam chat window): https://i.imgur.com/thnEN7O.png
Idle (Youtube 1080p video): https://i.imgur.com/SJ7SgGJ.png

Single Monitor; 1440p@60hz:
Idle (Desktop only): https://i.imgur.com/JIXzMrN.png
Idle (Steam chat window): https://i.imgur.com/nT2Dkj4.png
Idle (Youtube 1080p video): https://i.imgur.com/xQAw7c8.png

Dual Monitor; 1440@144hz & 1080p@60hz **OFF BUT PLUGGED**:
Idle (Desktop only): https://i.imgur.com/lKISC6A.png
Idle (Steam chat window): https://i.imgur.com/9K4V5tf.png
Idle (Youtube 1080p video): https://i.imgur.com/mZxaouE.png

Dual Monitor; 1440@144hz & 1080p@60hz (on):
Idle (Desktop only): https://i.imgur.com/b0EFli1.png

Dual Monitor; 1440@144hz & 1080p@144hz:
Idle (Desktop only): https://i.imgur.com/JZ7xqRO.png

Dual Monitor; 1440@60hz & 1080p@60hz:
Idle (Desktop only): https://i.imgur.com/frp03ma.png

Hieruit kan je concluderen dat er meerdere problemen zijn. Ten eerste klopt het inderdaad dat het helemaal mis gaat bij AMD op bepaalde monitor configuraties. De Memory Clock gaat steevast op 909MHz of 2487MHz staan idlen wat 50watt en 100watt verbruikt. Ten tweede kan je zien dat het niet helemaal goed gaat met de GPU Clock wanneer applicaties zoals Steam of Youtube een klein beetje GPU kracht nodig hebben. Wil je even chatten op Steam, verbruik je ineens 20 watt meer. Dit is iets waar Nvidia geen last van heeft.

Je kan met CRU wel het verbruik ietsjes omlaag krijgen bij bepaalde monitoren. Het werkt lang niet voor iedereen. Tevens verlies je daarmee je kleuren bit diepte (6 bit ipv 8 of 10 bit).

Om het even in perspectief te zetten: mijn maandelijkse verbruik van mijn bureau is van 82kWh gemiddeld naar 106kWh gegaan na het vervangen van mijn 1080 GTX voor een 7900 XTX.
Ik heb net even gekeken en dat verhaal over Youtube en de gpu clock kan ik inderdaad bevestigen dat is hier ook zo op mijn 6800XT.
Dit was mij zelf nog niet opgevallen dus bedankt voor die info!
Daar zou ik zeker graag wat verbetering in zien.

Ik heb nu hardware acceleration in mijn browser tijdelijk uit gezet als test, dat is natuurlijk niet ideaal maar lost het probleem wel op.

Het verhaal van de GTX 1080 is dan bij mij wel weer anders.
Ik had hiervoor de 1080TI die draaide zonder tweaks ongeveer 30 watt idle,
na de aanpassing met Nvidia Inspector is dat verbruik meer dan gehalveerd naar 13.
Het verschil is kleiner maar het probleem is bijna hetzelfde.
Bij AMD is het de memory clock die hoog blijft, terwijl het bij Nvidia de power state is die niet terug gaat naar state 8(idle) maar in bijvoorbeeld state 5 blijft hangen.
Dit is goed te zien aan de snelheid van de core en de temperatuur die dan op rond de 50c blijft hangen.

Ik heb zelf geen 10bit monitor, dus hoe dat zit met CRU kan ik niet testen.
Maar in die post waar ik naar link hebben mensen het ook over het instellen van 10 bit, dus volgens mij moet dat wel mogelijk zijn?
CRU doet volgens mij niet veel anders dan vaste waardes forceren voor je videokaart output.

Als het je puur om het verbruik te doen is zou ik ook zeker undervolt overwegen, bij AMD werkt dat zeer goed.
In mijn geval kon ik met een verlies van slechts 6% performance meer dan 100 watt van het vebruik van mijn gpu afsnoepen.

Ik draai nu met de Ryzen 7700x in eco mode, de 6800xt geundervolt naar 1060mv, 90 watt totaal systeem verbruik bij videos kijken op youtube (met hardware acceleration dus disabled in firefox).
350 watt totaal systeem verbruik bij gaming op 1440p in Cyberpunk 2077.

[Reactie gewijzigd door xenn99 op 23 juli 2024 08:05]

Heb nergens last van met een 6900xt, wel blijft mijn mem speed hoog maar idle verbruik is normaal, ik heb wel alleen de driver geïnstalleerd
Als je mem speed hoog is dan heb je hetzelfde ook ;)
Het is meer dat bij de 6000 serie het idle vebruik een stuk minder hoog is, dus het valt minder erg op.

Afgaande op wat Blackfm aangeeft is bij de 7900 XTX het idle verbruik maar liefst 100 watt,
bij mijn 6800xt is het "slechts" 38 watt.
Maar als de 6800xt (en ook de 6900xt) helemaal in idle gaan dan zakt die mem clock gewoon en het vebruik hangt dan rond de 12 watt.

Met een tool als hwinfo kun je het heel makkelijk zien.
Als je kijkt naar Gpu Memory Power (VDDIO) zie je dat deze constant 17 watt trekt, als je vervolgens je monitoren terugklokt naar 60 hz dan zul je zien dat die 17 watt weg zijn en dat het geheugen dan wel correct terug klokt.
Zoals ik al aangaf is mijn power draw prima in orde en verbruikt minder dan 17w gewoon op 240hz, en geheugen klokt wel terug op 60hz maar dat is allang zo

[Reactie gewijzigd door paco2013 op 23 juli 2024 08:05]

Met 2 monitoren op 240hz op een resolutie van 1440p of hoger heb je hoge memory speed maar een idle verbruik van 17 watt?

Kun je daar misschien een screenshot van linken uit hwinfo? want dat vind ik wel een interessante!
Dat staaft niet met de amd kaarten waar ik het mee heb getest, waaronder ook een 6900xt.
Hoe heb je de schermen aangesloten? met dp of hdmi?

Zelf heb ik geen 240hz schermen dus ik kan dat niet testen.

Hier 2 screenshots van 2x1440p@60hz en 2x1440p@75hz
Ik heb maar 1 scherm 1440p 240hz maar je zou hier eens kunnen kijken https://www.hwcooling.net...ith-multi-monitor-setups/


https://ibb.co/6b0VLZV

[Reactie gewijzigd door paco2013 op 23 juli 2024 08:05]

In jouw screenshot zie ik dat jouw kaart gewoon 32 watt verbruikt hoor, 12 watt daarvan is de memory.
(iets minder dan de 17 van mij, waarschijnlijk vanwege het verschil tussen single en dual monitor.)

Hij gaat dus ook bij jou niet terug naar idle precies zoals ik in mijn post beschreef.
Volgende keer iets beter lezen misschien? ;)
Je vraagt me om het verbruik die je ziet bij (VDDIO) daar zie je dat het laagste wat ie verbruikt 8+w is en gemiddeld 12+w het hoogte wat ie verbruikt is 32w. en zoals je ziet gebruik iki msi afterburner wat ook invloed heeft op het verbruik van de kaart,, dus niet helemaal idle ,
Voor de rest zijn je eigen woorden (Maar als de 6800xt (en ook de 6900xt) helemaal in idle gaan dan zakt die mem clock gewoon en het vebruik hangt dan rond de 12 watt.)
Volgende keer even even beter lezen. en mijn mem clock blijft gewoon op 1990mhz draaien volgens msi afterburner en hwinfo, en zakt niet terug, dat doet hij bij mij alleen als ik onder de 120hz ga.

En zoals je kunt zien is dat zonder msi afterburner dat het gene wat jij wilde zien niet meer verbruikt als 14+w

https://i.imgur.com/WleuM4N.png

[Reactie gewijzigd door paco2013 op 23 juli 2024 08:05]

Je vraagt me om het verbruik die je ziet bij (VDDIO) daar zie je dat het laagste wat ie verbruikt 8+w is en gemiddeld 12+w het hoogte wat ie verbruikt is 32w.
Ik vraag daar helemaal niet om, ik geef alleen aan dat je daaraan kan zien of je geheugen stroom verbruikt of niet.
en zoals je ziet gebruik iki msi afterburner wat ook invloed heeft op het verbruik van de kaart,, dus niet helemaal idle ,
Dat maakt echt weinig uit sowieso is het niet 1 op 1 vergelijkbaar omdat deze hele post ging over 2 monitoren, niet 1.
Dus je bent mijn verbruik van 2 schermen aan het vergelijken met 1 scherm van jou.
Voor de rest zijn je eigen woorden (Maar als de 6800xt (en ook de 6900xt) helemaal in idle gaan dan zakt die mem clock gewoon en het vebruik hangt dan rond de 12 watt.)
12 watt voor de hele kaart he, niet de VDDIO.
Als je kijkt naar de chronologische volgorde van mijn post zie je dat dat pas daarna komt.
en mijn mem clock blijft gewoon op 1990mhz draaien volgens msi afterburner en hwinfo, en zakt niet terug, dat doet hij bij mij alleen als ik onder de 120hz ga.
En dat is nou precies het probleem.

Dit draadje gaat over een setup met 2 monitoren en hoog idle verbruik.
Als jij gewoon lekker in windows bezig bent, en niet aan het gamen bent wil je dat je kaart zo weinig mogelijk verbruikt.

Dus niet dat hij constant 32 watt staat te verstoken terwijl het met 9 watt ook gewoon kan.
En zoals je kunt zien is dat zonder msi afterburner dat het gene wat jij wilde zien niet meer verbruikt als 14+w

https://i.imgur.com/WleuM4N.png
Ik weet niet wat je denkt dat ik precies wil zien, maar waar het in de screenshot om gaat is TGP.
Dat geeft namelijk aan hoeveel de kaart in zijn totaliteit gebruikt.

In jouw screenshot is duidelijk te zien dat jouw kaart 32 watt verbruikt en dus inderdaad ook niet terug klokt naar idle, want idle is dus rond de 9-12 watt voor de hele kaart.

Afgaande op je reactie denk ik dat je ergens in de war bent geraakt met mijn uitleg over de VDDIO.
Je kunt mijn VDDIO en die van jou niet direct vergelijken, omdat ik dus meerdere schermen heb is mijn verbruik iets hoger.
Bij mij 17 bij jou 12. Maar dat is maar een gedeelte van het totale verbruik en was puur bedoelt ter illustratie van het probleem.

Uiteindelijke conclusie is dus dat jouw kaart precies hetzelfde functioneert
als ik in mijn eerste 2 posts uitlegde.

Of jij het als een probleem ervaart, tjah dat zal persoonlijk zijn.
Als je vooral veel games speelt en verder weinig met de pc doet zul je er weinig van merken.

Gebruik je de pc elke dag 10 uur lang vooral in windows, en speel je slechts heel afentoe een game?
Dan zou het je enkele tientjes per jaar extra kunnen kosten aan stroom waar je dus niets voor terug krijgt.
Prima kerel jij je zin. En ik vergelijk niet 2 schermen met 1< ik zeg je dat ik er 1 scherm heb en jij vraagt om de Gpu Memory Power (VDDIO) zie je dat deze constant 17 watt trekt, en die laat ik zien simpel toch kerel of niet.
ik heb 2 165hz schermen (1 Dell G2723HN 1080p en 1 Asus PG329 1440p). Allebei naar 60hz (my eyes....) dropt de idle load aanzienlijk (naar 30-35w).

De Asus kan blijkbaar alleen naar 60, 144 en 165hz. Nu beide schermen op 144hz en dan hangt het idle verbruik rond de 50watt.

Vind het een degelijk compromis, maar het is wel een beroerde.
Ik mag hopen dat dit niet standaard voor dGPU's is, een 10 watt nuc doet het allemaal ook zonder zoveel verbruik.

Maar goed, voor het eerst dat de computer geen standaard fan-lawaai meer maakt, dus ik noem het winst :).
Dit klopt en is volgens mij ook geen probleem wat ze echt kunnen oplossen met multi-monitor.
Met G-sync werkt het hier overigens wel, 165Hz op de PG279Q en een apart 60Hz 1200P scherm klokt de 1080Ti gewoon naar 165Hz, maar als G-sync uit is zal je 120Hz of lager moeten instellen helaas.

De Nvidia Inspector Multi Display Energy Saver tool werkt overigens wel, maar na verloop van tijd krijg je daar 'probleempjes' mee dat ik in het verleden heb gemerkt, zoals het flikkeren van het scherm bij het wisselen tussen 2D en 3D kloksnelheden geloof ik, dus moet je het systeem rebooten om ervan af te komen. (toegeven dat was wel Windows 7)

En tja, in het algemeen zal dan je desktop ervaring niet geheel optimaal zijn omdat de kloksnelheid zo laag geforceerd wordt, bepaalde playback kan dan wel eens te weinig resources krijgen zoals video's willen afspelen, vooral nu de gehele desktop via DWM op Windows 8 en hoger via de GPU loopt.
De Nvidia Inspector Multi Display Energy Saver tool werkt overigens wel, maar na verloop van tijd krijg je daar 'probleempjes' mee dat ik in het verleden heb gemerkt, zoals het flikkeren van het scherm bij het wisselen tussen 2D en 3D kloksnelheden geloof ik, dus moet je het systeem rebooten om ervan af te komen. (toegeven dat was wel Windows 7)
Dat flikkeren bij het switchen van power state gebeurd nog steeds in sommige gevallen zelfs bij de nieuwste versie.
Ik merkte dit zelf vooral toen ik wisselde van 2x hdmi naar 1x hdmi en 1 x dp,
dus de aansluiting lijkt hier ook nog enig verschil in te maken.

Problemen in Windows heb ik verder overigens niet gezien, zelfs in de laagste power state draait de UI van Windows prima en zelfs youtube/streaming in browsers werkte bij mij naar behoren.
is dat inmiddels al niet opgelost met nieuwe drivers?
Geen idee. En als ik net even zoek op de 'known issue', want deze problemen zijn bekend bij AMD, is het blijkbaar nog niet opgelost.
Er is recent wel een preview driver uit gekomen die wat fixes heeft voor stroom verbruik met high refreshrate of het met multi monitor ook helpt zou je moeten proberen.
/offtopic/
De zin klopt inderdaad :)
als je 144hz monitor hebt maak een profile met 142hz refresh en zet het daarin. dat kan het ook fixen.
Nieuwe preview driver lost het idle verbruik op.
Nou, ik zal het eens bij de website zelf proberen, de Adrenalin software geeft aan dat ik up-to-date ben met een driver uit eind mei (23-05-2023)... En de laatste drivers op de AMD site zijn van 1 juni :S.

De versie op de site van AMD is 23.5.2 (datum 1 juni 2023).
De versie op mijn pc is ook 23.5.2 met een 'uitgave 23-05-2023'.

Ik vind het allemaal maar een vaag verhaal met die datums.

Maar goed, ik zal die preview drivers eens gaan proberen. Wellicht dat dit nog solaas biedt :).

Edit: En met wat stoeien van beide monitors van 165 naar 144hz gaat het idle verbruik van 95 naar ~50. Maar of dat door de driver komt betwijfel ik, immers doen ze het beide op 165hz nog steeds rond de 90-100w idle.

[Reactie gewijzigd door BLACKfm op 23 juli 2024 08:05]

Hier zag ik met de nieuwste stable driver 100w verbruik met 1x 4K/120 en 1x 1080/60 en met deze preview driver zit ik onder de 30w in idle en rond de 50w in Firefox. Voor mij lost dit ‘t dus wel op, gek dat het voor jou op 165Hz niets doet.
Dat het probleem uberhaupt al sinds de release aan de orde is doet mij vermoeden dat er gewoon ergens iets niet goed in de hardware zit ofzo. Misschien dat het voor 240hz wel weer beter werkt, maar dat kan ik dan weer niet testen (gezien de berichten over een veelvoud van 60hz dat dat ook werkt).
Ik had hetzelfde probleem, met laatste drivers zit ik nu rond de 35 watt.

Wel mijn ene scherm op 60hz gezet, het andere op 120hz. Meervouden van 60 lijken het beste te werken.
Dat is dan waarschijnlijk ook eerder de reden dat de load lager is. Het moet niet en/en zijn om een lagere load te krijgen, al lijkt dat wel het beste te werken. De nieuwe -preview- drivers boden voor mij in ieder geval geen soelaas, maar van beide 165hz naar 144hz hielp wel voor ~50% loadverlaging.
Dan moet je de preview drivers downloaden. Staat bij de fixes.
Een goede reden om nooit iets te kopen op basis van een "ja we gaan dit echt leveren in de toekomst" belofte.

Dit is niet specifiek alleen voor AMD, trouwens.

Jammer, het klinkt wel veelbelovend, qua functies, maar geen enkel bericht vanuit AMD hierover voelt niet goed voor de toekomst van dit product...
En daarom zal ik dus ook nooit meer een game pre-orderen. Ik wil eerst weten wat ik koop.
Hangt er vanaf in mijn ogen.
Voor sommige games wil ik best een pre-order plaatsen als daar een schappelijk bof tegenover staat.

Zo heb ik vaak diverse games van kleine developers in een vroege fase gesteund zodat deze projecten gerealiseerd konden worden. Maar daar werd dan ook een schappelijke prijs tegenover gezet t.o.v. de releaseprijs. (voor Minecraft ooit maar $5 betaald)

Ook zullen er games zijn waar ik gewoon van weet dat ik deze bij release zal gaan halen.
(The Elders scrolls 6, als deze over een klein decennia eindelijk uit komt 8)7)
Jammer dat er geen mogelijkheid is om de game te pre-orderen maar dan alvast een jaar na uitgave voor de helft van de prijs. Scheelt weer opletten wanneer het in de aanbieding is.
Dus omdat ze 1 dag na de deadline nog niks hebben opgeleverd? Sowieso, waarom zou je vanwege een niche feature als dit een product wel of niet kopen? Die feature komt echt nog wel hoor.
Aangezien deze nieuwe "functie" niets meer dan een knop is om 3 reeds bestaande functies aan te zetten kunnen we gevoeglijk aannemen dat hier geen enkele technische reden achter steekt en het puur een kwestie van marketing is. Om de een of andere reden vond men het de afgelopen tijd niet het juiste moment om dit uit te rollen. De vraag is ook wat de impact is en hoeveel mensen hier enthousiast van zouden worden -- het is wel erg van een "maar wij hebben ook wat" gehalte om toch nog iets tegenover DLSS 3 te kunnen stellen. Wellicht was dat ook de enige functie die het überhaupt had en weten ze dat ze er eigenlijk niks voor kopen om het uit te rollen.

[Reactie gewijzigd door MneoreJ op 23 juli 2024 08:05]

Is dit serieus nieuwswaardig?
De functies zitten allemaal al in de driver alleen moet je nu drie vinkjes zetten in plaats van 1.. :?

In mijn ogen zijn dit sowieso allemaal features die je eigenlijk liever niet aan wil hebben (op anti lag na misschien).
Upscaling is vooral een last resort voor als je kaart niet snel genoeg is.
Heb het net nog even geprobeerd omdat ik twijfelde, maar je kunt de upscale- en de boost functie op het moment niet gelijktijdig gebruiken.
Inderdaad!
Dit had ik zelf niet gezien, hij geeft die melding pas als je ze daadwerkelijk tegelijk probeert aan te zetten.
Dan biedt het wel echt iets extra.
Boost verlaagt de resolutie dynamisch als de software beweging detecteert in een frame om de prestaties op peil te houden.
.... Wat?
Wat? Dat is gewoon hetzelfde als dynamische resolutie; je wilt juist bij stilstaand beeld je 'normale' resolutie, omdat de kwaliteit dan meer opvalt, dan heb je de hoge fps ook niet nodig. Bij het bewegen/rennen wil je meer fps en dan valt de kwaliteit minder op.
Ah, zo klinkt het logisch.
Die implementatie heb ik eerder gezien maar over het algemeen werkt dynamische resolutie op basis van framerate.
Ja, in het artikel wordt toch ook over framerate gesproken? Dit werkt alleen op driver niveau in plaats van dat het afhangt van de game (expliciete support).

[Reactie gewijzigd door Anonymoussaurus op 23 juli 2024 08:05]

Als alles stil staat, hoeft de GPU niets meer te tekenen en heeft het in ieder geval geen grafisch werk te verrichten. Als er dus iets beweegt, dan moet het werk leveren. Hoe hoger de resolutie, hoe meer blokjes het moet tekenen.

Dus dit is soort van leuk indien het oog/brein het niet echt merkt, maar natuurlijk niet leuk voor mensen die het wel merken.

PS: dus als de GPU sneller frames kan maken, kan je meer fps krijgen mbt alles wat beweegt.

[Reactie gewijzigd door Some12 op 23 juli 2024 08:05]

Mijn ervaring met al die z.n. 'verbeteraars' is niet echt dat ik zeg van wow, of dat je daadwerkelijk ook verschil kan zien.
dit is zo'n onzin functie.
ze moeten gewoon ff focusen op FSR 3, ik wil ook graag frame generation op mijn 7900XTX
Geen gezeik gehad met Kingston over de naam? Meen me te herinneren dat er in het (recent?) verleden ook zoiets was tussen twee partijen en de naam mocht toen ook niet gebruikt worden. Weet alleen niet meer wie het waren. Was geloof ik ook anders geschreven, maar je sprak het hetzelfde uit.

Op dit item kan niet meer gereageerd worden.