'AMD Radeon RX 9070-preorders beginnen op 23 januari, aankondiging op de 22ste'

AMD's aankomende Radeon RX 9070- en RX 9070 XT-videokaarten zijn mogelijk vanaf woensdag 23 januari te preorderen. Dat meldt de Amerikaanse webwinkel B&H. Er wordt ook gesproken over een mogelijke officiële aankondiging op 22 januari.

AMD Radeon RX 9070-pre-orders via @momomo_us
Screenshot: @momomo_us

B&H zette twee verschillende Radeon RX 9070- en RX 9070 XT-videokaarten in zijn webwinkel, merkte @momomo_us als eerste op. B&H noemt een preorderdatum van 23 januari om 15.00 uur Nederlandse tijd, precies een week voordat Nvidia zijn RTX 5080 en 5090 uitbrengt. De Amerikaanse webwinkel noemt alleen preorders op zijn website, maar zegt niet wanneer de videokaarten daadwerkelijk geleverd worden en noemt ook geen prijzen.

Verder claimde een admin en reviewer op het Chinese techforum Chiphell dat het embargo op de RX 9070-kaarten al op 22 januari verloopt, schrijft ook VideoCardz. Het is niet bekend of AMD op die datum alleen de concrete specificaties bekendmaakt of dat op die datum ook de reviews al gepubliceerd mogen worden. De eerste kaarten worden volgens VideoCardz momenteel al wel verzonden naar reviewers.

Inmiddels zijn ook de eerste 3DMark-resultaten op Chiphell gezet. Die zijn inmiddels weer verwijderd, maar bewaard door een socialemediagebruiker. De videokaart scoort 6345 punten in de Speed Way-benchmark, die is gericht op raytracing. Dat komt overeen met de RX 7900 XTX en de Nvidia RTX 4070 Ti Super, schrijft Wccftech. In de Time Spy Extreme-benchmark, die dan weer draait om traditionele renderprestaties, haalt de kaart naar verluidt 14.558 punten. Als dat klopt zou de kaart op het niveau van een RTX 4080 zitten.

AMD deelde eerder deze week de eerste details over zijn Radeon RX 9070- en RX 9070 XT-videokaarten met journalisten. De gpu's werden echter niet besproken tijdens de CES-keynote van het bedrijf. AMD heeft ook nog geen specificaties en releasedata van de twee videokaarten gedeeld; de chipmaker sprak alleen over een release in het eerste kwartaal van dit jaar.

AMD Radeon RX 9070 en 9070 XT

Door Daan van Monsjou

Nieuwsredacteur

09-01-2025 • 17:23

119

Lees meer

Reacties (119)

119
117
46
4
0
60
Wijzig sortering
Deze kaarten staan of vallen met de prijs. Wanneer wordt dat toch duidelijk?
Geruchten zeggen 479 dollars voor de reference card. Maar we gaan het zien. Zou mooi zijn als het onder de 500 dollar blijft.

https://www.digitaltrends...-rx-9070-xt-pricing-leak/
Dat zou een ongelooflijke goede deal zijn, 4080 prestaties voor 500 euro.
Dan ga ik liever nog voor het verhaal van Nvidia. Die zeggen, als ik het goed zeg, dat de RTX5070 dezelfde prestaties biedt als de RTX4090 voor €579.
Dat is enkel met dlss plus frame gen, dus neppe prestaties. De 5090 is in werkelijkheid ongeveer 25% sneller dan de 4090. 5080 is de helft van de 5090, dus we kunnen met zekerheid zeggen dat de 5070 niet dezelfde prestaties biedt als de 4090.
Ja, dat is waar wat je zegt.

Geef mij maar echt frames in plaats van DLSS of FSR en al helemaal geen frame generation. Ik heb het zelf allemaal aangezet en ik zet het ook snel weer uit. Ik merk teveel artefacten en toch op de een of andere manier voelen gegenereerde frames niet hetzelfde als daadwerkelijk frames. Het is net alsof er een soort vertraging in het beeld komt of iets dergelijks. Ook Ray tracing ben ik geen fan van. Heb dat ook aangezet en ik zie nauwelijk het verschil. En waar ik het zie, side by side, vind ik met enige regelmaat Ray tracing uit juist mooier. Geef mij maar gewoon good old echte frames zonder trucjes.
Daar heeft Hardware Unboxed nog een heel mooi artikel over

Het heeft ook veel ruis en is niet noodzakelijk mooi of beter, alleen makkelijker voor de makers.
Gelukkig merk ik de nadelen niet op en enkel de voordelen. Het beste is dat je minimaal 60fps haald zonder FG want anders heeft het wel nadelen. Maar ik zou sowieso geen videokaart kopen puur voor DLSS en FG. Het moet native al snel genoeg zijn.

[Reactie gewijzigd door Demonslayer op 10 januari 2025 06:02]

Dat dus. Ik merk dat ik de 'blurryness' en artefacten onvoldoende opwegen tegenover de frames die ik ermee ga winnen. Wat dat betreft ben ik misschien wel verwend en verwacht ik nagenoeg 'perfectie'. Zodra DLSS/FSR (in combinatie wellicht met frame generation) zo goed is dat de artefacten en blurryness verwaarloosbaar zijn, maar dat er wel lekker veel frames bijkomen, ga ik het gebruiken.

Ik word ook gewoon een beetje moe van de marketing trucjes van Nvidia (en AMD). In de keynote van Nvidia wordt dan aangegeven dat bijvoorbeeld de RTX50XX (weet even niet meer precies welke kaart, ik dacht de RTX5090) waarin ze vertellen dat die kaart 2x zo snel was als de RTX4090. Dan staat er in het klein onder dat dit is onder DLSS versie 80.000 met multi frame generation aan. Ik vind dat geen eerlijke vergelijking van de ene kaart tegen de andere. Ik wil gewoon zien wat de nieuwe kaart X presteert tegenover de oudere kaart Y. Dan kan ik voor mezelf een inschatting maken, rekening houdend met de prijs, of deze kaart iets voor mij is. Dit zegt mij namelijk echt niets.. Hij zal ongetwijfeld sneller zijn, maar ik wil duidelijkheid en eerlijkehid. Lekker de onafhankelijke benchmarks afwachten.

[Reactie gewijzigd door Tostie1987 op 10 januari 2025 16:04]

Frame-generation kan ik begrijpen: die extra input latency voel je daadwerkelijk. Maar upscaling artifacts? Dat ligt geheel aan je (interne) resolutie. Ik vind 4K met DLSS/FSR quality (1440p intern) een no-brainer. Knappe jongen als je dat verschil kunt zien, want eventuele artifacts zijn normaliter vergelijkbaar met de default in-game TAA.
Geef mij maar gewoon good old echte frames zonder trucjes.
Dit bestaat niet, heeft nooit bestaan en zal nooit bestaan. Realtime video-game graphics en ''trucjes'' gaan hand in hand. Of het nu gaat om frustum culling, LODs, 2D alpha effects, MSAA, skyboxes, etc. Developers gebruiken al tientallen jaren trucjes om performance te besparen en dingen te ''faken''. Systemen zoals dynamic res werden al gebruikt voordat DLSS/FSR überhaupt bestonden.

Het is juist ontzettend ironisch dat je rasterized technieken mooier vind, want die gebruiken de meeste ''trucjes'' vergeleken met raytracing. Raytracing is per definitie nauwkeuriger, en dat zal alleen maar verbeteren in de toekomst.

[Reactie gewijzigd door IlIlIllII op 10 januari 2025 09:02]

Met de trucjes bedoelde ik inderdaad dingen als DLSS en FSR.

Blijkbaar ben ik dan een knappe jongen, want ik zie duidelijk een verschil tussen wel en geen DLSS/FSR. Het is lastig te beschrijven wat ik dan merk. Toevallig zag ik vanmorgen een filmpje van Hardware Unboxed op de CES waarin hij uitlegt wat hij dan zelf merkt. Hier de link naar dat filmpje: https://www.youtube.com/watch?v=xt_opWoL89w
Vanaf 1:37 begint hij te vertellen over bepaalde aspecten van (in dit geval) FSR die nog onvoldoende werken. Ik zie soortgelijke dingen en stoor mij eraan. Bijvoorbeeld in Diablo 2 Remastered is het overduidelijk dat vlammen/vuur niet goed gerendered worden. Zodra ik terugschakel naar de 'gewone modus' zonder 'trucjes', dan vind ik het mooier. Dat is dan ook wat ik bedoel met 'good old echte frames'. Ik begrijp dat hier ook van alles wordt toegepast om het zo realistisch mogelijk te maken, maar dat is niet wat ik bedoel. Ik bedoel dus het verschil tussen wat ik 'gewoon' noem en 'trucjes' als DLSS/FSR/FG om kunstmatig de frames hoger te maken dan ze daadwerkelijk zijn.

Wellicht is het feit dat ik rasterized technieken mooier vind dan Ray Tracing omdat ik het ook zo gewend ben. Aan de andere kant zie ik met Ray Tracing ook vaak lichtinvallen en reflecties die totaal niet realistisch zijn. In de echte wereld zou ik nooit een reflectie zien van iets wat over meerdere oppervlakken is gegaan. Bijvoorbeeld een reflectie van iemand dat eerst weerspiegelt is over de grond, vervolgens over de bank en dan reflecteert op een glanzend oppervlak van bijvoorbeeld een vaas. Ik vind het vaak te overdreven. Om die reden voelt rasterized vaak beter aan.

Ik hoop dat het nu duidelijker voor je is wat ik bedoel.

[Reactie gewijzigd door Tostie1987 op 10 januari 2025 10:35]

Oké, ik begrijp je nu iets beter. Er zullen absoluut spellen zijn met een betere/slechtere implementatie dan anderen. Nu is FSR 2 ook niet bepaald ''goed'' anno 2025, dus artifacts bij specifieke elementen (alpha zoals water/vuur) zijn dan inderdaad eerder te zien - dat is een zwakte van het spel in combinatie met de upscaler. Maarja, anderzijds is DLSS bijvoorbeeld stukken beter en zijn de artifacts nagenoeg ontzichtbaar vanaf een bepaald punt. En ook hier: hoe hoger de native resolutie en framerate, hoe beter het resultaat. Het is en blijft een temporal upscaler. Ik maak zelf geen onderscheid tussen iets als TAA, DLAA of DLSS. Het zijn uiteindelijk allemaal oplossingen die het beeld of de framerate verbeteren en resources vrijmaken voor andere zaken.
Aan de andere kant zie ik met Ray Tracing ook vaak lichtinvallen en reflecties die totaal niet realistisch zijn.
Daar kan ik niet echt op antwoorden. Uiteindelijk is ook raytracing gelimiteerd qua BVH-structure, aantal light bounces, denoising, etc. Materialen worden nog altijd door artists toegekend. In Hogwarts Legacy is dit bijvoorbeeld slecht gedaan en lijkt elk oppervlakte wel een spiegel, waardoor raytracing er gewoon niet goed uitziet. De ene developer doet zo'n techniek goed toepassen, de ander niet - dat probleem heb je ook met rasterized technieken. Neemt niet weg dat raytracing nauwkeuriger is.
Misschien dat dat is wat er is. Ik speel(de) inderdaad veel Hogwarts Legacy en Diablo 2. Dit zouden inderdaad spellen kunnen zijn waarbij de implementatie toevallig niet best is. Welke spellen raad je aan waarbij DLSS/FSR (liefst FSR, heb een AMD videokaart) goed geïmplementeerd is?
Over goede implementaties is helaas weinig te vinden! Juist de negatieve uitschieters krijgen de meeste aandacht. Maar over het algemeen heeft Cyberpunk 2077 goeie tech implementaties (NVIDIA gebruikt het graag als testbed voor hun tech: zie RT Overdrive, frame-gen, 4x frame-gen, etc). Volgens mij is FSR er ook redelijk prima, alhoewel hologrammen (daar zijn ze weer - transparency/alpha effects) wat problemen kunnen hebben.

Doom Eternal is ook best goed! Juist omdat dit spel op hoge framerates draait heb je minder snel last van motion shimmering met FSR. In principe is FSR daarom niet eens nodig, maar je kunt je GPU genoeg belasten door iets van raytracing aan te zetten.
Mits goed gedaan dus het materiaal daadwerkelijk de juiste IOR, reflectie, roughness, subsurface scattering, ect.. heeft. (Wat betekent dat je als dev dus niet lui kunt zijn met Ray tracing). Dan kan RT absoluut realistischer zijn maar vaak worden er idd dingen teveel overdreven. Vooral de overdreven reflecties in natte surfaces is tenenkrommend. Ambient occlusion zou bvb totaal niet nodig hoeven zijn met RT maar word als een soort sauce er als nog boven op gegooid in sommige gevallen. Minecraft RT heeft weer te veel licht reflectie waarbij kleur (lees licht reflectie) over alles heen word uitgesmeerd. Cyberpunk 2077 en Allen Wake 2 zijn spellen waarbij ik het beste resultaat heb gezien helaas is performance impact te heftig ik neem geen genoegen meer met 1080p dus als ik het met mijn RTX 4070 niet op 1440p kan draaien gaat het uit. Ik gebruik een 4K 60hz 28” monitor.
Ik denk dat de 5090 wel wat beter is dan dat.
Wat zijn je bronnen?
Ik denk dat 5090 voor meeste volk ook hier niet relevant is, eigenlijk x090 sku ti en titans. En vaak ook nog x080 sku ook.
Het zal vanaf 2500 , met meer keuze 3K customs exclusief 1kw PSU die ook nodig hebt.
En uiteraard gaming mobo voor top kroon gaming cpu. €5K PC
AMD heeft alleen midrange en midrange is voor grotere groep relevanter.
Dus die 5070 5070ti vs RX9070 & XT en wat vorige gen midrange.
Voor die met te verl geld is dlls4 triple framegen meer van toepassing voor 5090 en misschien 5080 voor korte termijn totdat nextgen games ook daar die basis 30fps niet meer halen. En e-sport kan je vergeten die hebben native 240fps nodig.
Bronnen zijn in dit geval de keiharde specs. Cuda cores * kloksnelheid.

Helaas houdt dat geen rekening met IPC voordelen. En de dubbele AI performance van de 5xxx generatie. Welke dus ook slim toegepast word in diverse vernieuwde rendertechnieken.

Een nieuw upscale algoritme wat veelbelovend lijkt en die nieuwe frame gen.

Hoe dat gaat werken met latency en artifacts is iets voor een uitgebreide review.
Kijk even naar de specs en je hebt je antwoord: bijna identiek procede, beetje meer cores, meer energieverbruik.
Wel grappig dat iemand het "royale" bedrag van 600 euro voor een 4090 over heeft. De prijs van een 5070 die volgens de adverteerder dezelfde prestaties heeft ...
In nederland wordt dat vanaf €654 voor de 5070 en vanaf €889 voor de 5070ti volgens de nvidia website.
Als je dat gelooft. Heb ik nog een vacature voor je bij de Efteling.
Wat bedoel je met 'dat' in 'als je dat gelooft'? Het slaat nu kant nog wal wat je zegt.
Dan ga ik liever nog voor het verhaal van Nvidia. Die zeggen, als ik het goed zeg, dat de RTX5070 dezelfde prestaties biedt als de RTX4090 voor €579.
Ik heb nergens gezegd dat ik het ook daadwerkelijk geloof. Sterker nog, in het gehele pleidooi ervoor (als je had gelezen voordat je had gereageerd) geef ik volgens mij vrij duidelijk aan dat ik op de hoogte ben van de trucjes die ze uithalen met betrekking tot DLSS/FSR/MFG. Jammer dat je niet goed hebt gelezen.

Daarnaast ben ik ook wel benieuwd naar jouw voorspelling op dit gebied. Jij zegt dus zelf dat de RTX5070 niet net zo snel is als de RTX4090? Wat is eigenlijk je mening? De tijd zal leren wie er gelijk heeft of hebben.
Zonder gekkigheid cherrie picking valse vergelijkingen en misleidende Marketing?

Nvidia RTX 4070 ti (de niet super versie)

AMD 7900GRE

Niet veel meer niet veel minder.
Wel aanzienlijk betere DLSS implementatie en hij is niet te duur.

Wel karige hoeveelheid ram geheugen. Dat gaat nog problematisch worden.
Hoe kan dat nouw?
4090 heeft24gb
Die 5070 heeft 12gb
En dan de prijs?

Sprookjesbos verhaaltjes :)
Niemand weet het nu nog zeker. Dat is ook wat ik probeerde te zeggen in de reactie op BarnET.
Ik denk het zelf ook niet en ook dat heb ik aangegeven in mijn reactie. Ik vind het een beetje kinderachtig om te reageren met opmerkingen als sprookjesbos en Efteling vacature. Ga gewoon inhoudelijk in op wat de ander zegt en ga de discussie aan. Dat probeer ik ook te doen.

Meer GB werkgeheugen hoeft niet altijd iets te zeggen over de snelheid. Zo is waarschijnlijk GDDR7 weer sneller dan GDDR6X. Daarnaast kan de geheugen bus een verschil maken.
Met AMD hebben we gezien wat een enorm verschil lager geklokte processors met 3D VCache in games hebben tegenover veel hoger geklokte (bijvoorbeeld Intel) processors zonder die VCache. Misschien heeft Nvidia met de RTX5000 serie ook een soortgelijk iets bedacht waardoor de grootte van het geheugen er minder toe doet. Niemand die het weet. Het is op dit moment nog koffiedik kijken. Afwachten op de onafhankelijke reviews.
Ik reageer op hem niet op u ;)

En voor mijzelf ga ik naar kamp rood.
De belachelijke hoge prijzen van Nvidia is not done.

[Reactie gewijzigd door xaradine op 10 januari 2025 16:36]

Niemand die ook maar drie seconden nadenkt en de specs bekijkt gelooft dit.

Deze cijfers zijn opgepompt door dlss4 die nu 75% van de frames verzint ipv 50%. Als je naar echte performance (dus zonder interpolatie) kijkt is het dus eerder 5070 = 50% van de 4090. Kijk je naar het aantal cores en de bandbreedte met het geheugen, dan past dat ook veel beter.
Dat heb ik wel gedaan. Je moet echt even beter lezen.
In mijn reactie van 10:09 uur én mijn reactie van 10:49 uur staat duidelijk dat ik op de hoogte ben van het feit dat ze DLSS aanhadden met MFG.
En nogmaals, we weten nog vrijwel niets over de architectuur van de RTX5000 series. Ervan uitgaande dat, wanneer deze hetzelfde is en presteert als de RTX4000 series, dan heb je gelijk en zal deze ruwweg op X% van de RTX4090 draaien (als je het puur hebt over rasterization performance). We weten ook nog niet goed wat de 'AI-cores' doen. Wellicht dat die een enorm verschil maken in hoe we games renderen (en dus fps creëeren). Ik weet het niet. We gaan het zien.
Dus je gehele hoop rust op AI cores. Je verzint zelf nog even dat nvidia mischien een totaal nieuwe render methode heeft uitgevonden, en dat die mogelijks voor magische performance zorgt, maar om een of ander mysterieuze reden hebben ze daar niets over gezegd.

God wat is de tech industrie verneukt door al die AI stront.

Ja, natuurlijk zullen we de echte performance zien in reviews, maar we kunnen nu echt wel al een inschatting maken adhv de specs, en afhankelijk van de archtiecturale verbeteringen zal er misschien mog wel wat extra uitkomen. Maar reken je niet rijk, want hier is iets wat we ook weten: nvidia heeft het stroomverbruik van alle modellen draarig opgepompt.

Dat doe je niet als de archtictuur vanzelf al heel veel beter presteert.

[Reactie gewijzigd door kiang op 10 januari 2025 16:27]

479 dollar wordt al gauw 580 euro na belastingen. Daarmee zou ie alsnog iets goedkoper dan een RTX5070 kunnen zijn.

Dan blijft de afweging of je 16GB VRAM prefereert boven DLSS+multi framegen en lager stroomverbruik.
FSR4 blijkt ook niet eens zo heel slecht te zijn (dus waarom op DLSS focussen) en lager stroomverbruik moet nog maar blijken.

Verder zou ik de kaarten voornamelijk in native tegen elkaar afzetten straks.

Het wordt wel een interessant jaar voor de consumenten HW. Hopelijk dat Intel ook nog iets in de mix gooit...
Omdat DLSS 4.0 waarschijnlijk nog beter is? Los van alle andere opties en extra's die RTX kaarten bieden. Waaronder rtx Voice.
Verder zou ik de kaarten voornamelijk in native tegen elkaar afzetten straks.
Waarom dan? En wat is de definitie van native? En waarom gaat dit wel op voor deze technieken maar niet FSAA/MSAA etc?
Klinkt een beetje arbitrair eerlijk gezegd.

[Reactie gewijzigd door NMN1665 op 9 januari 2025 23:10]

De definitie van native is gewoon eenduidig en behoeft geen discussie. FSAA en MSAA zijn universeel, tenzij een van de fabrikanten hier inmiddels weer hacks in de drivers op los heeft gelaten om de cijfers op te krikken ten koste van de kwaliteit…

Het zijn factoren om mee te nemen in de overweging, maar in eerste instantie wil je gewoon de ruwe prestaties weten. Dan kan een ieder voor zich bepalen welke sausjes verder belangrijk worden geacht.
Een moet de eerste zijn met nieuwe technieken. Helaas testen maar weinig echt ruwe prestaties en hebben we het al snel over low mid en ultra. Allemaal sausjes met variatie.
Mwoah, dat laatste is dus discutabel. Native prestaties worden steeds minder relevant in een tijdperk van upscalers, frame-generation, etc. Als DLSS 4.0 een 1080p spel op 4K kan laten lijken (bij wijze van), en bij FSR 4 is dat 1440p... dan is dat wel een degelijk verschil. Er komt een periode waar 70, 80, 90% van de pixels in een frame gewoon gegenereerd wordt, en slechts een fractie native is gerenderd. Zijn ruwe prestaties dan nog van belang, of heeft de kwaliteit van het upscalen/genereren meer waarde?

Wanneer dat punt echt bereikt wordt... wie zal het zeggen. Maar native prestaties worden hoe dan ook achterhaald in de toekomst - dat hebben alle ontwikkelingen van de laatste 5-10 jaar wel laten zien.
Ik zeg niet dat het geen waarde heeft. Maar uiteindelijk dien je producten met elkaar te kunnen vergelijken. Dat je uiteindelijk een goed beeld met puike prestaties wilt, snap ik. Maar uiteindelijk is er vaak wel sprake van een tradeoff, zeker met framegen. Nu al vol op de DLSS4 hypetrain te stappen is wel enorm voorbarig, zeker omdat het gewoon bekend is dat framegen niet volledig vrij van input latency is, ongeacht maatregelen.

Omgekeerd geredeneerd, als FSR4 op het niveau is van DLSS3, kan je beiden sowieso tegen elkaar wegstrepen, dus komt het ook weer op basisprestaties aan. Al is dat natuurlijk even voorbarig.

Daarnaast, zoveel mensen, zoveel wensen. De ene heeft graag een zo soepel mogelijk beeld middels framegen, de ander een zo soepel mogelijke ervaring op Linux. Voor de ene valt AMD dus direct af, voor de ander is het het enige mark wat in aanmerking komt. Wederom een reden om additionele features dus vooral in het juiste perspectief te stellen.
Ik snap je helemaal! Eerlijk gezegd ben ik ook totaal geen fan van frame-gen, vanwege o.a. de input latency die je noemt. Het zal nog jaren duren voordat frame-gen (voor mij persoonlijk dan) een bruikbaar niveau heeft bereikt. Maar ik realiseer me wel dat dit soort technieken de toekomst zijn. Of dat goed of slecht is, tja... genoeg mensen klagen al steen en been over upscaling, en aan de ene kant snap ik dat wel. Tegelijkertijd maakt upscaling en frame-gen de weg vrij voor echte grafische sprongen zoals pathtracing in Cyberpunk.
als FSR4 op het niveau is van DLSS3
Je maakt een goed punt, maar er zijn meerdere concurrenten op dat gebied. Denk aan XeSS, PSSR en ongetwijfeld ook Microsoft in de toekomst (BasicSR, anyone?). Die technieken zullen vroeg of laat ook met frame-gen en dergelijke aankomen. Er zal altijd wel een techniek de beste of de slechtste zijn - net zoals dat nu het geval is.
Precies. Als je toch al 60 fps nodig hebt om framegen goed z'n ding te laten doen, dan zijn die 60 fps voor mij sowieso reeds voldoende voor de wat langzamere spellen. Voor de snellere spellen waar je juist meer FPS wilt, als shooters, wil ik dan vooral dat de responsiviteit optimaal is, waar framegen dan dus juist geen oplossing voor is. Hetzelfde natuurlijk wat artifacts betreft.

Laat dat dus nog maar even in de oven. Leuk en vooral interessant vanuit technisch perspectief, maar voor mij op het moment nog van nul waarde.

Upscaling is voor mij, juist ook omdat ik een hekel heb aan artifacts en een verslechterde beeldkwaliteit, niet echt een ding van meerwaarde. DLSS is zeker wel goed genoeg om een koopargument te zijn. Maar zolang het niet voor iedere game beschikbaar is, is het iets wat apart behandeld dient te worden als de feature set. Ik hoop dat FSR op het punt komt dat het als een alternatief voor (DL)AA ingezet kan worden. Nu is het meer een panic button als de prestaties te laag zijn, maar met een kwalitatieve prijs.

Zeker nu AMD al een tijdje met PSSR in de weer is geweest, ben ik ook wel hoopvol dat we het punt bereiken dat we DLSS en FSR tegen elkaar weg kunnen strepen, net als dat met GSync en FreeSync het geval was.
Dit dus, goeie upscalers wat DLSS zonder frame gen nu al is. Is Absoluut een meerwaarde.
Dat je op 1440p kan renderen met 4k output met weinig tot geen afname beeldkwaliteit is gewoon een top feature. En Nvidia heeft op dit moment de beste versie van die feature.

Maar fake frames invoegen met extra input lag wat onder de 60 fps zonder niet speelbaar is.

Dat heeft geen enkele waarde.
AMD noise suppression kan je aanzetten in het Radeon control panel. Alhoewel krisp volgens sommigen better is dan de alternatieven van NVIDIA/AMD en een gratis download.

Het eerste nieuws rond AMD FSR4 is bijzonder positief dus daar hebben ze een flinke inhaalslag gemaakt (en naar verluid ook bij ray tracing prestaties). NVIDIAs grote voordeel zal vooral CUDA zijn (en mogelijk stroomverbruik).

[Reactie gewijzigd door Xthemes.us op 10 januari 2025 04:02]

Er is wel meer zogenaamd bijzonder positief over amd GPU’s gezegd in het verleden. Maar even afwachten of ze het na jaren eens waar gaan maken. Nvidia daar en tegen is al sinds jaar en dag een stabiele factor.
Goede vraag, voor mij gaan native prestaties boven dlss/fsr, om t simpele feit dat zodra de ondersteuning stopt van die generatie, de volledige dlss waardes niks meer waard zijn.

Met native heb je hier op een paar driver-cheats na eigenlijk geen last van.

(Met ondersteuning bedoel ik dus elke nieuwe dlss versie die niet compatibel met oudere generaties is waardoor je dus sneller moet upgraden.)
Maar wat is dan 100% native. Zeker als
Je nagaat alles artificieel is.
Ik mag het hopen voor Nvidia,
Ze hebben de hardware aangepast ervoor. Marketing technisch er veel op ingezet. En ze hadden al de beste implementatie.

Moet raar lopen als ze daar geen voorsprong meer zouden hebben
al een geluk dat jij alles natuurlijk al weet over het verbruik van de nieuwe kaarten en hoe dlss4 en fsr4 gaan presteren om zo een statement te maken. :O
Is natuurlijk persoonlijk maar framegen is voor mij echt een no-go vanwege de latency. De andere DLSS (of FSR) temporal scaling features vind ik prima, maar ik heb geen super sterke voorkeur tussen die twee.

Op zich is dit daarmee best een mooie kaart als de prestaties (ook voor raytracing) op het niveau van een 4070 ti super / 4080 zitten.
Ja ja, ja en ja en dlss kan je wegstrepen.
komt dan eerder neer op 600-650 denk ik, onze consumenten prijzen vallen altijd hoger uit. Komt denk ik doordat de gepresenteerde msrp's exclusief belasting zijn.
Correct, maar als we zien dat de $549 van de RTX 5070 voor €654 op Nvidia's site staat, denk ik dat de geruchten van $480 wel iets lager uitvallen in €, eerder rond de €570
Dat zou hem in concurrentie brengen bijna met de rtx 5070 ti, dan zou onder de 500 erg aantrekkelijk zijn...
Ik schat net wat lager dan 4080 (super in), (7900 xt is paar % lager, daar eindigt het volgens mij. Huidige benchmarks (zoals black ops) zijn AMD cherry picked, heb de benchmarks van kaarten van vorig jaar goed bekenen, soms is amd 20% sneller, soms 20% trager, dus per game kan 40% verschillen. Probleem om 4080 te verslaan moet amd in de cherry picked dingen al 15-25% sneller zijn omdat er veel games beter op Nvidia draaien. Maar lager dan 7% onder de 7900xt zie ik ook niet gebeuren, net door de hoge pieken van bepaalde benches zal het gemiddelde sowieso hoger zijn dan 7900 GRE.
Dat zou een ongelooflijke goede deal zijn, 4080 prestaties voor 500 euro.
Jensen verkoopt je een 5070 met RTX4090 performance voor 549, dat klinkt beter....

[Reactie gewijzigd door RedBull op 10 januari 2025 16:40]

500 dollar daar is 650 Euro hier....
Daarom heb ik ook de 7700XT die ik recentelijk heb gekocht teruggestuurd. Ik verwacht dat hierdoor prijzen flink gaan zakken.
En door dit soort acties moeten de marges van winkels omhoog, want jouw kaart (als je hem al hebt gebruikt) mogen ze niet als nieuw verkopen. Je had ook eerst na kunnen denken en dan kopen.
Als hij ongeopend is en de verzegeling is intact kan je hem wel degelijk als nieuw verkopen, wat hier ook gaande is. Ongeacht wat jij persoonlijk hier van vindt.

Aanvullend, als dat wel zo is verkoop ik ze ook gewoon, maar met deze (verwachte) prijzen verwacht ik dat de tweedehands markt ook wat in elkaar klapt.

[Reactie gewijzigd door SkyStreaker op 10 januari 2025 09:50]

Vandaar dat ik dat tussen haakjes had gezet ;)

Dan nog heeft de winkel er werk mee gehad, enige wat ze nu niet hebben is dat het product niet als nieuw verkocht kan worden. Wel verpakken van je order, terugboeken etc etc.

Nadenken voor men iets doet is blijkbaar zo vorige eeuw ofzo..

Persoonlijk mogen winkels van mij gewoon een restockfee vragen, mits binnen redelijkheid, is voor iedereen beter op de lange termijn.
Nou nou, "nadenken". Had jij deze prijzen voorzien dan? Ik eerlijk gezegd niet.

Even over de restockfee, diegene die het werk uitvoert? Hoort gewoon bij de dagelijkse werkzaamheden en je verdiend er niet meer op. Even simpel gezegd.

[Reactie gewijzigd door SkyStreaker op 10 januari 2025 10:35]

Volgens mij begrijp je niet helemaal wat ik bedoel te zeggen.

Het is vrij normaal dat degene die kosten veroorzaakt (in dit geval onderdeel van de prijsstelling en dus inbegrepen in de marges) ook die kosten draagt. Ook het omgekeerde komt veel voor, dat het collectief wordt. Ik persoonlijk vind het voor dit soort dingen eerlijker als die kosten bij de veroorzaker neergelegd worden. Tevens voorkomt dit het vele heen en weer sturen van pakketten.
Ja, zo. Helder.

Enigszins wordt dit al gepakt door sowieso retourneren op kosten koper te laten doen, eens.
Ben ik met je eens heb mensen gesproken die gewoon een maand een videokaart nodig hebben en daarna weer terug sturen met afstand van wetgeving. Megekko geeft 1 maand bedenk tijd.

Heb zelfs meegemaakt met dat iemand een PS5 kocht en zijn spel speelde en binnen de twee weken weer terug stuurde en de spel weer verkocht op de internet.
Ik denk zodra ze de benchmarks van de Nvidia RTX5000 series binnen hebben.
AMD kan bv. haar top range kaarten niet voor top range prijzen verkopen als het de prestaties van bv de 5070(ti) niet kan overtreffen.
je bedoelt prijs/performance want als die slechter presteert dan de gelijkgeprijsde concurrenten dan koopt nog niemand ze
anders ook niet, want 90% denkt dat ze enkel op nvidia kunnen gamen of dat ze dlss nodig hebben en alleen dat...
Net als toen die onzin met PhysX. Toen had AMD oprecht de betere producten. Is wel al een hele tijd geleden.

Al hebben ze vaak wel prijstechnisch goede producten gehad die meer marktaandeel verdiende dan wat ze kregen. Zoals de Rx470/480 570/580
Volgens PCGH
Het nieuwe topmodel van de RDNA 4 videokaarten, de Radeon RX 9070 XT, is nu voor het eerst verschenen in 3DMark Time Spy Extreme en 3DMark Speed Way, waar het prestaties levert op gelijke voet met de Radeon RX 7900 XTX in de vorm van een van de twee aangepaste ontwerpen van Asus met een boost clock van meer dan 3 GHz en een stroomverbruik van maximaal ongeveer 330 watt.
Bij 3DMark Time Spy Extreme delft hij wel het onderspit.
Ik heb nog de 6950XT ook nog steeds een top kaart voor games
Niet alleen dat: als de 9070 XT in raytracing net zo snel is als de 7900 XTX, maar raytracing is bij RDNA 4 naar verhouding sneller dan bij eerdere generaties van AMD, dan betekent dat dus dat de 9070 XT inderdaad een langzamere kaart wordt dan de 7900 XTX.

Zó groot was het verschil tussen de 7900 XTX en je 6950 XT ook weer niet, dus dan komt de 9070 XT rond of iets boven het niveau van je 6950 XT terecht in rasterization. En in dat geval is AMD het dus met je eens dat je 6950 XT nog steeds een topkaart is ;). Blijft wel een beetje koffiedik kijken tot de eerste reviews binnen zijn natuurlijk.
Ik heb ook een 6950 XT en ik denk dat je gelijk hebt. Het zal echter volgens mij meer gaan om de AI cores en FSR 4, zoals bij NVidia het ook meer gaat om DLSS 4. Van wat ik heb gezien, worden die versies veel beter qua beeldkwaliteit dan hun voorgangers.

Ik heb FSR 3 en Intel Xe 1.3 ultra quality geprobeerd op mijn 34 inch 3440x1440 monitor in Cyberpunk, maar ik zie heel duidelijk het verschil. Het beeld is gewoon waziger en er zijn meer knipperende randjes en artifacts rond transparante objecten. Het voelt nep en het leidt af van het spel. Ik snap dat op een 4K monitor, die ook nog eens een kleiner formaat heeft, dat minder erg zal opvallen, maar waarom heb je dan een 4k monitor, denk ik dan. Zelfs met FSR 3 native AA heb je nog steeds die problemen. Native speel met de standaard in-game TAA is veel mooier.

Dit artikel laat het mooi zien, weliswaar op 1080p, maar ik zie hetzelfde beeldkwaliteit verlies op mijn ultrawide 1440p.
Ondanks een 4K-scherm deel ik met mijn 6900 XT deel ik precies dezelfde ervaring. FSR 3 verkloot particles soms gewoon, zelfs op 4K Native AA. Daardoor kun je bijvoorbeeld krijgen dat regendruppels bijna compleet verdwijnen van je scherm, of ze zien er meer uit als een streep dan als een druppel. Sommige games speel ik nog liever in native 1440p dan in 4K met FSR Quality.
Jammer dat de kaart zoveel stroom verbruikt. Verder wel een mooie videokaart.
Misschien voor sommige maar van ik let niet op een tientje ;)
Ik zoek liever zuiniger ;-) rx6600 of 4060 is voldoende voor mij.
Begrijp ik maar het stelt echt niet veel voor ik speel aardig wat Warzone op 2K met over 300fps (vraag me niet waarom :)
Ik betaal ongeveer 45 euro aan stroom per maand komt wel door mijn Victron systeem met 10kw accu.
Deze staat op handelen waardoor me rekening laag valt maar ook daarvoor valt het echt reuze mee.
Overigens bezuinig ik dus wel alleen net even anders :)
Als die benchmarks kloppen is het wel duidelijk dat ze ook met deze generatie niet lijken mee te doen met de topkaarten en dit ook deze generatie skippen. Spijtig vind ik wel, want het zou nvidia het vuur aan de schenen leggen.
Dat was ook het idee. Ze gaan deze generatie niet voor de high end. Maar ook nu is de prijs allesbepalend.
Tja. Laten we eerlijk zijn met 4070 ti achtige prestaties kun je volgens mij de meeste games wel op ultra 1440p 120fps+ spelen? Dat vind ik best wel high end eigenlijk.
Hoop wel dat er andere merken komen.Asus is niet mijn faforiete merk meer.slechte ondersteuning ;(
IMHO is er voor AMD eigenlijk maar 1 goto merk en dat is Sapphire. Powercolor is er ook wel maar das nog wel eens hit or miss.
https://www.gigabyte.com/Graphics-Card/AMD-Series

Gigabyte heeft ze al op de site staan en de rest (MSI, PowerColor, XFX, Sapphire, ASRock etc) zal ongetwijfeld snel volgen.
Als je liever een wat uhmm ongewoner model wil, Yeston is ook weer van de partij
https://videocardz.com/pi...0-and-geforce-rtx-50-gpus
Specs en performance lijken redelijk conform (gelekte) verwachting en naamgeving vanuit AMD.

Als de pure renderprestaties inderdaad rond de 4080 zitten die ca €1.000 kost, en de 9070XT conform speculaties rond de $500 uit gaat komen (ca €600 of meer hier in NL) dan ben ik benieuwd wat dat met de overal prijzen gaat doen.

Voor het middensegment dus een prachtige kaart als alles uitkomt :)
Als deze kaarten daadwerkelijk de raster prestaties van een 4080 benaderen en raytrace prestaties van een 4070 Ti Super, dan vind ik dat lang niet verkeerd eerlijk gezegd. Dat zou betekenen dat ze 'maar' een procent of 20 tot 30 onderdoen voor de RTX 5080 als je alle DLSS en FG dingen weglaat, en ik durf wel te voorspellen dat een 9070XT ruimschoots meer dan 20% goedkoper gaat worden dan een 5080.

Dat ze niet echt in de buurt komen van de 5080 of laat staan de 5090 is volgens mij niet zo heel erg relevant. Het is inmiddels wel duidelijk dat een RTX 5090 echt niet meer bedoeld is voor mensen die leuk spelletjes willen doen, dat is gewoon een overkill kaart die waarschijnlijk nog geen 1% van de mensen die er alleen mee gaan gamen gaat aanschaffen. Vooral op papier interessant. De 5080 zal veel meer de 'top of the line' kaart worden voor de andere 99% van de mensen, significant sneller dan de 9070 XT maar ook weer niet zo veel dat de 9070 XT gelijk een kansloos product is, zeker niet als hij redelijk geprijsd is.

Ik wacht even rustig af tot de kaarten op de markt zijn, ik wil graag upgraden van een RTX 3080 ondanks dat die nog prima voldoet (speel toch alleen op 1440p) maar zou graag wel betere raytrace prestaties hebben, en veel belangrijker, ik wil graag van NVidia af omdat ik al mijn PC gaming met Linux + Proton doe tegenwoordig, en NVidia + Wayland + gamescope wordt gewoon veel minder goed ondersteund dan AMD. Ik ben meer geinteresseerd hoe veel AMD de video encoders heeft verbeterd (voor streamen naar de huiskamer) en hoe makkelijk deze kaarten werken met KVM (voor GPU passthrough). Dan neem ik graag 'maar' 20% tot 30% lagere prestaties op de koop toe. Frame generation heb ik geen interesse in, en AMD's nieuwe upscalers zullen ook vast niet slecht zijn vergeleken met wat ik nu aan DLSS heb op mijn 3080.
Ben benieuwd wanneer de specificaties en prijzen worden vrijgegeven.
Voorlopig ben ik nog heel erg blij met mijn RX 7900XTX, ben benieuwt hoe de RX 9090XT(X?) presteerd als die er komt.
Blijft leuk die speculatie. Maar wat waren die key notes een draak om door te komen zeg. Oef. Ik hoop dat we snel duidelijkheid krijgen van Hardware Unboxed, GamersNexus en andere goede third party reviewers. Op basis van de "info" uit dit artikel, kan het dus best zijn dat de RX9070 XT zich ergens nestelt tussen de 5070 en de 5070Ti.

Dat wil zeggen...raster binnen 5% (ofwel "gelijk", afhankelijk van spel plus of min) ten opzichte van de 5070Ti en de Raytracing langzamer dan de 5070 Ti, maar wel sneller dan de 5070 ( precies er tussen met ongeveer 10%?).

Aangezien Nvidia de prijzen op $ 749 en $ 549 heeft staan voor de genoemde modellen, zou ik graag zien dat AMD voor $ 649 gaat voor de 9070 XT en dan misschien $ 499 voor de 9070.

Echter...als AMD, AMD gaat zijn en zich initieel uit de markt prijst, dan zal de 9070 XT voor $ 699 worden aangeboden en de 9070 voor $ 599.

Ik ben benieuwd of mijn natte duim in de lucht in de buurt zit...
Beetje slappe hap. Ik had gehoopt op wat spektakel, maar ik heb maar een 7900XTX gekocht. Vorige generatie = beste generatie.
Echter heb je dan wel een hoge prijs betaald. Ik las dat de 9070 XT rond de 600 moet gaan zitten, maar tot de release blijft dat speculatie. Echter kunnen ze niet meer vragen dan een 5070, want dan verkoopt de kaart niet.
Dan is dit maar zo. Hoop er minstens 5 jaar plezier van te hebben. :)
Ik was het wachten helemaal zat. Had gehoopt op weer een stapje vooruit, al was het maar 10% ofzo, maar dat viel tegen.
Ik heb ook de indruk dat de prijzen van last-gen videokaarten niet meer zo stevig dalen als vroeger zodra de nieuwe lichting uitkomt. Voor mijn gevoel dalen ze veel gestager, maar bieden ze daardoor in het begin nog steeds meer waar voor je geld dan de nieuwe lichting. In dat geval heb je helemaal niet te veel betaald.
ze stoppen optijdmet produceren en laten ze dan uit verkopen om te voorkomen dat de prijzen zakken.
Die indruk heb ik bij AMD niet: de RX 6000-serie is t/m de 6650 XT nog steeds volop verkrijgbaar voor pakweg dezelfde prijs als ze al heel lang hebben, terwijl de RX 7600 al een hele poos uit is.
Nee enkel en alleen omdat ze geen keus hebben. Eenmaal intel voorbij werden hun prijzen en gedrag ook anders.
Echter kunnen ze niet meer vragen dan een 5070, want dan verkoopt de kaart niet.
als de kaart echt sneller is dan de 4080 super in rasterized en even snel als de 4070tis in ray tracing dan kan je er best meer voor vragen dan een 5070 hoor. zonder de multi frame gen zit de 5070 ongeveer tussen de 4070 super en de 4070 ti qua performance (hopelijk dichter bij de 4070 ti maar dat gaan we binnekort zien) dus als de leaks kloppen is de 9070xt ~24% sneller in rasterized en even snell in ray tracing. als je dat voor ongeveer de zelfde prijs verkoopt is dat niet slecht
En begreep van HW Unboxed dat FSR4 best aardig (erg goed) werkt.

Afgelopen zomer een RX7800XT gekocht dus zal er nog wel even mee doen, maar kan al m'n spellen op 1440p en Ultra (en vaak met RT aan) spelen met goede FPS. Ik snap de angst voor AMD GPU's niet helemaal en een RTX4090 is al helemaal overkill voor de meeste spellen... wordt ook hoogtijd dat dev's leren beter te programmeren.
Amd zit in de huidige 7000 generatie ook onder de prijs van Nvidia, maar ze verkopen ook relatief weinig stuks. Nvidia is heer en meester en ik denk niet dat dit gaat veranderen.

Of het verschil moet dermate groot zijn dat het de enige logische keus wordt. Dan denk ik echt aan 150 euro onder de 5070 voor dezelfde prestaties.
AMD heeft gewoon pech gehad met NVidia DLSS succes, terwijl AMD FSR het gewoon niet is geworden in vergelijking daarmee. Vergeet niet een 7900XT was 900 euro en een 7900XTX was zelfs 1.000 euro. Als je dat soort geld uitgeeft heb je relatief veel flexibiliteit in wat je kiest

Ook zuur dat AMD FSR 4 niet kan werken op 7900's. Dat was een grote kans geweest voor ze. Net als nu 32GB kaarten nog steeds zouden zijn. Maar ze lijken dat niet te willen. Die vreten zich ook vol aan de zakelijke markt zie je daarin, die willen niets betaalbaars in de buurt van hun AI accelerators.

[Reactie gewijzigd door OruBLMsFrl op 9 januari 2025 20:11]

Nvidia verkoopt altijd, omdat er bijna geen concurrentie is en Nvidia kaarten duur zijn, vinden mensen dat irritant. Dan trekken mensen eigen speculaties zoals “kaarten verkopen dan niet” dit en dat :)
Ik denk niet dat de 9070 XT sneller gaat zijn dan jouw 7900 xtx. Die laatste heeft 50% meer stream processors en flink hogere geheugen bandbreedte. Dat gat zal de 20% hogere clock snelheid en de verbeterde architectuur niet helemaal dichten denk ik. Misschien dat op ray tracing de nieuwe kaart wel veel dichterbij komt, maar op normale performance geloof ik dat niet totdat onafhankelijke benchmarks dat uitwijzen.
Ik vermoed dat de performance iets boven de 7900 xt zal liggen, uitgezonderd de ray tracing performance, die zal een stuk hoger liggen.
En de spellen die ik speel doe niet aan raytracing, en de makers van mijn favoriete spel (X-Plane 12) doen niet zo veel met raytracing. Er is een addon die iets raytracerigs doet, maar niemand lijkt dat iets te boeien. Ik ben alleen maar geïnteresseerd in rastering, en daarmee zit ik prima met de 7900XTX :Y) .

[Reactie gewijzigd door hooibergje op 10 januari 2025 02:27]

Lijkt er inderdaad op, had graag willen upgraden maar lijkt erop dat ik deze generatie kan overslaan.
Grootste reden dat ik 7900 XT niet gekocht heb is verbruik, en net kantje boort te hoge prijs, 700€ (vaak 770) is te hoog (te dicht bij 1000€ voor mij), mijn limiet is 600/650 maar liefst nog lager. Als 9070 xt 450-570€ is ga ik het heel moeilijk krijgen om er van te blijven, toekomst bestendig, goed genoeg op ray tracing (hierna zie ik alleen ultra grote jump in RT nuttig want nu is alles low ress/blurrie RT). Verbruik zou ook beter moeten zijn al klokken ze de kaart stevig over (3ghz). Misschien met wat tuning, naar de 220 wat van GRE te krijgen met nauwelijks prestatie verlies (mijn 1080 gtx verbruik 220-250 watt ik wil een gelijk verbruik hebben voor betere prestaties (dus niet zoals 4090>5090 waar prestatie /watt niet stijgt).

De kaart moet ook snel genoeg zijn om in inflatietijden langer mee te gaan, daarom dat ik de 7800xt /6950xt hoeveel vrij goed, net als te traag beschouw, 100% tot 110% verbetering is wat ik op aas, en de 7900xt (hopelijk 9070xt ook) bied dat. 5070 van Nvidia kan onmogelijk lang meegaan met 12gb ram. en 5080 ti marktprijs zal waarschijnlijk vrij hoog liggen zoals 4070 super ti (930€), wat veel te hoog is voor upper midrange.
Het klinkt een beetje alsof je voor een dubbeltje op de eerste rang wil zitten, en zo werkt het helaas met niks in deze wereld.
Waarom niet? Door 7 jaar en 4 maanden met mijn 1080 gtx te doen (ook toen zeer toekomstbestendige kaart), zit ik safe. Heb bepaalde dat 100-200 fps in games met 1440p is wat ik wil, en tis de 7900xt (en 4080) die eigenlijk altijd goeie fps hebben ook in moeilijke games, 7800 xt niet slecht maar toont soms net wat achterop hinken. En door generatie te wachten krijg ik betere prijs,verbruik, RT, video encoding en FSR4, die laatste 3 zijn dan wel goed genoeg voor mij, alleen prijs en verbruik mogen altijd beter voor mij maar met zelden nog een node verbetering verwacht ik daar niet veel van. En eens gekocht lang meedoen.

Mijn moto is altijd stel je kaart is na 2 jaar (en 1 dag) buiten garantie kapot, wil je de prijs die je nu voor je kaart betaalt opnieuw betalen? En bij alles boven 700€ is het antwoord néén, pas bij 600 en zeker bij 450€ voel ik dat niet, dus 4070 ti super, 5070 ti, 4080 super, 5080, 4090, 5090, 7900xtx vallen af, 7900xt zat er heel dichtbij, maar heeft zelden promo's gehad, bv nu zelfs bij Zwarte vrijdag geen echte 'all time low' promo, dus zag het nu van aankoop niet in. Maar 9070 zie ik weinig mis mee. 5070 met 12b voor (in praktijk- maar dan 600€ das pas probleem.

Maar ik ben ook realistisch ik ga niet to UMDA1 (RDNA5 soort van) wachten.

Op dit item kan niet meer gereageerd worden.