AMD zegt prestatieproblemen Ryzen 7000-cpu’s in games te onderzoeken

AMD zegt dat het prestatieproblemen met Ryzen 7000-cpu’s in sommige games aan het onderzoeken is. Het bedrijf heeft op dit moment nog geen oorzaken gevonden en vermoedt dat gameontwikkelaars optimalisaties moeten doorvoeren.

AMD verwijst in een statement ook naar de introductie van haar nieuwe architectuur. Een dergelijk moment kan volgens het bedrijf soms voor abnormale testresultaten of prestaties zorgen bij computersystemen. Dit was volgens het bedrijf ook te verwachten en is volgens AMD ook geen nieuw fenomeen.

De reactie van AMD komt er nadat de redactie van techwebsite Tom’s Hardware heeft ontdekt dat Ryzen 7000-cpu’s die gemaakt zijn met een single-ccd-chipletontwerp bij games zoals Warhammer 3, Cyberpunk 2077 en F1 2022, beter presteerden dan de Ryzen 7000-cpu’s die een dual-ccd-chipletontwerp hadden met meer cores. Tom’s Hardware heeft de gameprestaties van Ryzen 7000 getest in een pc-systeem met een Asus RTX 4090 ROG Strix OC-gpu en deed alle driver en bios-updates die bij deze pc-onderdelen horen. De techwebsite vermoedt dat sommige games geoptimaliseerd zijn voor cpu’s met minder cores en threads en dat de Ryzen-cpu’s met minder cores daarom ook beter presteerden.

Update, 14u50: Info toegevoegd over het pc-systeem waarmee Tom's Hardware tot de resultaten kwam.

AMD Ryzen 7000
AMD Ryzen 7000

Door Jay Stout

Redacteur

30-10-2022 • 14:22

60

Reacties (60)

Sorteer op:

Weergave:

Is een achillespees van Ryzen die al langer gekend is, de latency tussen de cores kan oplopen vooral als je van CCD naar CCD moet.

zie ook https://www.anandtech.com...-5800x-and-5700x-tested/5

In het Epyc verhaal, stel dat je heel lage latency naar netwerk wilt kan je de netwerkkaart als preffered IO zetten, zie punt 3.1.12 in volgend AMD doc

https://www.amd.com/syste...003-series-processors.pdf

Maar ook moet je Windows vertellen zijn NIC in dezelfde buurt te draaien als waar de NIC zijn PCIe op zit, zie 3.3.2 in volgend AMD doc

https://www.amd.com/syste...dows-server-56782_1.0.pdf

Als ik dat even vertaal naar gaming met een AMD met meerdere CCD, worst case scenario draait de game op cores in een CCD waar niet de PCIe lanes toekomen van de GPU en waar niet de PCIe lanes toekomen van de storage.

Dat je dan een performance hit krijgt is logisch gezien de latency die zal optreden. Veel cores en veel CCD, allemaal heel leuk maar het voegt latency toe en die begint proporties aan te nemen dat je ze merkt.

Punt van kritiek naar AMD toe, het zou anno 2022 niet mogen zijn dat een game ontwikkelaar of een sysadmin moet liggen uitzoeken op welke cores onze load draait en op welke cores onze PCIe zit. Dat soort optimalisaties zou automatisch moeten gebeuren.

En om meteen mijn kritiek tegenwoord te geven, een groot deel daarvan zit in het OS dus Microsoft, er is nog werk aan de winkel!

*ik heb geen ervaring met Epyc in Linux, indien een andere sysadmin dat wel heeft, vul gerust aan.
Is een achillespees van Ryzen die al langer gekend is, de latency tussen de cores kan oplopen vooral als je van CCD naar CCD moet.
Ik weet niet of dit ook het probleem is met de Ryzen 7000, maar met de Ryzen 5000 heb ik dit inderdaad ook gemerkt. Ik game op een Windows VM met GPU passthrough, die onder een Linux QEMU hypervisor draait op een Ryzen 5950X (2 CCD’s van 8 cores). Als ik QEMU gewoon zelf vCPU threads liet allocaten dan zag ik in sommige spellen allerlei onvoorspelbare performance problemen, vooral random frame drops, microstuttering, etc. Het ene moment liep alles als een zonnetje en het andere moment ineens een paar seconden lang bagger performance. Mijn vermoeden is dat de Windows VM van een verkeerde CPU topologie uit ging en daardoor bij het migreren van threads tussen cores totaal geen rekening kon houden met de core-to-core latencies. Na de vCPU’s te pinnen in QEMU en alleen 8 cores van 1 CCD aan de VM te geven waren alle problemen compleet verholpen, nooit meer last van gehad.

Ik zou me best kunnen voorstellen dat daar nu iets mis gaat, een foutje in hoe Windows threads aan cores assigned. In dat geval lijkt het me iets wat wel met een OS update verholpen zou kunnen worden.
Als ik dat even vertaal naar gaming met een AMD met meerdere CCD, worst case scenario draait de game op cores in een CCD waar niet de PCIe lanes toekomen van de GPU en waar niet de PCIe lanes toekomen van de storage.
Er zit helemaal geen pci-e in de ccd’s bij Ryzen. Beide ccd’s praten met een I/O-chiplet, die stuurt de pci-e lanes aan naar de gpu en de ssd.

In het geval met 2 ccd’s bij Ryzen heb je gewoon het probleem dat de latency van de cores en de caches van de ene naar de andere ccd erg hoog is.

Dit soort issues kun je zelf voorkomen door de juiste cores toe te kennen aan het spel.

Maar het is wel raar dat Windows nog steeds zo slecht is in dit soort zaken afhandelen. Voor Intel is heel het thread management onderhanden genomen in Windows 11.

Intel heeft ook tot 3 verschillende clusters in de 12e generatie en 5 in de 13e generatie. Waarom werkt het daar wel goed en waarom niet bij AMD?

AMD heeft gewoon 2 clusters met dezelfde soort cores. Intel heeft 2 soorten cores. Wel zal er bij Intel minder latency zijn tussen de cores.

[Reactie gewijzigd door White Feather op 23 juli 2024 12:21]

Wat jij beschrijft is vooral een punt voor de Zen generatie zonder IO-die, waar geheugen kanalen en PCI-e lanes op verschillende afstanden van de core kon liggen. Sinds Zen2 met die IO-die is die afstand voor elke core gelijk geworden en hoef je daar in software geen rekening meer mee te houden.

En de CCD naar CCD latency mag dan wel twee keer zo hoog liggen als Intel's core naar core latency, bij AMD is het binnen één CCD weer twee keer zo snel als Intel.

Het probleem dat taken onnodig van core wisselen is iets wat eigenlijk in de thread scheduler moet worden opgelost, maar Windows lijkt daar meer moeite mee te hebben dan Linux.
Daarom zie je dat dit op een ander software laag wordt opgelost (bijvoorbeeld in de game engine) en dat AMD daar veel profijt van heeft, maar ook Intel krijgt er een boost van.
De L2 en de L3 zijn specifiek per CCD.
Draait een game op 1 CCD en maakt dat game plots gebruik van een core op CCD 2, dan heeft die thread geen snelle toegang tot de data nodig voor zijn taak. Niet via de snelle L2 en niet via de iets tragere L3. Dus die gegevens moeten dan uit het (trage) RAM geheugen opgehaald worden. (Of uit de cache van de CCD 1, weet niet of dat mogelijk is.)
Idem als nadien een thread die op CCD 1 draait data nodig heeft die berekend is door die core op CCD 2.

In games die 8 of meer threads gebruiken zie je daarom ook vaak slechtere minimum framerates bij de x900 en x950 CPU's dan bij de CPU's met maar 1 CCD.

[Reactie gewijzigd door Jack77 op 23 juli 2024 12:21]

AnandTech rapporteert een core to core latency van 15-19 ns, dus het is een cache-to-cache transfer via de IO die, geen main memory.
Ik denk dat het tijd wordt voor een andere manier van Thread Management. Threads met een hoge coherentie moeten op dezelfde CCD draaien. Zo is het belangrijk dat alle threads van een game engine op dezelfde CCD draait, terwijl OS threads en achtergrond threads dan op de andere CCD draaien.
Intel had ook een Thread Management probleem met Alder Lake, maar dat is opgelost in Windows 11.
Het probleem is hoe geef je aan dat twee threads gerelateerd zijn? Analyseren door het os of cpu is ondoenlijk, dus moet de programmeur dat aangeven (en er moeten os APIs voor zijn). Dat noem je dan dus optimaliseren.
Het probleem is hoe geef je aan dat twee threads gerelateerd zijn? Analyseren door het os of cpu is ondoenlijk, dus moet de programmeur dat aangeven (en er moeten os APIs voor zijn). Dat noem je dan dus optimaliseren.
Het OS zou threads uit hetzelfde proces zoveel mogelijk op dezelfde CCD kunnen schedulen. Zolang je als game-ontwikkelaar niet meer threads spawnt dan nodig zou dat goed moeten gaan. (Maar software die honderden threads spawnt voor concurrency komt nog steeds op meerdere CCD's uit.)

Mogelijk kun je als gebruiker ook wat doen wat dat betreft trouwens, door processen te binden aan een bepaalde set cores. In Linux is dat simpel maar ik weet niet hoe moeilijk of makkelijk het is in Windows.
Threads zijn helaas niet altijd gelijk aan cores.
Want threads kan je zien als iets virtueels. In principe zou het OS/CPU, de threads die je spawnt om en om op dezelfde core kunnen laten werken terwijl je eigenlijk tegelijk op 2 cores zou willen hebben werken. Je hebt er weinig invloed op want je bent in concurrentie met veel meer programma’s op een computer. En de CPU heeft in samenwerking met het OS de zeggenschap.
Het is inmiddels 2022. Elk OS gaat runnable threads van het foreground proces schedulen, en alle grote Operating Systems snappen HyperThreading. Niet alleen schedulen ze cores, ze houden zelfs rekening met de fysieke cores bij het schedulen.

In principe kun je als programma aangeven op welke cores je niet wil draaien (thread affinity) maar vrijwel elk programma accepteert de default (alle cores)
Je kunt de thread affinity opgeven. Op die manier kun je bijvoorbeeld voor iedere core een thread maken welke optimaal samenwerken. Bijvoorbeeld n-1 threads verwerken workitems, zetten deze in een queue en een main thread presenteert deze.
https://stackoverflow.com...nity-when-create-a-thread

Zoals hier staat, het helpt en je kan vragen aan het OS, maar je hebt nooit volledige controle en zeggenschap over een core. Mogelijk dat je met SDK’s van Intel & AMD wel verder kan, dat weet ik niet.
Als een game een simulatie is met een audio component en een ui deel dan kan het juist beter zijn het cluster simulatie threads op 1 ccd te hebben en de andere threads op de 2e ccd. Die relaties gaat het os niet voor je vinden.
D'r is eigenlijk geen enkele reden vanuit de software gezien om níet op één CCD te willen zitten, tenzij je functies 100% onafhankelijk zijn zonder communicatie onderling, en dan vraag je je af waarom ze in één proces zitten. Maar andersom mogelijk wel.

Vanuit de hardware is t een ander verhaal want oneven beladen CCD's kunnen voor temperatuurverschillen zorgen, hoewel 't de vraag is hoeveel dat uit maakt.

[Reactie gewijzigd door CyBeR op 23 juli 2024 12:21]

Als een ccd 8 threads heeft en je hebt 20 threads in software toch wel. Dan heb ik liever over 2 ccds heen mijn werk (en neem potentieel een performance verlies voor lief). Als de scheduling dan zo is dat threads die werkelijk op grote schaal data delen op 1 ccd draaien, dan is het ook nog eens efficiënt.
Als een ccd 8 threads heeft en je hebt 20 threads in software toch wel.
Maar dat is helemaal niet de situatie waar we het over hadden? Ik heb dat expliciet vermeld, zelfs. Lees anders nog een keer goed wat ik schreef.

[Reactie gewijzigd door CyBeR op 23 juli 2024 12:21]

Ah, je reageerde op mijn reactie waar ik schreef "cluster simulatie threads", in mijn hoofd had ik hier het beeld: 8 simulatie threads, een audio thread en 1 GUI thread. Dan is verdelen zinnig (en kom je dus in de situatie dat er 2 CCDs nodig zijn). Als je leest dat er in totaal 3 threads zijn (1xsimulatie,1xaudio,1xgui) dan ligt 1 ccd voor de hand. Nadeel van geschreven woord en impliciete aannames.
Onder Windows is het tot 64 cores ook vrij makkelijk om de thread affinity te zetten.

Overigens is de flip side van alle threads op één die schedulen ook dat de warmte dan daar geconcentreerd wordt. Scheduling is geen exacte wetenschap.
Maar dit klinkt als een issue wat al lang bekend was en ook speelt op oudere ryzens, namelijk dat als een proces van een core op de ene ccd naar een core op de andere ccd gaat dat je cache misses krijgt. Ik had tenminste al veel langer in mijn hoofd zitten dat je om die reden geen dual ccd chip wil voor een puur game machine (los van dat het duurder is zonder dat je het nodig hebt). Is dit dan weer iets anders?
Heeft de 5800X3D dan ook geen dual ccd ?
De 5800X3D doet het toch heel erg goed op sommige games wat betreft FPS en Performance.
Welke CPU's hebben dan geen dual ccd ?

Het is een echte vraag geen opmerking op je verhaal hoor.
5800 heeft één ccd, alleen de 12 en 16-core CPU’s hebben er 2
En heeft de 3900x er ook last van?
Edit: nevermind, 5600 is natuurlijk gewoon 1 6-core CCD :+

[Reactie gewijzigd door johnbetonschaar op 23 juli 2024 12:21]

De 5800X is een single ccd (8 cores). De 5800X3D weet ik niet, maar lijkt me sterk dat dat dual ccd is. Alleen boven de 8 cores is dual ccd

Edit: Ik heb het niet helemaal goed. De 5800X is *soms* een dual ccd, waarvan er 1 uitstaat (omdat 1 van de 2 ccd's niet door de test is gekomen). Het is dus een recyclingsproduct, maar je hebt dus geen last van cache misses omdat er maar 1 ccd gebruikt wordt. Verschil in performance met een single ccd ga je dus niet merken, en vandaar dat ze dit dus doen.

https://www.tomshardware....000-as-ryzen-5-7600x-cpus

[Reactie gewijzigd door MrFax op 23 juli 2024 12:21]

namelijk dat als een proces van een core op de ene ccd naar een core op de andere ccd gaat dat je cache misses krijgt.
Is dat het echt? Lijkt mij dat ze daar in Redmond ook over nagedacht hebben..
En dat zou de 5900 en 5950 ook treffen.

[Reactie gewijzigd door Olaf van der Spek op 23 juli 2024 12:21]

Dat doet het ook, maar wellicht in mindere mate. De proces scheduler is vrij complex inmiddels (smt, meerde cores, ccds/chiplets, numa, preferred core) en mag geen vertraging geven. Dus uitgebreid analyseren voor een scheduling beslissing is er niet bij. De afgelopen jaren is hier flink aan gesleuteld (maar het is niet sexy, dus weinig nieuwsberichten :-) Dat er nu weer issues zijn in dit component is niet echt verrassend dus.
Dit valt onder NUMA op cpu niveau dat cores local L3 en far L3 hebben
Games zijn meest slecht Numa aware multithreaded software , sommige doen het goed.
Vaak is probleem niet hoe krachtig core is. Hoge klok maakt ook hogere latency omdat per tijd meer kloks weg tikt bij dezelfe infinity bandbreedte en klok. En dus hogere latency naar far L3 . Ken merk van slecht MT engine is goede schaling op heel veel L3 cache. Het programmeren van mijden van shared data , optimaliseren prefetch en goed gevulde cacheline met vol hot data. En decouplen van bewerkingen zodat ongeremt parallel kan . Bij goed MT engine zal core met minder cache het goed doen als compute memory acces voldoende heeft aan data gestreamed naar de L2 .
Herkenbaar aan games die slecht schalen met veel meer L3 cache.

Speeld nog meer mee zoals cache line false sharing heeft meer met data alignment te maken.
Ook threadpool kan kiezen numa aware manier dat 1st core groep op 1 ccd pakt. En de andere ccd apparte threadpool. Ook of engine SMT fijn find of juist neet. Dus threadpool kan initialiseren op physical cores .
Ik ben ook van mening dat als game engine ontwikkelaar daar zwaar op inzet dat ecore ook vol kan meedoen in game prestaties.
Maar de drive om optimaal MT is er ook niet omdat dev voor fixed mainstream target gaan. En de asset production pipeline het effectief produceren van content belangrijker is ivm time to market. Game engine zijn vooral data driven en engines ondersteunen dat met hoogste preoriteit .

Dev moeten dus profileren van een 7600x vs 7950X , waar bottleneck verschil is, tussen deze cpu en die hot path optimaliseren.

Maar ja of dat dev massaal gaan doen voor 1080p benching
Dit probleem trad pas op bij een nieuwe reeks benchmarks met een RTX 4090. Bij voorgaande tests met een 3090 trad het probleem niet op dus vandaar dat men denkt dat dit geen normaal gedrag is voor de 7900X CPUs.
''Het bedrijf heeft op dit moment heeft nog geen oorzaken gevonden en vermoedt dat game-ontwikkelaars optimalisaties moeten doorvoeren.'' Dit is altijd al zo geweest, het is niet alleen een probleem in dit geval.

[Reactie gewijzigd door Kush2000 op 23 juli 2024 12:21]

Dit was toch altijd algemeen bekend dat de Cpu's met 1 ccd minder latency hebben dan cpu's met 2 ccd's, waardoor ze in sommige games beter presteren. Precies dezelfde reden waarom de 5600x in bepaalde games sneller is dan de 5900x of 5950x.
Lijkt mij wel voor een gamer toch wat frustrerend dat dan je net nieuw gekochte cpu onder de maat presteert binnen bepaalde games. Van de andere kant is dit wel bekend van voorgaande vernieuwingen dat altijd een tijd nodig is voor optimalisatie. Kan mij bij AMD b.v. nog herinneren dat in de 1ste periode van de ZEN architectuur veel problemen waren met compatibiliteit van dimms.

In die zin ben ik wel blij dat ik geen gamer ben en ook wel afgestapt ervan ben om telkens het laatste nieuwe te willen. Soms dan kriebelt het nog wel eens maar als ik dan b.v. weer dit artikel lees denk ik weer van nee. Gedoe weer met allerlei updates etc... hoeft voor mij voorlopig althans niet meer.
Vriend 90% van de PC gamers speelt op een oude computer.


https://store.steampowere...rvey-Welcome-to-Steam////

Het nieuwste van het nieuwste is COMPLEET irrelevant. De mensen met een 4090 en AM5 processor schreeuwen gewoon harder op het internet. Laat je niet gek maken door hen.
De mensen met een 4090 en AM5 processor schreeuwen gewoon harder op het internet. Laat je niet gek maken door hen.
O ja ik laat mij echt niet gek maken, deels omdat ik geen gamer ben, deels dat als ik game het vaak juist oudere games zijn die het prima doen op een oudere pc. Retro games vind ik b.v. veel leuker en inderdaad die markt ook best wel groot is en steeds groter word.
Lekker makkelijk om het probleem maar bij software devs te leggen. En wat voor software die niet meer in ontwikkeling is?
Als je een afwijkend product maakt moet je dat gewoon goed testen. Met de chiplet gpu's kan het ook wel eens heel vreemd gaan lopen als dit je houding is.

[Reactie gewijzigd door computerjunky op 23 juli 2024 12:21]

Software die niet meer in ontwikkeling is, heeft waarschijnlijk niet zo'n support voor 12 cores. Evengoed zal die software alsnog sneller zijn op deze nieuwe Zen4 chips dan op de originele hardware ten tijde van het einde van de ontwikkeling.
Hebben tweakers hier actief last van ?
Tweakers met de 7000's series.. wat voor FPS scores halen jullie op bepaalde games ?
Ik ben hier erg benieuwd naar. _/-\o_
Weinig reacties, zie ik zo. Ik vermoed dat de adoptie van Ryzen 7000 CPU's niet zo hard gaat.
Mja omdat 't vanaf de 3000 of 5000 series geen simpele upgrade is (nieuw mobo en nieuw ram nodig) gaat 't minder hard idd.
Ben toevallig net begonnen aan mijn Ryzen 7000 build met een 7950X, echter heeft deze vertraging opgelopen door een leveringsfout met mijn moederbord ;(
Ik heb nog geen last, ik heb de afgelopen tijd nog niet veel gegamed, voornamelijk ArmA 3, CoD Black Ops 3 en Red Dead Redemption 2 voor een tijdje.

Voor mij is het sowieso extreem veel prestatie gewin aangezien ik overgestapt ben van een i7 8750h naar 7700x
Degene die er last van hebben zullen de pro esport competitive 144++ fps gamer zijn
Wie normaal gamed en nog gewoon 60hz 1440p of 4k monitor heeft merkt er niks van.
Al helemaal met midrange g-kaart vorige gen. En dan doet het er niet toe of de laatste gen intel of amd cpu mee gamed. Als die locked 60fps haalt met niet al te veel fps dips.
Vraagje, dacht laat ik deze hier eens stellen, wellicht dat iemand mij daar eens wat meer over weet te vertellen. Al ben ik niet iemand die veel spelletjes speel op mijn PC, gebruik de mijne meer voor productie van video's namelijk, maar dan nog. Anyhow, nu betreft de CPU welke ik bezit al een iets oudere generatie Ryzen CPU, een 3900X namelijk. Maar mocht ik soms dan eens een spelletje willen doen, de F1 2022 game om precies te zijn, dan komt het me nogal vaak voor dat de game zonder logische reden plots terugvalt naar mijn Windows 11 Pro startbalk, en plots dus geminimaliseerd wordt, de game draait dan dus nog steeds wel op de achtergrond, wat maakt dat wanneer ik em op de startbalk weer aan klik, ik weer keurig netjes terug in de game kom, maar is desalniettemin wel verdomt vervelend soms kan ik melden. Anyhow, let me know of ik de enige ben die dit wel eens overkomt, en wanneer het even kan, hoe ik dit wellicht gefikst kan krijgen. Weliswaar een beetje off-topic deze vraag, maar ken zo geen betere plek om deze vraag eens te kunnen stellen dan Tweakers.net, en ben dan ook benieuwd naar de reacties :)

[Reactie gewijzigd door SSDtje op 23 juli 2024 12:21]

Ik zou het forum eens proberen en niet onder een nieuws artikel.
Goed punt, zit wat in, laat mijn "vraag" hier overigens wel staan, vind een "vraag" reactie weghalen op een later moment weer weghalen ook wat raar/vreemd overkomen ;)

[Reactie gewijzigd door SSDtje op 23 juli 2024 12:21]

Ik zou deze vraag in het forum gooien als ik jou was. Wel wat meer info erbij zetten. (o.a. wat draait er nog meer op die pc). In eerste instantie denk ik aan een interrupt (door een ander programma). Draai zelf geen Win11, dus verder kan ik je niet helpen.
gebruik windowed fullscreen mode voor beste alt tab / desktop compatibiliteits gedrag
Er zijn wat simpele dingen die je kunt proberen.

Zorgen dat alle drivers up to date zijn videokaart en windows.


Zet game mode uit in windows


Notifications uitzetten in windows.


Game op fullscreen modus zetten
Thx voor je reactie, en binnenkort dan ook eens proberen, al kan ik wel melden dit mijn drivers al up to date zijn, en de game mode in Windows ook al uit staat, en de game ook al op fullscreen staat.
Maar goed dat wordt nog meer even een paar meer forums door lezen, maar zoals reeds gezegd, thx voor het melden ;)
geen probleem! het was te proberen. Anders eens een windows install maken van windows 10 op een goedkope SSD en eens kijken of het spel daar hetzelfde doet.
Thx voor het mee denken, en is dan ook een idee om terzijde tijd eens te proberen inderdaad :)
Ik ken dat wel. Op social media is soms imaging software om een of andere rede (ik geloof Acronis vooral) de rede en het eraf trappen is de oplossing.

In andere gevallen (zoals bij mij) was het GeForce Experience die moedwillig ongeacht wat ik klikte (afblijven en laat me zelf kiezen ook) eigenwijs zelf de resolutie te hoog of te laag forceerde in sommige titels. Bug report ingediend maar erg rap zijn ze niet. Eraf gejakkerd en alles werkt perfect.
Zou dit de reden zijn dat ik met mijn oude 5900x in Cinebench ~2000 punten slechter presteerde, desondanks ik een betere koeling had (Arctic Liquid Freezer II 420) met Hydronaut dan iemand die ik gesproken had en met een Cooler Master 240 bezig was? Of is dit simpelweg "sillicon lottery"?
Cinebench heeft hier volgens mij geen last van, dit is puur een probleem van games, en dan vooral games die weinig cores gebruiken, maar toch verdeeld worden over de CCD's

[Reactie gewijzigd door Sinester op 23 juli 2024 12:21]

Op dit item kan niet meer gereageerd worden.