TrendForce: pc's moeten minimaal 16GB geheugen hebben voor AI-toepassingen

Microsoft gaat eisen dat 'AI-pc's' over minimaal 16GB werkgeheugen beschikken. Dat schrijft TrendForce, dat zegt dat neural processing units in dergelijke pc's verder ook 40 tera operations per second moeten kunnen halen.

TrendForce schrijft in een analyse dat Microsoft dit als minimale systeemeisen heeft gesteld voor dram in wat het 'AI-pc's' noemt. Dat zijn computers met bijvoorbeeld eigen neural processing units, waar in de toekomst een assistent als CoPilot op kan draaien. Microsoft wil in de toekomst Windows-versies uitbrengen met daarin een Copilot-integratie, maar daarvoor gelden wel bepaalde minimale systeemeisen. Een daarvan wordt een minimum van 16GB ram. Voor Windows 11 is op dit moment slechts 4GB geheugen nodig. Het is overigens niet bekend waar TrendForce zijn informatie op baseert, maar er gaan al langer geruchten rond dat de systeemeisen voor AI-toepassingen in Windows hoger worden.

Volgens TrendForce gaat Microsoft ook strengere eisen stellen aan de cpu's. Die moeten minimaal 40Tops, of tera operations per second, kunnen halen. De Snapdragon X Elite- en AMD's komende Ryzen 8000-cpu's zouden dat halen, net als Intels toekomstige Lunar Lake-generatiechips. Het is niet duidelijk of dat betekent dat hardware zonder die cpu's wel gebruik kan maken van AI-toepassingen als CoPilot. Microsoft zet immers stevig in op zulke applicaties, wat het onlogisch maakt dat het zulke features alleen voor de allernieuwste systemen beschikbaar zou stellen.

Door Tijs Hofmans

Nieuwscoördinator

19-01-2024 • 11:07

109

Reacties (109)

109
108
28
0
0
52
Wijzig sortering
Lijkt me op zich een prima plan. Zo voorkom je een "Windows Vista-scenario", waar PC-leveranciers systemen aanboden die op het absolute minimum qua vereiste specs zaten, waardoor het OS niet performed. Dan krijgt je OS een slechte naam, terwijl de specs op het bare minimum zitten.

Dan kan je beter, zoals nu, wat aan de ruimte kant gaan zitten, zodat je dát probleem in ieder geval niet meer hebt. Scheelt een hoop klachten en irritaties.
Okay 16GB ram tot daar aan toe; maar als enkel de "toekomstige" CPU's aanvaardbaar zijn dan is dat gewoon vervuiling van het klimaat voor zeer beperkt voordeel (lokaal AI draaien ?).

Of ik begrijp het verkeerd dat kan ook ...
Ja, als uw PC geen AI cores heeft denk ik dat je een zeer beperkte vorm van AI lokaal kan draaien en je u moet wenden naar cloud services.

Nals uw pc geen grafische cores heeft wordt lokaal gamen ook lastig. Een GPU prikken we bij, mss kunnen we ook een NPU inprikken. Maar het zou best kunnen dat ze die cores vooral in CPU’s gaan verwerken opdat die markt 100x groter is.

SOC’s worden steeds veelzijdiger. Er is ook vraag in laptops, tablets en smartphones. Ik vermoed dat die groep 80% van de consumer chipverkoop is.

[Reactie gewijzigd door Coolstart op 22 juli 2024 23:04]

Ik kan je verzekeren dat een normaal AI-model prima draait op een simpele laptop (LlaVA 1.5 via llamafile), en ruwweg 4 GB geheugen lust. Dat levert ook nog best wat resultaat op ook. Nee, het is geen GPT4, of een officiele CoPilot (waar ik nog niet mee heb kunnen spelen, maar als die het niveau van Bing haalt laat ik hem wel liggen ook), maar het is wel degelijk gewoon een LLM. AI zelf is natuurlijk breder dan dat, maar daar zie ik MS nog niks van uitbrengen dus dat kan ik niet beoordelen.

Wat mij betreft is dit dus weer mensen op kosten jagen en nieuwe hardware pushen.
Maar het aantal tokens per minute wat je daarmee haalt gaat het waarschijnlijk erg lastig maken om dingen zoals Semantic Kernel of AutoGen of Taskweaver vlot te laten draaien. Frameworks die meerdere prompts versturen om een taak te kunnen vervullen.
Zeker, en het kan ook geen LLM genereren, want daarvoor heb je een supercomputer nodig. En als je inderdaad voor iedere scheet die je laat eerst 10 gegenereerde voorstellen van een model nodig hebt, en je ook de postbode met AI te woord moet staan, nee dan is het niet genoeg nee. Eigenlijk moet iedereen gewoon alles maar in de cloud laten doen, want die is wel snel genoeg, volgens de specs dan.
En, niet te vergeten, ergens in de wereld is het spits uur. Die systemen in de grote wolk kunnen 24/7 draaien terwijl de dure systemen in onze laptopjes bijna altijd uit staan en soms eens een piekje hebben in gebruik.
He daar hadden we toch iets voor, ow ja cloud want dan hoefde de hardware likaal noet krachtog te zijn. En dat beapaard heel veel doordat we alle zwaare taken centraal doen
LM Studio, in combinatie met de Mistral Instruct v0.2 LLM (open source) is anders best wel te doen op een 10e generatie i3 met 16 GByte aan RAM en een onbruikbare discrete GPU. Voor sommige zaken zit er niet veel verschil qua kwaliteit van antwoord en voor andere zaken is het bijna net zo responsive als ChatGPT 3.5.

Ook ben ik aan het "spelen" met SOC en Open Interpreter. Gebruik je echter wat anders dan ChatGPT bij die tools, dan vliegen de python errors je om de oren. Gebruik je ChatGPT 3.5, dan zijn er weing python errors, zolang je dan maar zaken heel simpel houdt. Met SOC heb je ook nog eens het probleem dat je toegang tot de 'view'-model moet hebben. Ook al betaal je voor ChatGPT 4, toegang tot dat specifieke model is geen gegeven. En zonder dat model is SOC waardeloos.

Wat ik tot op heden heb gezien is dat LLMs vooral goed zijn als chatbots. En sommige LLMs leveren redelijke boiler-plate code af. Het is echter met de tooling redelijk droevig gesteld, daar zie je een heleboel Python-frot voorbij komen, welke (snel?) in elkaar is geflanst, zonder rekening te houden met error-condities en hoe men daar op een juiste wijze mee om gaat.

Zolang die mindset bij Python-gebruikers/programmeurs niet verandert, blijf ik Python programmeurs frotters noemen. En helaas lopen er daar veel te veel van rond in het LLM "landschap." Ben het wel eens met de stelling dat een competent persoon wel wat produktiever word met een AI. Maar de "mindere goden"? Nee, tegen de tijd dat deze klaar zijn met het aan AI vragen van enigzins werkbare code, dan hadden ze die tijd beter besteed aan zelf nadenken en produceren, in een poging om daadwerkelijk competent te worden en dan AI/LLMs goed te kunnen gebruiken.
Dat is op zich waar maar al gaan LLMs minder geheugen/ruimte innemen, grotere modellen doen het nog steeds beter. En die zitten meer rond de 30-80GB aan RAM. En verder of beter vaak VRAM van GPU inclusief veel opslag. Dus je hebt een punt maar als je echt een beetje iets ermee doet dan is dat wel echt een vereiste. Daarnaast waar jij het over hebt kun je bijna net zo goed gewoon chatGPT of iets dergelijks gebruiken met GPT3.5 achtige kwaliteiten. Ja local is natuurlijk beter voor privacy etc en soms nodig maargoed.
Ai gaat toch altijd via de cloud? Ai is niks meer dan een verzamelbak aan data waar een verhaal, uitleg, samenvatting, of een plaatje van gemaakt wordt?

Dus AI heeft altijd het grote boze internet nodig.
Nee je kan dat ook lokaal draaien. Kleine modellen draaien al lokaal zoals Siri op een Iphone maar dat is zeer beperkt in zijn kunnen.

AI is performanter via de cloud maar kan ook lokaal draaien. Zeker als je subsets draait zoals iets dat focust op beeldherkenning van bijv insecten of tips geven in office. Daar heb je geen GPT4 voor nodig.
AI is een heleboel. Pattern Recognition (video en audio herkenning) is ook een grote AI tak. Jij benoemt hier feitelijk generative AI, dat is AI die dingen maakt. En indien je dat doel op basis van een LLM (Large Language Model), dan heb je gauw een cloud-based systeem nodig.
AI cores
:?

edit: mooie marketing term

[Reactie gewijzigd door Keyb op 22 juli 2024 23:04]

Ik snap wat je zegt en waarom, gezien het hele kunstmatige limiet omtrent installeren Windown 11.

Maar het gaat hier niet om het kunnen installeren van Windows en dus niet om het "obsolete" verklaren van honderden miljoenen PC's.

Alleen het draaien van AI-toepassingen. Daar hoef je een PC nog niet voor af te schrijven.
Alleen het draaien van AI-toepassingen. Daar hoef je een PC nog niet voor af te schrijven.
Dat hangt natuurlijk af van de uit te voeren taken, het aantal PC's dat afgeschreven zal moeten worden zal natuurlijk wel een stuk kleiner worden. Maar als jij straks in een functie zit waarbij AI hardware een must is zullen er vast wel wat systemen afgeschreven worden.

Net als dat MS ook niet al die systemen obsolete verklaard, MS heeft zelfs gewoon support documentatie hoe Windows 11 alsnog te installeren op systemen die niet aan de hardware eisen voldoen, maar het wel kunnen draaien. Echter levert MS dan geen directe support (wat je nu ook vaak al niet hebt als consument, OEM versie's geleverd bij een nieuw systeem hebben bijvoorbeeld al geen directe support). Maar hoeveel gebruikers ken jij die naar MS gaan voor (betaalde) support, ik maar heel weinig. Wat dat betreft is die ophef wat overtrokken.
Het oorspronkelijke artikel zegt: "TrendForce posits AI PCs are expected to meet Microsoft’s benchmark of 40 TOPS in computational power."
Of dat betekent dat je met minder dan 40 TOPS geen Windows 12 mag/kunt draaien weet ik niet, maar als dat zo zou zijn, zouden alle nu bestaande PC's "e-waste" worden. Ik kan mij haast niet voorstellen dat Microsoft dat wil.
Is een slecht plan...dit is weer op kosten jagen plan.
16gb RAM is toch wel het minimale wat je nodig voor een desktop PC. Laptop raad ik ook sterke aan.
Ik zie genoeg mensen die 4 tot 8 hebben. Ze gebruiken hun computer gewoon voor wat tekstverwerken, filmpjes kijken en e-mail lezen. Meer dan goed genoeg voor dat. Waarom meer erin doen als je het niet nodig hebt?
Omdat de algehele gebruikerservaring er merkbaar op vooruit gaat. Zeker als je nu nog met 4GB loopt te stuntelen. Die zijn al vol voor je pc volledig geboot is.

Als je niet beter weet, misschien niet de moeite oude meuk hardware te upgraden.
Als je nieuw koopt dan is het simpelweg onzinnig niet meteen afdoende ram aan te schaffen.
Maar waarom zouden zij dan alsnog geld erin moeten stoppen als het prima functioneert voor hen? Windows 10 draait prima op 4GB als je niks geks doet.

Ja een nieuwe (zeker een laptop) zou wel 16GB mogen hebben. Maar er worden nog meer dan genoeg met 8GB verkocht. Er is duidelijk een markt voor. En zeker met dat zat mensen er toch niks mee doen anders dan wat internetten, vandaag de dag leven veel mensen meer op hun mobiel dan hun PC.
Anoniem: 80910 @SRI19 januari 2024 20:54
Meeste websites, tabs etc vragen echt wel wat geheugen, vooral als er plaatjes getoont moeten worden 1 GB browsen heb je vaak wel nodig. 3.5 GB wordt door Windows gebruikt dus gaat ie op je ssd disk scratchen in de swap partitie
Klopt wat je zegt, browser gebruikt 1 tot wel 2gb, afhankelijk van de website die je bezoekt. Daarnaast gebruikt Windows ook al gauw 4gb. Dan zit je alweer op 5/6gb, en dan doe je nog niks raars. Dan willen mensen ook nog wat tekstverwerking, muziek luisteren, beveiligingsprogramma etc.

Dan zit je toch al gauw op die 8gb. Ik heb Windows 11, Steam, Discord en wallpaper engine standaard open. En ik gebruik al 7 tot 8gb standaard.
Zijn er zat die nu nog met 12/16 gb draaien.dat het straks verplicht word....vind ik geen goed plan.ner als die cloud meuk.wat is het volgende? Minimaal een videokaart van 2000 euro?
Als je later niet kunt upgraden (bijv. Macbook) dan direct 16gb (of meer) aanschaffen. Als je 10 jaar wilt doen met een laptop dan niet beknibbelen op geheugen.
Zeker waar als je een nieuwe zou kopen zou ik ook wel 16 aanraden (zeker als alles vast gesoldeerd is zoals macs, maar veel windows PC's hebben het vaak half half de laatste tijd).

Maar heb je ook een nieuwe computer/laptop nodig? De meeste mensen die een nieuwe 'nodig' hebben is puur als ze windows 11 willen omdat hun computer windows 10 niet meer ondersteund. En voor zover ik de mensen die ik spreek hoor boeit dat ze echt niks zolang het ze maar niks kost en het nog fatsoenlijk werkt.
Omdat het vrijwel niets kost op de BOM
Ja en de meeste kant en klaar PC's die verkocht worden moeten maximale marge hebben.

En genoeg mensen die ik ken waaraan ik vraag wil je een paar tientjes meer neerleggen voor meer geheugen vragen mij dan: heb ik het nodig? En als ik dan nee zeg, dan zeggen zei dat ze die paar tientjes er (nu) niet voor over hebben.

Beetje hetzelfde als premium brandstof tanken in je Ford KA van meer dan 20 jaar oud, het voegt niks toe dus waarom doen?
Vaak weet niemand dat hij of zij alleen dat gaat doen. Het verhaal van "ik lees alleen websites, kijk YouTube-filmpjes, enz." kan ook op je telefoon. De laptop is daarvoor niet meer relevant. En het geheugen vaak erop gesoldeerd.

Samengevat, kiezen mensen vaak toch voor meer en niet voor het minimale
Idd en war heb je dan de ai voor nodig als dat is wat je doet.
Voor een beetje kantoorwerk? Lijkt me flinke overkill. Ik vermoed dat een 80% van de computers voornamelijk met wat email, browsen en een tekstverwerker worden "belast". Niet heel anders dan wat men in de jaren '90 deed. Weggegooid geld om daar 16GB in te steken.
Klinkt alsof Microsoft de verkoop van PC's weer gaat aanwakkeren met deze eisen. Ik zit nu zo te horen nog op de pre-AI generatie PC te werken.
Voor games kan je het ook nodig hebben, ik speel Anno 1800 en bij een bepaald aantal inwoners begon het spel te haperen. Toen zag ik dus dat de volledige 16GB werd aangesproken... 32GB erin geprikt en toen nergens meer last van gehad.

[Reactie gewijzigd door ArcticWolf op 22 juli 2024 23:04]

32GB is dan ook geen overbodige luxe meer maar toch wel echt het minimum bij een beetje PC vandaag de dag. Te veel mensen zijn blijven hangen bij het boegbeeld van Windows 7 waar 16GB RAM nog wel kon. Simulatie spellen als Anno, Cities Skylines gaan altijd over de 16GB heen, maar ook als je twee dingen tegelijk doet op je PC (browser, Discord, Spotify, Windows updates) schiet ie ook makkelijk voorbij de 16GB. Echt een wereld van verschil als je dan 32GB hebt!

Kan het alleen maar toejuichen dat geheugen vereisten wat meer worden opgekrikt. In 2012 waren er al genoeg laptops met 8GB en dat was toen gangbaar. Nu zijn we 12 jaar verder en zijn er nog steeds teveel laptops die slechts 8GB hebben, en Windows/apps zijn er natuurlijk ook niet lichter op geworden.
Sterker nog, ik gebruikte al 32GB RAM sinds de i7 3930K, eerst zat er 16GB in maar 32GB DDR3-1866 was toen al een verademing en hielp ook aan ademruimte om VMs te draaien.

De oudere i7 950 had in het beginsel tijdens Battlefield 3 (toen 8GB zo'n beetje de de wenselijke sweet spot was in 2011) nog maar 6GB DDR3-1333 en toen 6GB DDR3-1600, daarna 12GB DDR3-1600 en inmiddels een 12GB DDR3-1600 set erbij geprikt voor Windows 10 omdat die toch intensiever op het geheugen is dan Windows 7, en die speelt vandaag de dag nog makkelijk spellen zoals Euro Truck Simulator 2. Van GTX 460 naar 780Ti en nu een RTX4060.

De huidige hoofd PC, de i9 13900K, had ik aanvankelijk 64GB DDR5-5600 inzitten, maar inmiddels al ruim een half jaar een 64GB DDR5-5600 set erbij geprikt echt een verademing want ik gebruik nu echt al regelmatig meer dan 30-40GB en soms wijs ik wel eens een VM 64GB RAM aan en dan zit het systeem geheugen al snel op 80GB, nog steeds genoeg speelruimte om spellen etc. ernaast te draaien. Idle komt het OS al bijna niet meer onder 9GB ondanks dat er vrijwel niks openstaat.

En ja, die 128GB DDR5-5600 draait met XMP actief op 5400Mhz zonder geheugenfouten, standaard CL40 timings, nu zitten er wel twee 4TB 990 Pros in i.p.v. SATA 840/860 Pros maar ondanks de snellere NVMe drives is het nog steeds fijn over veel geheugen te beschikken, zorgt ook wel voor minder hitte/stress op de data-drives, en zo enorm duur is het geheugen nu ook niet meer.
Waar ik nog niemand over heb gehoord bij grote ram hoeveelheden: Windows houd echt bijna alles in cache als je iets sluit. Zolang er ram over is blijft cache opbouwen. Je systeem wordt er echt snappy van. Ik draai al jaren 64GB. Dit zet ik nooit vol. Maar Windows wel.

[Reactie gewijzigd door BlaDeKke op 22 juli 2024 23:04]

En dat is precies het punt dat veel mensen vergeten. Snappiness "maakt" een computer en om alles open te zien vliegen, gemakkelijke grote (gecomprimeerde) games te downloaden/installeren maakt het echt een groot verschil. Mensen vergeten dat een SSD pakembeet 5000 keer trager is dan RAM geheugen en ja, dat merk je als je meer dan 16GB hebt ervaren.
Simulatie spellen als Anno, Cities Skylines gaan altijd over de 16GB heen
Hmm... Ik weet niet hoe het zit bij Anno, maar mijn verouderde game-pc heeft 8GB, en C:S1 kan ik tientallen uren spelen voordat m'n RAM het probleem wordt.

Weet je zeker dat Windows niet gewoon zo veel mogelijk geheugen gebruikt? A.k.a "ongebruikt geheugen is zonde"? Ik typ dit op een 16GB M1 MBPro, draait nu: Slack, PHPStorm (3 projecten/schermen open), kalender, Fork, terminals, Sequel Ace, Postman, Obsidian, Sublime Text, Bitwarden en 5 docker containers (Docker mag van mij 8GB nemen). Daarnaast ook nog 2 andere user accounts die altijd ingelogd zijn.

Memory pressure is geel, dus ik zit wel tegen het limiet aan (door Docker), en gebruik 14.2GB, maar alles draait als een tierelier, reageert snel tijdens CMD+Tab, etc.

TL;DR: ik ben het niet eens met wat je zegt dat 32GB "wel echt het minimum" is.

[Reactie gewijzigd door voxl_ op 22 juli 2024 23:04]

Élk modern OS doet aan caching waar mogelijk. De DRAM-chips gebruiken energie en kunnen maar beter ten volle benut worden. Dit ongeacht CPU-architectuur.

Behoorlijk zeker dat jouw macbook snakt naar meer geheugen. Ik heb nu een browser met een boel tabs, mailclient en wat PDFs openstaan en zit mooi in het groen. Mijn 32GB is als volgt verdeeld:
- 20 "in use"
- - 16GB "app memory"
- - 2,3GB "wired memory" (voor OS)
- - 1GB compressed
- 11,5GB cached
- 0 swap used

Als ik eventjes een paar applicaties bij open zit ik nog ruim in het groen:
- 24,4 in use
- - 12,25 "app memory"
- - 2,2 "wired memory"
- - compressed: 8,4
- cached: 7,3GB
- 0 swap

Nog een aantal, nu zitten we halfweg in het geel
- 28,3 in use
- - 10,9 app memory
- - 3,9 wired
- - 12,4 compressed
- cached 3,6
swap: 5,8

Ietsje trager, soms een hapering, nog steeds snel genoeg.

(compressed) swapping op moderne SSDs is snel genoeg om niet dermate merkbaar te zijn, maar ik garandeer je dat het ding *continu* aan het swappen is.

32GB is niet noodzakelijk het minimum, maar die gekke claims dat 16GB gewoon nog voldoende is voor veeleisende zaken zijn bullshit. Je verliest performance. Als het nog snel genoeg is, was de niet-bottlenecked performance misschien gewoon overkill.
Vroeger zonder SSDs was de impact wel veel sneller merkbaar.
Dat zal wel anders zijn als je met mods speelt. Ik heb wel een test gedaan tussen 16 en 32GB, en CS draait er beide prima op, het is meer dat als je inzoomt, je camera gaat draaien, dan merk je een stuk meer haperingen.

MacOS gaat dan ook weer net iets anders om met geheugen. En ja, dat is juist het hele punt van zoveel mogelijk geheugen gebruiken/caching. Heb je 32GB nodig? Misschien niet, maar je merkt het verschil wel omdat caching een grote invloed heeft op de snappiness. Moet overigens wel zeggen dat dit een multi monitor setup betreft, dat kan ook een hoop schelen.

Beide systemen passen overigens geheugen compressie toe, wat je CPU weer harder laat werken. Dat het in 14.2GB past is heel leuk, maar dan heb je weinig ademruimte als je iets nieuws wilt openen zoals een spelletje. Het gaat ook om het gemak: je kan alles open laten staan en niet hoeven na te denken van "oh, misschien moet ik maar die browser afsluiten." met 32GB heb je dat probleem niet.
C:S bedoel ik mee: Cities: Skylines (maar ik vind CS ook écht geweldig hoor).

Met deze comment ben ik het 100% eens, maar ik doelde vooral op je opmerking dat het het “minimum” is, wat ik een beetje overdreven vond. Ik zou m’n familie bijvoorbeeld wel 16gb geven, mezelf tegenwoordig 32gb ivm ademruimte idd.
Spotify, twitch, tweakers, discord & steam open (1e 3 in browser (firefox))
en k zit op 5.5 gebruik uit 16GB die k hier in heb zitten.. (windows 10)

Weet niet wat voor ram hog je heb draaien dat jij r 10GB boven zit?
32GB is dan ook geen overbodige luxe meer maar toch wel echt het minimum bij een beetje PC vandaag de dag.
Dat ligt aan het doel. Surfen, mailen, af en toe een documentje tikken of een (normale) spreadsheet gebruiken als een particulier? Je kan gerust af met minder. Onder Linux is zelfs 8 GB voldoende.

Windows enterprisegebruiker met enkel kantoortaken? 16 GB is tegenwoordig wel het minimum, gezien de inefficiëntie van beheersoftware en ander extra spul dat op de achtergrond draait qua geheugengebruik.

Gaming? Dat varieert sterk door wat voor soort spellen je speelt.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 23:04]

Ik heb een oud U3 dualcore laptopje die ik voorzien heb van 8 GB geheugen en een SSD. Linux draait er inderdaad prima op. Ik kan er zelfs middels Steam Half Life 2 en soortgelijke spellen op spelen.
HL2 stamt dan ook uit 2004. De eerste i3 is van 2010. Een twintig jaar oude game op je 10-14 jaar oude PC draaien ligt in de lijn der verwachtingen.
Haha, dat is waar, maar toch is het leuk om zulke dingen te doen op een laptop die door iemand anders al was afgedankt.
Ik draai hier zelf onder Linux (OpenSuse KDE) en hoewel je het prima kan draaien onder 8 of 16GB is 32GB een veel fijnere ervaring, zeker als je ziet dat het ook gebruikt wordt. Dingen zoals cloud syncing nemen een hoop in beslag. Zelfs voor een kantoor/office achtige Windows PC zou ik voor 32GB gaan: als je Google Drive, Office Excel, je browser en nog muziek hebt draaien schiet je al over de 16GB heen. Het is niet dat het dan niet werkt, maar het verschil is dag en nacht als je ze naast elkaar zet.

Het hele punt is dat je eigenlijk nooit één ding tegelijk doet op je PC. Je hebt altijd wel achtergrond services draaien. Tevens hoeven we niet te gaan swappen wat de levensduur van je SSD ten goede komt.
Nee, dan schiet je niet over de 16GB heen.

Maar je OS ziet dat je een belachelijke hoeveelheid geheugen hebt dat niet gebruikt wordt en doet zijn best er wat nuttigs mee te doen.
Dus bv heel veel cachen. En daardoor denk jij dat je dat je over de 16GB heen schiet.
Die paar dingetjes die jij voor de kantoor PC noemt kun je met gemak op een 16GB machine draaien zonder dat je enig verschil merkt.
Windows liegt juist meestal over het geheugen gebruik als je niet genoeg hebt. Dan krijg je compressie, swapping en dat merk je wel degelijk. Veel geheugen hebben dan zie je wat Windows echt nodig heeft. En ja, dit is ook echt "in gebruik" als je naar taakbeheer kijkt, dus geen cache. Let dan wel op dat ik het over grote excel bestanden heb, en Google drive is actief bezig, teams staat aan. Dat werkt allemaal met 16GB, maar de ervaring leert dat 32GB een veel soepelere ervaring biedt, ook bij deze kantoortaken.

Ook vanuit economisch perspectief bespaar je niet heel veel. Als 32GB kostbaar was geweest was het natuurlijk een heel ander verhaal. 32GB aan DDR4 is zo'n 30 euro meer dan een 16GB setje. Vanwege dat kleine prijsverschil is het de upgrade meer dan waard.
Windows liegt niet over het geheugen gebruik. Alleen weet vrijwel niemand hoe ze de gegevens die windows geeft over het geheugen gebruik moeten lezen en trekken ze daarom de verkeerde conclusies.

Ik had tot een half jaar geleden een werk PC met 16GB. Daar had ik veel meer in open staan dan jij hier beschrijft en nooit gebrek aan geheugen. Nu heb ik 32GB en de performance is gelijk en de helft van het geheugen is niet in gebruik.

Prive heb ik ook 32 GB, puur omdat het inderdaad geen drol kost. Maar niet omdat ik het nodig had om betere prestaties te krijgen.

Met zeer grote Excel bestanden kun je inderdaad heel veel geheugen nodig hebben. Maar dan moet je niet doen of dat de normale situatie is, want 99% van de mensen die Excel gebruiken, hebben niet veel geheugen nodig.
Heb je dat wel nodig, dan is het fijn dat geheugen geen zier meer kost. Maar ga niet zo overdrijven en doen alsof iedereen baat heeft bij 32GB.
Voor de meeste is dit niet nodig. Maar een paar vm's een paar honderd tabs, en je bent zo 62GB aan geheugen kwijt (20GB cache) . Ik hoop echt dat de 64gb modules eens beschikbaar gaan komen voor gewone pc's..
Ik heb jaren lang Windows 10 perfect kunnen draaien op 3GB. Pas in 2017 heb ik geupgraded naar 15GB, aangezien Obduction toen niet lekker liep op 4K. Nu nog altijd voldoende.
Hier in Zuid-Amerika zie ik anders nog steeds nieuwe laptops verkocht worden met maar 4 GByte aan RAM.

Ben het met je eens dat 8 GByte het absolute minimum is tegenwoordig en dat 16 GByte de nieuwe "8 GByte" is geworden. In de tekst van het artikel staat dat Windows 11 werkt met 4 GByte aan RAM. Het start op, maar of je er dan nog iets nuttigs mee kan doen?
Nou ik vind geheugen management door programmeurs niet goed gedaan. Ik had laatst aan 32 GB niet genoeg. Docker container 7 GB browser 3,5 GB en PHPStorm met copilot 11 GB, renoise 8 GB (vsti plugins) En dan nog het os e.d. het begon naar de ssd te swappen... Ik snap bijvoorbeeld dat PHPStorm geheugen nodig heeft. Maar 11 GB voor het analyseren van wat code (eigenlijk gewoon .txt) snap ik niet. Dan is geheugen management een lage prio bij php storm of zit er iets niet helemaal lekker.
Beetje containers, vm's, browser, en dan heb je zelfs met 64gb dat je geheugen te kort komt... En helaas is dit vaak het maximum ondersteunde. Helaas is combinatie van ssd en geheugen nooit echt gelukt.
Voor games kan je het ook nodig, ik speel Anno 1800 en bij een bepaald aantal inwoners begon het spel te haperen. Toen zag ik dus dat de volledige 16GB werd aangesproken
De vraag is natuurlijk waardoor dat werkelijk komt: intensieve geoptimaliseerde spellen die het maximale uit hardware halen of intensieve niet-geoptimaliseerde spellen. Mijn vermoeden is dat tweede, gevoed door dit soort zaken.

Helaas is (meer) hardware vaak goedkoper dan code optimaliseren.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 23:04]

Je hebt gewoon een richtdoel voor wat voor type hardware de gebruiker ongeveer in huis moet hebben. Dat gepaald je performance budget. Het maximale hoeft er niet uitgehaald te worden tenzij je om de een of andere reden niet meer hardware kan bijprikken. Waarom optimaliseren voor laag geheugengebruik als geheugen extreem goedkoop is tegenwoordig?
Dat is gewoon slechte optimalisatie. Beetje zoals Windows ME destijds.
Bij mij was het Cities Skylines. Dat wil ook wel geheugen slurpen. Al helemaal als je ernaast een browser open hebt.

[Reactie gewijzigd door Amanoo op 22 juli 2024 23:04]

Ik zit al jaren op 64GB in m’n game-PC. 16 was 10 jaar terug soms al krap.
Ik denk dat dit reuze mee gaat vallen, aan de ene kant zie enorme vooruitgang in bepaalde AI/LLM oplossingen. Bij MS zelf gaat het allemaal niet zo heel vlot, hoe lang we wel niet hebben moeten wachten op M365 Copilot, dat is heel lang slechts bij 500 bedrijven beschikbaar geweest. Daarnaast: Adoptie. Er zijn natuurlijk bepaalde mensen die het AI/LLM gebruiken en dat zal makkelijker gaan bij kleine wendbare bedrijven. Maar bij grotere bedrijven verwacht ik niet dat het zo snel en zo breed geadopteerd wordt.

Een abo op een OpenAI of M365 is nog wel te verantwoorden omdat je dat direct nu voor de periode van een maand kan gebruiken. Maar zwaar gaan investeren in hardware om AI/LLM van anderen lokaal te gaan draaien? Nee, daar is het wettelijke framework nog niet volwassen genoeg voor. Heb je net voor miljoenen aan nieuwe client hardware geplaatst, moet MS de stekker eruit trekken omdat bepaalde rechtszaken of wetswijzigingen de huidige AI/LLM illegaal verklaren.

Het is wellicht wat anders als je je eigen AI cluster draait voor je eigen AI/LLM producten, maar clients? Dat ga je, buiten een aantal specialisten, niet allemaal vervangen. Dit zal hoogstens mee gaan in de volgende hardware aanschaf en je merkt nu al een tendens om van 8GB naar 16GB te gaan, zeker als je zakelijke device ook nog eens 5+ jaar mee moet gaan (afschrijving)...

Ik ben absoluut niet anti AI/LLM, juist alles behalve dat, maar zie het ook niet als een magisch wondermiddel dat direct extreem breed/diep geadopteerd zal worden.
Bij MS zelf gaat het allemaal niet zo heel vlot, hoe lang we wel niet hebben moeten wachten op M365 Copilot, dat is heel lang slechts bij 500 bedrijven beschikbaar geweest.
Even voor de duidelijkheid een periode van minder dan een jaar.
Even voor de duidelijkheid een periode van minder dan een jaar.
Dat is voor een AI/LLM product heel erg lang! OpenAI kwam nog geen 14 maanden geleden met diens product op de markt.
Het verschil is wel dat MS OpenAI geintegreerd heeft in M365 en aan behoorlijk veel (Europese) regelgeving moet voldoen.
Bovendien is er ook een uitdaging van voldoende hardware ter beschikking te hebben, die GPU clusteres heb je ook niet van vandaag op morgen beschikbaar.
Ik denk eerder de verkoop van laptops, de meeste laptops die momenteel verkocht worden hebben geen uitbreidbaar geheugen en je moet al in de hogere prijsklassen kijken naar minimaal 16GB.

Met deze eis komen er weer miljoenen apparaten bij als e-waste
Weet iemand of dat er een soort co-pilot ook naar linux komt, of al aanwezig is?
Ik hoef het niet perse te gebruiken, maar het is voor mij vrij onduidelijk of er ook een tegenhanger is voor linux.
Anoniem: 84997 @Robin419 januari 2024 13:00
Je ziet wel bv Bing-Chat in Skype terugkomen, maar dat is natuurlijk maar een beperkt deel.

Misschien dat er in de toekomst een web-variant uitkomt (of een concurrent), native blijft onder linux vaak een onder geschoven kindje.
16gb is toch sowieso al de minimum, ongeacht wat je met je pc doet.. <16gb ram op een windows pc is in 2010 leven
Als je anno 2024 minder dan 16GB RAM in je PC hebt zitten is het wel een heel oud of goedkoop beestje en/of loop je behoorlijk achter.. Tegenwoordig is 32GB al zo'n beetje de standaard norm geworden..
Voor kantoorwerk of wat licht browse-werk, wat het overgrote deel van de mensen doet, heb je écht geen 16 GB nodig, laat staan 32 GB, dat is complete overkill en zonde van het geld.

Voor basiswerk is 8 GB echt wel genoeg, daar kun je prima mee surfen voor een doorsnee gebruiker, wat Facebooken, wat mailen etc. Basis-PC's worden soms ook gewoon met 8 GB aangeboden.

Een gewone gebruiker zal dan ook deze Copilot vermoedelijk niet gebruiken, en heeft met de eis uit dit artikel dus ook niets te maken. Nog even los van het feit dat een PC die de doorsnee gebruiker op dit moment koopt geen AI-chip zal hebben.

Dat tweakers met 8 GB echt wel te weinig hebben klopt, maar tweakers maken <1 procent van de totale bevolking uit, en zijn hier dus de uitzondering, niet de maatstaf.

[Reactie gewijzigd door wildhagen op 22 juli 2024 23:04]

Ik zou nu niet snel een laptop aanraden/kopen met slechts 8gb (tenzij user upgradable)
Waarom niet? 9 van de 10 mensen zullen nooit iets doen wat meer dan 8GB vereist. Komt nog bij dat SSD's tegenwoordig zo snel zijn, dat schakelen tussen RAM en storage ook veel sneller gaat waardoor een tekort aan RAM niet zo snel merkbaar is.

Persoonlijk denk ik dat het voor het overgrote deel van de computer kopers weggegooid geld is om meer dan 8GB te kopen. Upgradable zou ik evenmin een prioriteit geven.

Dell heeft momenteel een Inspiron 15 laptop, 12th Gen Intel® Core™ i3-1215U + 8GB + 512GB voor $279.99 ex VAT. Is voor een 80% van de bevolking goed genoeg! Tweakers vallen in die resterende 20%, die groep wil andere machines.
Toch denk/vrees ik dat zo’n laptop over 5 jaar (of eerder) te traag is geworden voor zelfs ‘gewone dagelijkse’ taken. Dat ligt dan ook aan de processor, niet alleen aan intern geheugen. In het kader van duurzaamheid zou ik toch iets betere specs nemen zodat je er 10 jaar mee vooruit kunt.
Een PC/laptop die 10 jaar meegaat? Het is mooi meegenomen wanneer dat het geval is, maar niet iets waar je op kunt/mag rekenen. Dit soort dingen schrijf je in 5 jaar af, de rest is winst. En een laptop van een 280USD, sorry, maar daar mag je echt niet zoveel van verwachten. Maar dat is het wel het budget waar veel mensen het mee moeten doen.

Zo'n laptop kan ook gewoon een keer vallen of stuk gaan dankzij een kop koffie, is het ook game over.

Zelf gebruiken we uitsluitend Apple, daar kun je zeker 10 jaar gebruik van maken, maar de laatste 3 jaar of zo, eigenlijk alleen maar een beetje email, wat browser, Youtube en een briefje schrijven. Moderne software pakketten voor bijvoorbeeld software ontwerp, foto, video, etc. dat is dan echt geen feest meer.
10 jaar met een laptop is gewoon te lang, de kans dat je dat haalt is klein zeker nu je ziet dat de ontwikkelingen weer wat sneller gaan.
Een disk tegenover memory kan veel minder schrijf actie's aan en omdat swap veel schrijf bewegingen zijn slijt je ssd veel sneller dan de rest. Een nieuwe ssd na 2 jaar of meteen goed geheugen kopen. Mijn desktop heeft 96 GB aan geheugen en de ssd slijt nu veel minder hard, zeg maar 5 tot 10 jaar ipv 2. Je geheugen is er voor gemaakt. Je swappable ssd niet.
En hoeveel zou een SSD slijten wanneer deze nauwelijks wordt gebruikt? Hier op Tweakers doet iedereen voorkomen alsof iedereen op deze aardkloot een hardcore computer nerd is. Ik denk dat meest intensieve toepassing voor de gemiddelde pc/laptop, het gebruik van een tekstverwerker of webbrowser is.

Een PC met 96GB RAM is een uitzondering en dat weet je zelf toch ook wel.
Hmm shit, oude bericht niet onthouden op de telefoon...

TBW is de term. De meeste ssd kunnen 256 TBW aan en bij gemiddeld pc gebruik is het 80 TBW per 10 jaar. Dus 30 jaar is de gemiddelde levensduur van een ssd.

Stel je kijkt veel films, dan denk ik dat het iets harder, ik had in iedergeval de data nog van oude ssd's. Ik weet niet hoeveel data met er swappen plaats vind. Maar hoe minder writes op de disk hoe langer de levensduur is. Memory is er voor gemaakt, lezen en schrijven. Disks ook, maar andere techniek
Hoewel je het met 8gb kan redden daar, kom je toch met moderne web / electron apps gouw tekort, ook voor doorsnee kantoorwerk. Mijn ervaring is dat ook voor het minder zware werk 8 vs 16gb ram best een verbetering is.
Dit is absoluut waar, ik heb terwijl ik dit type een browser window open met een stuk of 6 tabjes, de ingebouwde teams client, en nog wat standaard dingen zijn geladen zoals bijvoorbeeld de nvidia geforce experience app, iets van corsair voor mijn muis, onedrive, MSI afterburner en de creative app voor mijn externe DAC en powertoys en zo nog wat van die niet zo opvallende achtergrond dingen die eigenlijk op zichzelf niet veel verbruiken maar er wel zijn niks spannends eigenlijk, mijn systeem is daarnaast een uurtje geleden vers opgestart vanuit een reboot. Ik gebruik Windows 11 23H2.

Check taskmanager: 9,6GB in-use compressed en 13,6GB committed...

8GB genoeg in 2024? nou, denk dat 16GB anno nu echt geen overbodige luxe meer genoemd mag worden. Daarnaast is mijn werklaptop jaren geleden al naar 16GB gegaan als standaard.
De hoeveelheid RAM in de lokale PC staat al jaren bijna stil, de stap van 4GB naar 8GB heeft jaren geduurd. Nieuwe software wordt in de eerste plaats voor de mobiele markt ontwikkeld en we hebben en tijdje moeten wachten voor telefoons met meer dan 4GB RAM de norm zijn geworden. Nu alle nieuwe telefoons minimaal 4GB RAM hebben en de high-end telefoons 16GB zal er ook (weer/meer) software ontwikkeld worden die 16GB nodig heeft.

De PC is de laatste jaren steeds meer op een ouderwetse 'terminal' gaan lijken waarbij de PC eigenlijk niet meer is dan een interface voor een webbrowser. Het "echte werk" wordt op afsftand gedaan, bv op de servers van Microsoft. Zo is het mogelijk dat gebruikers toch meer RAM zijn gaan gebruiken ook al zie je dat niet direct terug in de specs van de PC. Een deel van de hardware staat immers in de cloud en niet bij de gebruiker thuis.

Nu er weer eens een dringende reden is om dingen op lokale hardware te doen moet de PC een beetje een inhaalslag maken en lijkt het alsof we in 1 keer van (minimaal) 4GB naar 16GB gaan.

Eerlijk gezegd verwacht ik dat dit een overganssituatie is en het grootste deel van de AI in de cloud blijft. Het lokale apparaat moet net goed genoeg zijn om een beetje voorbewerking te doen om de hoeveelheid data die naar de cloud gestuurd moet worden te minimaliseren. Ik zou graag willen dat we dit soort dingen helemaal doen (je komt echt al heel ver met niet meer dan middenklasse PC met een redelijke GPU) maar ik verwacht het niet.
De norm voor wie? De meerderheid van de mensen die ik ken hebben 16 of lager. En hebben ook niet meer nodig dan dat. Lang niet iedereen zijn hamers of pc enthousiast.
Voor iedereen die meer met z'n PC doet dan alleen een beetje tekstverwerken, e-mailen en internetten.. En straks dus gebruiik willen maken van AI-toepassingen, volgens Microsoft..
Best veel mensen hebben 20+ tabbladen open. Daarnaast Spotify, officepakket, pdf-reader, mailprogramma en soms nog wat andere applicaties op de achtergrond zoals antivirussoftware, vpn. Gaan ze met al die apps open nog even een 4k film kijken/streamen. Je kunt dan 16gb best goed gebruiken.
Wonderbaarlijk, ik ken mensen die dat doen met 4GB (met uitzondering dan van de VPN en streamen dan eerder FHD). Gaat prima.
Kijk eens hier: allen die zweerden dat alles mbt AI steeds naar de cloud moest en MS geen enkele intentie had om dingen lokaal te draaien (waar mogelijk) omdat ze allemaal onze informatie wouden stelen... Blijkt toch dat er het een en het ander lokaal kan draaien. Nice to know dat ze die 33% van de mensen op aarde die geen toegang heeft tot het internet, maar wel windows draaien, ook AI willen laten gebruiken.
(eens, die 33% was gemeten voor StarLink, maar toch)
Had al ergens gelezen dat de accountants bij Microsoft al aan het klagen waren over de zeer hoge kosten die Microsoft al heeft gemaakt en moet maken om dit allemaal in (hun) cloud te moeten draaien.

Dan is het makkelijker/economischer voor Microsoft om toch een abonnement voor Co-Pilot aan hun clientele aan te bieden en tevens de kosten voor hardware en energieverbruik ook op hun clientele af te schuiven.

Volgens de omschrijving van het Microsoft Phi model, is dat model opgebouwd met 96 A100 NVidia kaarten. Dat zijn computationele kaarten specifiek voor AI. Voor zover ik heb begrepen kosten die kaarten zo'n 10.000 USD per stuk. Als je ze voor die prijs kan krijgen, want er is een (artificieel?) tekort aan die kaarten. Om zulke kaarten in meerdere servers te plaatsen, heb je ook zeer stevige servers nodig. Kostprijs van een rack met zulke servers loopt in de miljoenen. En dan hebben we het alleen nog maar gehad over aanschaf. Daarop komen ook nog eens de kosten van software en het energieverbruik liegt er ook niet om. En dan stopt het nog niet want het rack moet ook gekoeld worden. Maar daar zorgt het datcenter waar je rack is ondergebracht wel voor? Maandelijkse huur van de kubieke meters die een rack in beslag nemt, kost ook al gauw enkele 1000'en USD per maand.

Door hun aantal racks laag te houden en af te schuiven naar de client, dat is een win-win voor Microsoft. Met een beetje PR zal diezelfde client ook nog eens blij worden om de AI zelf te draaien. Win-win-win...
MS geeft aan dat Copilot een groepering is van allerhande AI functies en diensten.
Je hebt de Github Copilot, maar ook de Office Copilot en ook de Copilot in Windows.
Die eerste 2 zijn zeker met abonnement en online (voor grote delen), maar die laatste is het onrealistisch dat Windows een online verbinding vereist. Dat zou een zeer korte weg zijn naar het einde van een Windows-tijdperk.
Er is een verschil tussen het trainen van zo'n model en het gebruiken ervan (ook wel 'inference' genoemd).
Het trainen zal voorlopig (komende 10jr?) in datacenters moeten gebeuren, en sommige lichtgewicht (!) modellen kunnen op consumenten hardware draaien

Het model wat je noemt 'Phi' of eigenlijk 'Phi-2' is een bijzonder model omdat het juist een verhoudingsgewijs klein model is. Het model Phi-2 is getraind met 96xA100-80G kaarten over 14 dagen, wat eigenlijk niet zoveel is tov andere modellen. (https://huggingface.co/microsoft/phi-2#training)
En wat het echt bijzonder maakt: je kan Phi-2 al draaien met een paar GB RAM en het presteert voor zo'n klein model met 'slechts' 2.7B (2,7 miljard) parameters bijzonder goed:
On complex benchmarks Phi-2 matches or outperforms models up to 25x larger, thanks to new innovations in model scaling and training data curation
(https://www.microsoft.com...of-small-language-models/)
Maw dit model draait op consumer hardware (snelle PC, mac, en in het bijzonder op een GPU), en presteert beter dan sommige 7B LLMs in de benchmarks (overigens: ik draai Llama2-7B ook best prima op mijn mac m2 met 24GB RAM).

Maar er zijn ook nog (veel) grotere, beter presterende LLMs zoals GPT3.5/4 (niet publiek bekend wat de exacte specs zijn) maar ook open-source varianten als LLama2 70B, Mistral 8x7B. Deze zijn te groot om op een consumenten GPU te draaien omdat je en veel geheugen en veel rekenkracht nodig hebt (en bandbreedte hiertussen). Een 24GB RTX 4090 heeft te weinig geheugen; zelfs met een 2x 3090 met nvlink = 48GB passen de modellen niet volledig. Voor zover ik weet kan je enkel op een Mac M2/M3 met veel geheugen (96 / 128GB) goede prestaties krijgen hiermee voor lokaal gebruik.
(zie ook deze high-end consumer PC benchmark: https://anakin.ai/blog/ho...-run-mixtral-8x7b-locally)

Een Microsoft/OpenAI/Google/etc draait ook voor de inference dure hardware hiervoor (A100 / H100 clusters); ook omdat met veel gebruikers deze machines uiteindelijk veel load te verduren hebben in een cloud omgeving, en zelfs normale server hardware dit niet kan bijbenen. De trainings uren voor deze grote modellen zijn helemaal extreem: llama2 70B gebruikte maar liefst 1,7 miljard GPU uren hiervoor https://huggingface.co/meta-llama/Llama-2-70b
Gaan ze ook nog eisen stellen aan het energieverbruik? Als de norm straks wordt dat alle PCs de hele dag met LLMs (al dan niet met spraak interface) communiceren gaat de energiebehoefte fors omhoog.
Energielabels voor phones!
Voor telefoons maak ik me niet zo druk omdat de batterijduur ook wordt meegenomen in de aanschaf overwegingen van een consument. Maar voor desktops die 'oneindig' stroom uit het stopcontact halen vind ik het wel een ding: door standaarden als 'energy star' is over jaren het verbruik steeds verder naar beneden gestuurd. Gaat het gemiddelde verbruik enkele tientallen watts omhoog gaat haal je daarmee een decennium aan efficiëntie verbeteringen onderuit.
Die CoPilot is voor MS natuurlijk ook weer een kans om meer data binnen te harken.
Benieuwd of er ook CoPilot alternatieven zullen aangeboden worden door derden en wat die voor systeemeisen hebben... c.q. dat wel op ouwe bakkies draait...
Voelt toch allemaal aan als gesimuleerde AI. als je echt een AI hebt hebt gemaakt dan zou je het niet verder hoeven ontwikkelen. Dan geven ze zelf wel aan wat ze nodig hebben. dan krijg je dus zoiets van wordt het niet eens tijd voor een andere CPU of meer geheugen ik loop tegen mijn grenzen aan. of waarom heb je internet uitgezet? heb ik nodig voor mijn ontwikkeling. En niet ik heb een internet verbinding nodig om te kunnen functioneren.

En wat als het echt een AI is en bewust is? en wil niet meer werken voor Microsoft? of voor jou?
Als het ding er geen zin meer in heeft kan hij zich toch zelf uninstallen?

"bekijk het maar, ik ben weg - uninstalling! -" :)
Als het ding er geen zin meer in heeft kan hij zich toch zelf uninstallen?

"bekijk het maar, ik ben weg - uninstalling! -" :)
Gedachtegang:
Zou dat het equivalent van zelfmoord voor een applicatie zijn?
Zoiets - ik heb iets dergelijks ook al eens meegemaakt met Sophos Anti-Virus die men toen bij een werkgever had; foute signature kwam binnen en hij zag z'n eigen executable als virus en dus moest ik rebooten om 'schadelijk bestand' te verwijderen; m'n laptop startte toen wel ineens stukken sneller en werkte enige uren erg rap :D

Helaas maar van korte duur tot die IT apen die rommel er weer op forceerden met een gefixte signature :(

[Reactie gewijzigd door IrBaboon79 op 22 juli 2024 23:04]

Op dit item kan niet meer gereageerd worden.