Apple introduceert M1 Ultra-soc die bestaat uit twee M1 Max-chips

Apple introduceert een nieuwe soc in zijn M-serie. De M1 Ultra bestaat uit een combinatie van twee M1 Max-chips, die met elkaar verbonden zijn via UltraFusion. Dat is de naam van Apples eigen interconnect, die een bandbreedte van 2,5TB/s heeft.

M1 UltraDe combinatie van twee M1 Max-socs levert 20 cpu-cores op en maximaal 64 gpu-cores. Er kan maximaal 128GB aan geheugen geïntegreerd worden op de M1 Ultra en dat heeft een bandbreedte van 800GB/s.

Apple gebruikt een eigen UltraFusion-interconnect om de twee M1 Max-chips te combineren. Apple claimt dat die zo snel is, dat er geen verschil merkbaar is met chips die uit een stuk bestaan. De die-to-die-interconnect was al aanwezig op de M1 Max-soc, maar Apple heeft dat eerder niet bekendgemaakt.

De gecombineerd chip bestaat uit 114 miljard transistors. Dat is zeven keer zoveel als het aantal transistors in een M1-soc. Apple gaat de M1 Ultra als eerste gebruiken in de Mac Studio. Dat is een grotere variant van de Mac mini.

Apple M1 Ultra
Apple M1 Ultra

Door Julian Huijbregts

Nieuwsredacteur

08-03-2022 • 19:37

171

Reacties (171)

171
168
84
4
0
52
Wijzig sortering
Dat ding rent zelfs rondjes om de 28-core Xeon in de Mac Pro. Damn….
Die Xeon is gebaseerd op skylake-SP, dat in sever-vorm al sinds 2017 uit is... Dat apple op 5nm sneller is mag ik wel hopen.

Ik ben wel benieuwd hoe dit presteert tov een 64 core epyc of threadripper hackintosh, want de M1 is briljant in performance/watt, dus eens zien hoe het gaat met iets meer cores en koeling.
Niet relevant, daar compete deze niet mee.

Deze chip zet Apple tegenover de 12900k en 5950 desktop processoren.

Aan het eind vd Keynote werd nog geteased dat de Mac Pro de laatste Mac is die nog de ARM upgrade gaat krijgen. Dat is het systeem dat je tegenover threadripper/Epyc moet zetten.
Hoezo cuncureert een mac van $4600 met normale desktops? In deze prijs klasse concurreren ze met mid-range xeon en threadripper systemen. Apple kost wat extra, maar ze zijn niet helemaal gek geworden.
De mac studio lijkt mij eerder de spirituele opvolger van de "trash can" mac pro, met alle voor en nadelen van dien.

[Reactie gewijzigd door B127 op 26 juli 2024 17:53]

Nou laten we het anders zeggen. In die prijsklasse concurreert Apple met high end systemen met een amd 5950 of Intel 12900k inclusief een rtx 3080/3090 met voeding, behuizing, intern geheugen , ssd en moederbord en bijbehorende koeling en Een OS dat geïnstalleerd en betaald dient te worden.

[Reactie gewijzigd door Halo_Master op 26 juli 2024 17:53]

Vreemd ... Ik heb zojuist een 4L 5950X in elkaar gestoken met maar een 6600XT en kan je verzekeren dat het sneller is dan de M1 Ultra. R23 ... 25% sneller dan de Ultra. Games, ... buiten de 6 games dat native draaien op Mac, zal mijn 6600XT gewoon het achterste van de M1 kicken omdat het alle games op Mac, moet emuleren. Leuk dat je krachtige hardware hebt maar als je deze niet deftig kan gebruiken, is het onbenutte krachtige hardware.

O en dat was ook 64GB met ECC off-chip geheugen. Kostprijs: 1800 Euro ( en dat was zo hoog omdat GPU prijzen nog altijd sucken! En ik meer 25% meer betaalde voor Low Profile geheugen, zodat ik 120mm fan op de cooler kan zetten ). En alles in een mooie 4L chassis dat lekker mobiel is.

En dan spreken we nog niet over de 4TB NVME dat ik op het moederbord zitten heb, dat de prijs 5.749,00 Euro maakt voor de Apple M1 Ultra.

En ben ik vergeten dat die 4.599,00 € versie, maar 48 GPU cores heeft. Voor de echte 64 Core GPU, moet je 5.749,00 € afdokken ( met 1TB drive ).
Ok, nou goed voor jou toch?

Maar die 6600xt, die heeft totaal geen invloed op de r23 bench en is gemaakt voor 1080p gaming. Zie de review op deze website.

En tja die m1 ultra scoort weer 7000 punten meer op geekbench, dan de 5950. Dus het is net welke benchmark je gebruikt.
Het feit dat je meer games kan spelen met een x-86 en die 6600xt , zegt in principe niets over de prestaties van de m1 ultra, die toch echt wel een snellere gpu heeft dan de 6600xt. Maar daarvoor zullen we moeten wachten op benchmarks die de gpu ook testen (doet cinebench r23 niet, is een cpu benchmark) .Het zegt echter wel iets over het game aanbod , die gewoon voor x-86 en Windows veel hoger ligt. Dus heb je een goede keuze gemaakt voor de toepassingen waarvoor jij jouw pc het meest gebruikt. Top toch, wees blij!

Lekkere game pc, maar dat is ook niet de doelgroep van de Apple studio, al zou ik wel wensen dat er meer games voor werden ontwikkeld, ben benieuwd wat de prestaties dan zullen zijn.

[Reactie gewijzigd door Halo_Master op 26 juli 2024 17:53]

Deels eens. Afgezien dat je stroomrekening over 5 jaar levensduur waarschijnlijk een groot deel van de kosten vd Mac terug verdient.
dat kan bijna niet, dan moet je PC al 24/7 opstaan en vollebak draaien ... in dat geval koop je best wat PV panelen :D

denken dat die Apple dingen een merkbaar verschil maken op je stroomrekening...
Dat kan zeker wel hoor. Het verschil in stroomgebruik is best groot, dus het kan, zelfs idle, over een jaar best een paar honderd euro zijn.

Maar laten we eerlijk zijn: Voor de meeste mensen die dit soort pc's gebruiken zal een paar minuten aan tijd die ze niet hoeven te wachten meer geld waard zijn dan 3 euro per dag aan stroom.
Een paar honderd euro per jaar, no way. Misschien 5 euro als het dat al is.

Voor een euro per dag verwarm ik 24/7 een 1000+ liter jacuzzi dat is 360 euro per jaar :+
Iets op temperatuur houden kost relatief weinig stroom. Dus is niet zo bijzonder dat je jacuzzi niet veel kost om warm te houden. Zelfde reden waarom een quooker voordeliger is in stroom vergeleken met een normale waterkoker.
paar honder euro.
Zeg dat apple cpu 100 watt minder verbruikt.
Rest van de componenten maakt weinig verschil tussen x86 and apple.

Als je systeem 24 uur 365 dagen op maximale sn elheid zou draaien is bij 100 watt het verschil in jaarlijks verbruik 876 kwh.
Dan zit je idd aan 200 euro.
Realiteit is natuurlijk dat neem normaal gebruik 8 uur per dag 5 dagen in de week en 50 watt verschil.
Dan zit je op 104 kwh verschil. Dan heb je het over 25 euro.
Wat noem jij normale desktops?

Kan je gerust een build van 20k in elkaar steken maar wil niet zeggen dat deze meer performance heeft dan eentje van 15k.

Apple heeft een flater gemaakt om de m1 te verkopen als superieur terwijl in dezelfde vergelijk een kreupele i5 nemen van enkele jaren ouder.
Hadden ze bij release een eerlijke vergelijk gemaakt had ik er meer in gezien.

Nu zijn ze afgegaan met de billen bloot.

M1 max is recenter en in eerlijke vergelijk met een 12900hk of 5900hx moet de m1 max achterblijven...

Moet je eens voorstellen tegenover fullpower cpu varianten...
Hebben ze geen antwoord op.

Ben oprecht benieuwd naar de performance welke en hoeverre deze zich verhoudt tegenover intel/amd
Ik concludeerde uit dat laatste dat ze geen 27" iMac gaan maken.
Ik zei ook geen iMac. Mac Pro. Zonder i.
Misschien in juni, de pro in november?
Dat zijn toch geen 180W TDP processors? Is dat niet appels met peren?
Er is een leak dat de ultra soc in geek bench 5 single core haalt van 1793 en multicore van 24055 dat houd in dat het tussen de 32core en de 64 core threadripper zit. Als we apple claims moeten geloven dat dit net zo snel is als een rtx 3090 even snel bereking maken. De 32core is €3000 en de 64 core is €4500 dus als we prijs tussen in pakken €3750, een rtx 3090 kost gouw als €2200 en moederbord met tb4 , 10gb kost ook zo al de €500 pakken we een 1000w psu ,128gb snelle ddr4 en simpele case met een 1tb m.2 gen 4 ssd (pros zouden altijd via een server of raid systeem moeten werken) komen €7750 uit, met veel hoger stroom verbruik. En de vergelijkbare mac studio kost €6700 dat is meer dan 1000 euro goedkoper dan vergelijk bare custom windows pc. 🤯🤯🤯
Met een collega een "benchmark" gedaan op zijn M1 Pro vs mijn 3950x/x570/64GB/2TB Gen 4 SSD/Linux

De benchmark is het bouwen van een Java applicatie met Maven in een multithreaded build, ongeveer 1M regels code verdeeld over zo'n 60 modules. Hier zit code generatie, Less->CSS en gewoon class file compilatie in.

Maakt praktisch geen verschil tussen de laptop en de desktop. Beide bouwen het systeem in net iets over de 1 minuut.

Hij macOS en ik Linux. Mijn i9 2018 32GB macbook pro doet er zo'n 2 minuten over en klinkt als een straaljager en je kan dan een stuk minder andere taken uitvoeren.

MacOS is niet zo snel als Linux op ext4, dus dit is echt wel een prestatie van Apple. Gelijke prestatie op een Apple laptop als een top-of-the-line PC uit eind 2019. En een stuk stiller en energie zuiniger.
Ik heb ook gemerkt dat de m1 totaal niet geoptimaliseerd is voor java compilen
En dat met dat lage stroomverbruik. Echt een killer!
Zolang je 'dat lage stroomverbruik' in de correcte context van zijn systeem doelgroep zet. :)
De M1 Max zat op een TDP van 90W in de MB Pro 16. Ik zie niet hoe dit lager dan 150W kan worden. Waarschijnlijk eerder gewoon 180W (of meer) package power.
Ja echt een beest van een machine. Benieuwd naar de échte cijfers …. Maar dat komt vaak wel goed overeen.
Behalve in gemiddeld dagelijks gebruikt. Want dan worden slechts de efficiency cores gebruikt, bijvoorbeeld in de browser. Dan issie toch ineens wat trager dan de een intel laptop van een paar jaar geleden.

Apple is veel te conservatief geweest met het oog op battery optimization. Die efficiency cores hadden best wat hoger geklokt mogen zijn, voor de huis- tuin- en keukentaken. Je bent immers niet 24/7 aan het renderen oid.
Nah dit product heet Studio en de focus ligt juist op productief creatief bezig zijn.
Als we apple's reclame oogen geloven is dit alvast de snelste chip aller tijden...
Tot je ze naast amd of intel zet in een benchmark:)
Succes met zoeken naar een discrete CPU en GPU die het beter doet dan ;)
Allemaal want die draaien lekker x86/amd63

Voor de M1 is het wachten op de arm versie altijd (als ze ze al uitbrengen)

Mijn AMD Sluitalles wat je ertegen smijt. Games/Renders/encoding
Laat maar eens zien welke discrete CPU het beter doet dan. Cijfers graag.
snap niet goed wat je met discrete cpu wilt zeggen ,
ofwel is het integrated, ofwel discrete en slaat meestal op de gpu .

hier heb je enkele cijfers ,
nota, dit zijn power limited devices (laptops) ,

https://www.pcworld.com/a...gen-core-i9-flagship.html

zet deze tegenover een workstation in de pricerange van +5000€ ...
denk aan een threadripper 2990wx van 2000€ of een xeon 3265 ,
threadripper net geen 300% , xeon 200% betere cinebench scores vs een m1 MAX
noteer ook even , dit zijn cpu's van 2019 en 2018 .

https://www.youtube.com/watch?v=rKw6os9HEII @3:27

ben benieuwd als ze dit kunnen evenaren door er 2 tegen elkaar te plakken.
en als dit genoeg gaat zijn voor intel's komende xeon's lineup .
Die M1 Ultra is sneller dan de 28-core Xeon van de Mac Pro…….

Intel mag van goeie huize komen om dat nog even in te halen. Bovendien moet je ook kijken naar prestatie per watt, en dát haalt Intel sowieso niet meer in.
Over een paar jaar de Pro Max Ultra chip? :+

Maar wat heeft Intel zitten slapen de afgelopen jaren zeg, als ze dit in een paar jaar uit de grond weten te stampen.
Nouja, een paar jaar... "Former Apple engineer details how the magic of M1 Mac performance began 10 years ago": https://9to5mac.com/2021/...1-mac-began-10-years-ago/

Dit is mogelijk als je een paar cash cows (iphone, ipad) hebt die je in staat stellen om gletsjers aan cash te besteden aan R&D. En heel erg veel tijd.
Een fractie van de tijd dus als je bedenkt dat Intel al vanaf 1968 bezig is met CPU's.
Apple doet 't ook al langer. De Intel chips die ze voor de M1 gebruikten in Macs waren dan weliswaar compleet inkoop, de PowerPC chips die ze dáárvoor gebruikten waren gedeeltelijk eigen ontwerp (PowerPC was een samenwerking tussen Apple, IBM en Motorola.)
En in de basis is het de ARM architectuur waarmee ze al even in telefoons aan het experimenteren zijn. M1 is baanbrekend, maar wel een volgende iteratie van iets waar ze al bekend mee waren.
Natuurlijk geen heel eerlijke vergelijking. Apple heeft in principe hun hele ecosysteem onder controle en kan een grote verandering in CPU architectuur veel beter plannen mbt software en hardware. Intel (of AMD) moet veel meer "legacy" ondersteunen, die kunnen niet zomaar zeggen van ja nu stoppen we met x86 en gaan we X gebruiken en de hele wereld heeft 12 maanden om alle software over te zetten en nog een fijne dag.
Ja, maar je kan ook iets ontwikkelen als Rosetta 2, zoals Apple dit heeft gedaan. Dat geeft een soepelere overgang en in de tussentijd compatibiliteit met “oude” x86 software.
Jawel, maar 'in een paar jaar uit de grond gestampt' doet lijken alsof Apple dit er even bij deed, tussen het geld tellen door. Dat is wat overdreven.

Wat Intel al die tijd heeft gedaan is de gans met de gouden eieren allerlei verschillende soorten voer geven om te kijken of het ei daar groter van werd. Helaas elke keer maar een paar procentjes...
Met een zak geld kun je kennis kopen, kennis die mensen bij andere bedrijven hebben opgedaan. Als je het zo bekijkt zegt het dus niets of een bedrijf al 100 50 20 of 5 jaar bezig is. Als je geld hebt zoals apple kun je kennis kopen, lees mensen met kennis.
insane. zie niet hoe concurenten dit nog gaan bijbenen
Ik wel. De ultra cost € 4629

64GB + 1TB + AMD Threadripper 64 core threads + GPU = ???

Zou prijzig zijn, waar steeds veel minder dan € 4629
Al de benchmarks waren tegen over 3 jaar oud hardware (i.e. 5700XT)
maar idd op stroom verbruik is er geen concurrentie, unified memory is ook leuk selling point for de gpu.

Blender heeft een leuk benchmark: https://opendata.blender.....1.0&group_by=device_name
Search op `M1` `any compute type` `3.1.0`
En dan compare die scores tegenover: https://opendata.blender.org/

Een heel andere beeld dan die van apple marketing.

[Reactie gewijzigd door jerkitout op 26 juli 2024 17:53]

Gaat die vlieger nog op? Een x86 systeem vergelijken met apple silicon? De standaard M1 sprint al rondjes om de gemiddelde x86 chip. Die $4000 van een AMD systeem bevat niet de vergaande software optimalisatie die macOS biedt. Apple silicon staat voorlopig nog wel alleen op grote hoogte ver van de rest, mede door de hard- en software implementatie wordt die afstand alleen maar groter.
Het hele idee dat de M1 "rondjes sprint" rond x86 is echter gewoon een heel goede marketing aan Apples kant, maar in de werkelijkheid is dat enkel zo op een paar specifieke taken... En daar is hij dan heel goed in, absoluut, maar het idee dat Apple met de M1 mijlenver voorstaat op de concurrentie is zwaar overdreven en Apple lijkt dat ook maar altegoed te beseffen. Het is niet voor niets dat hun vergelijkingen allemaal gedaan werden met hardware die vaak al 3 jaar oud was.
Dat is niet enkel marketing hoor. Ik doe op een mijn prive Macbook Air M1 zaken in Adobe waarbij mijn zakelijke Intel 16” Macbook Pro van loopt te zwoegen en zweten. Waarbij de Air niet eens actieve koeling heeft.
Misschien heeft de M1 versie veel betere koeling? Misschien was die Intel chip van een niet al te beste generatie wat betreft performance/watt? Dat in jouw geval de M1 beter is maar dat betekent natuurlijk niet perse dat de M1 opeens beter is dan elke andere x86 in alle taken.
De M1 heeft uberhaupt geen koeling in de Air. Geen fan. De rest is in herhaling vallen. We hebben het over een intel i9. Geen instapmodel.
op mijn Raspberry Pi zonder koeling doe ik ook veel, zonder enig geluid of bijna geen verbruik... en het kost 40$.

Het blijft zo dat de M1 niet zo snel is als hem gehyped is... op selectieve taken mss, maar niet algemeen.

Die software optimalisaties worden ook heel zwaar overdreven... Linux is ook geoptimaliseerd... Alsof Apple het afpersen van hoge performance uitgevonden hebben, dan doen programmeurs al vele jaren op vele hardware... Dat Apple zijn eigen ding doet, maakt het niet dat ze opnieuw het wiel moeten uitvinden.

De meeste supercomputers draaien op... Linux, juist wegens geoptimaliseerd. Een goed benutten x86 draait nog steeds rondjes rond die Macs...

Maar goed, geloof wat je graag wil horen.
Dat mag jij vinden idd. Maar als ik een Illustrator artwork file open op mijn 16” Macbook Pro i9 heeft ie heel veel moeite om vloeiend alles te doen wat ik wel. Als een M1 datzelfde artwork laat vliegen zonder koeling whatsoever. Dat is impressive. Ik ben ook echt oneens over je statement dat ie gehypt is. Je moet eens kijken wat voor performance die max en ultra er nu uit knallen. Dat is ongehoord.
M1 Max komt qua multi-threaded cpu performance al in de buurt van een 5950X terwijl een M1 minder cores heeft en veel minder energie gebruikt.

https://www.anandtech.com...-max-performance-review/4
https://tlkh.dev/benchmarking-the-apple-m1-max

Software-optimalisatie maakt veel uit bij een M1 omdat de M1 een SoC is met unified memory en een heterogene architectuur. De M1 verenigt een cpu, gpu, neural processing unit en allerlei offloaders zoals video codecs in één SoC met een enorme geheugenbandbreedte. Software die daar gebruik van kan maken presteert veel beter dan wanneer er alleen een cpu of eventueel een gpu wordt gebruikt. De efficiency is sowieso totaal onvergelijkbaar.
In Blender heeft de 5950X een score van 479, en de M1 Max (CPU) 193. Dus hangt erg af van de usecase.

https://opendata.blender.org/
Als je de performance per watt beschouwt , loopt hij zeker rondjes om de gevestigde x-86 met high end gpu heen.
X-86 met een dedicated gpu in de huidige vorm zit op een dood spoor, hoge wattage, heel veel koeling, en hopen dat er uiteindelijk nog winst gehaald kan worden door het procedé te verkleinen en extra cache erop te gooien. Daarnaast alle verbindingen op het moederbord gaan via relatief tragere connecties tussen cpu, geheugen en videokaart en ik controllers
Over een relatief grote afstand . Een scalable architecture met alle benodigdheden op de chip zelf met gedeeld geheugen via snelle verbindingen heeft de toekomst.
Maakt het voor hobbyisten minder leuk natuurlijk, maar in die efficiency slagen zit wel de toekomst .
als dit waar is, wat ik betwijfel, zouden de embedded GPUs al lang de gehelen wereld van gaming verovert hebben... om maar een voorbeeld te geven. Zelfde verhaal bij AI, ...

We hebben nog nooit zo snelle SSDs gehad dan nu, en toch loopt dat via het moederbord. Zo traag zijn die interconnects nu ook niet...

Volgens jou theorie wordt alles 1 chip, maar dat gaat niet. SRAM/DRAM zit sowieso op een ander process, RF chips typisch ook, en zo verder.

Je moet de kracht zien van aparte chips en moederborden in hun enorm potentieel aan van alles bij elkaar te krijgen, de flexibiliteit (niet de droom van Apple natuurlijk). Die flexibiliteit laat veel potentieel tot verbetering toe, met allerlei partijen die in en uit stapt. Net dat maakt het goedkoper... concurrentie (ook niet de droom van Apple).

Dat je on-chip nog meer bandbreedte hebt is waar, en on-chip interconnect verbruikt zeker minder, dat zijn zeker voordelen.

Ik zie ook nog een toekomst ertussenin: alles via interposers en zo laten lopen...
De embedded gpu heeft de wereld van gaming al grotendeels veroverd. Xbox en PS hebben ook een dergelijke embedded gpu. Daar zit geen losse grafische kaart in. Daarnaast hebben de PS en de Xbox al een aangepaste memory structuur.
En die Xbox en PS worden ook niet zo regelmatig ge-update, gemiddeld 1x in de 3 a 4 jaar.

[Reactie gewijzigd door Halo_Master op 26 juli 2024 17:53]

Dat heeft ook z'n beperkingen je kunt geen Windows draaien. Het blijft appels met peren vergelijken.
Uiterst selectieve optimalisatie dan. Het gros van de programma’s in deze wereld draait beter of alleen maar op x86.
Proest. Het gros van de microprocessors in deze wereld zijn niet-x86 microcontrollers met verschillende architecturen en mobiele devices die hoofdzakelijk ARM draaien.
De programma's in je wasmachine draaien echt niet veel beter op x86...
Het gros van de programma's in de desktop wereld dan, de wereld waarin die nieuwe apple unit zit.
Bedoel je Windows desktop software? Want vrijwel alle Mac software waarvoor performance relevant is is al lang geport naar ARM.
Ja dat is dus een beperkte hoeveelheid aan software. Dat was het punt.
Die 64 core threadripper alleen is al meer dan 4k

edit: volgens macrumours heeft de 20 core m1 ultra een geekbench 5 multicore score van 24055. (TR 3960X: 19990. -- TR 3900X: 25133.)
Die m1 ultra zit dicht tegen de 64 core threadripper aan, deze is ongeveer €4350,-.

Om goedkoper uit te zijn moet je dan voor €300,- een videokaart, 64 gb ram, voeding, opslag en een behuizing zoeken.

[Reactie gewijzigd door ruisman op 26 juli 2024 17:53]

Ja, en combineer dat met een rtx 3090 van 2400 euro en 128gb , ssd, behuizing koeling , moederbord. Nou dan kan je lachen. Dat wordt nog veel duurder.

1 voordeel, is wel upgradeable . Maar ja, als je iets hebt dat als systeem in zijn geheel veel sneller is voor minder geld, dan hoef je ook niet echt heel snel te upgraden.
Reken ook maar dat die GPU heel veel gaat helpen bij de creatieve taken waar Apple het altijd over heeft. Leuk dat ze hun CPU vergelijken met een Intel, maar zonder krachtige GPU wordt renderen etc een stuk trager
https://www.anandtech.com...-max-performance-review/6

We weten hoe de GPU schaalt in productivity, bijna lineair. Verdubbeling tov de M1 Max zal de GPU in de M1 Ultra dik over een enkele 3090 heen gaan in productiviteitsapplicaties. Gaming blijft een zwaktepunt.
Wat betreft gaming, volgens mij zijn de workstation gpu's ook niet het snelste in gaming. Daar zijn ze ook niet voor geoptimaliseerd.
https://www.theverge.com/...tudio-m1-ultra-max-review

Benchmarks zijn uit, minder dan de helft van een 3090 }:O

[Reactie gewijzigd door jerkitout op 26 juli 2024 17:53]

Ja, maar dat is hoe deze architectuur werkt. Maar als we toch de hypothetische kant opgaan: Zonder die GPU’ s had Apple ruimte gehad om veel meer cpu cores in de m1 ultra te verwerken, wellicht 64 cores meer? Dan had je bij wijze van spreken een 84 core cpu kunnen hebben en daaraan een losse grafische kaart kunnen plakken. En daarvan had ik ook wel cpu benchmarks willen zien dan.

Maar dat is niet zo, het is gewoon appels met peren .
Oops, ik bedoelde 32 core/64 threads

edit: Wauw, wat zijn deze prijzen hoog, mss zit ik complete fout

[Reactie gewijzigd door jerkitout op 26 juli 2024 17:53]

18 8K ProRes streams, ik zie dat niet gebeuren op dat chipje.
Klopt, maar dat ik gewoon omdat ze zoveel video decoders hebben omdat het twee physiek chips zijn. Niet omdat het perse handig is. (Ik ken niemand die 18 video stream tegelijk afspeelt?)

Maar ik zal toegeven, op sommige gebieden is apple silicon echt in zijn eigen class.

Maar als software engineer die alleen zijn code wil snel compileren, is AMD nog een goed concurrente.

[Reactie gewijzigd door jerkitout op 26 juli 2024 17:53]

Multicam video editing. Ik edit 9x 4K RAW streams op mijn MacBook m1 max
En nu het stroomverbruik (efficiency) vergelijken??
Zou leuk zijn voor een grafiek, wanneer de initiale hoge cost break-even met de laag stroom verbruik. Ik weet het ook niet zo snel.
Je hebt hier te maken met Soc die 128GB unified heeft.
het kan 64/64 of 32/96 of 16/112 CPU iGPU ratio.
maar ook 96/32 of 112/16
en eigenlijk alle gradaties ertussen en dat runtime dynamisch.
Je hebt dus zoiets als gPU die flink deel van 128GB kan benutten met 800gB/s.
Dat is uniek naast die efficiëntie.
om met die unified memoy met dgpu mee te komen heb pro kaart nodig en niet 3090 met maar 24gb.
De CPU geniet ook van die 800GB/S.
De 128GB is een extra €920 }:O

Als het 4x zo snel is voor 4x de prijs, dan is het ook niet echt een eerlijk vergelijking.
Hangt ervan af welke gpu je eraan gaat hangen. Welke gpu zou vergelijkbaar zijn? Ik denk met een rx3090 of zo, nou die kost ook wat.

Maar die high end met 128gb , 2gb ssd en de volledig 20-core ultra met 64 core gpu kost dan ook iets meer dan 7000 euro.

Maar ja, als je dus een amd threadripper neemt, met 128gb geheugen, 2gb ssd en een rtx3090 , moederbord met 6x Thunderbolt, etc en behuizing, voeding en koeling ben je ook behoorlijk veel kwijt, en ik heb dan nog steeds het gevoel dat de studio sneller zal zijn.

Is gewoon een heel nieuwe architectuur die efficiënter is met een enorme bandwidth , dus voor minder geld kan je een krachtige pc bouwen, maar wel 1 die niet (op papier) zo krachtig zal zijn als de high end studio.

[Reactie gewijzigd door Halo_Master op 26 juli 2024 17:53]

zag anders dat er vergeleken werd met een 3090 in de grafieken. vind jij nog maar eens een gpu die betaalbaar is in die klasse
Je vergeet ‘leverbaar’
Nee ook 1 benchmark met de (dual gpu) radeon w6900x , die ook verouderd is, maar niet echt langzaam te noemen.
De benchmarks waren tegen een i9 12900k en een rtx 3060ti en 3090.
Gewoon zoals ze het al jaren doen. Op prijs.
Jemig. Met 64 cores concurreert ie waarschijnlijk met de RTX 3090. Ik heb zoiets niet nodig maar ben alvast benieuwd naar de benchmarks.
Misschien in beperkte benchmarks maar real life komt in de meeste een M1 max nu niet in de buurt van een 3080 lpatop gpu (laat staan desktop) . Zelfs moesten ze dat x2 kunnen doen zou het maar on par zijn met 3080 laptop gpu
Voor gaming. Andere GPU workloads zijn andere koek.
blender ed ook hoor,

Metal support en 5900HX + 3080 is 5-6 keer sneller cine4d 3 keer.

https://www.youtube.com/watch?v=z9PAiaKRM5U

Ongetwijfeld zal nog verbeteren met betere support

[Reactie gewijzigd door k995 op 26 juli 2024 17:53]

Heb je dat filmpje ook afgekeken tot het punt waar ze de laptops van netstroom halen? Qua pure performance heb je zeker gelijk, maar kijk je verder naar ‘gebruik’ van een laptop als, nou ja, een laptop, dan is het plaatje anders (ik vond dat voornamelijk het interessants aan je link).
MAc studio is een desktop, ik heb zelf een mac mini m1 trouwens, leuke dingetjes maar ik zou er geen 4000 euro aan uitgeven.
Ja, wat houdt real life bij jou in?
Als je met real-life bedoelt dat de laptop met de rtx3080 altijd aan het stroom hangt en geluid gaat maken als een straaljager en niet thermisch gaat throttelen dan heb je een punt. Maar is dat real-life?
Mac studio is een desktop dus ik vergelijk met desktop . ALs ik benchmarks zie van de M1 max zelfs bij X2 performance (wat twijfelachtig is) kom je meestal niet in de buurt van high end desktop performance.
Je maakt een vergelijking met de m1 Max en met een een laptop met rtx3080 laptop gpu, daar reageerde ik op.

Het komt allemaal op hetzelfde neer. Als je naar de verschillende architecturen kijkt x-86 vs ARM/apple silicon, dan kan je wel een snellere x-86 oplossing vinden die ook erg duur is, tig watt gebruikt en fanatiek moet worden gekoeld.

Als je ziet wat Apple daartegen over zet in performance per watt, dan kan je concluderen dat Apple de architectuur heeft met de meeste headroom voor de toekomst, en dat Intel met zijn huidige architectuur met daarnaast nog high end grafische kaarten op een doodlopend pad zit.
Die architectuur is niet efficiënt genoeg om nog flinke stappen te kunnen maken. De traditionele chipfabrikanten zullen dus iets moeten gaan veranderen in hun architectuur(waar ze nu ook volledig mee bezig zullen zijn) als ze relevant willen blijven in de high end markt.

Een cpu die 250 watt trekt en een dedicated videokaart die 300 watt trekt, kunnen nu nog mee en nog beter presteren (behalve in video editing) . maar als Apple hierna met de macpro komt (waarschijnlijk binnen 1 jaar) met de m1 max x 4 komt (of de m1 ultra x2) in hun MacPro’s en ze weten de prestaties van de m1 ultra te verdubbelen met een tdp van 300 watt(maar uiteraard erg duur) dan ben ik benieuwd wat de concurrentie hier tegenover kan zetten op korte termijn.

Apple zou zelfs een 8x m1 Max kunnen combineren voor 650 watt(of 4xm1 ultra ), dat zou 80 cpu cores en 288 gpu cores zijn opgeteld. En dat tegen dezelfde stroomafname van bijv de huidige rtx3090 en de Intel 12900k. Nou, ik weet dan welke veel sneller zal zijn. Uiteraard niet te betalen, maar meer om een referentiekader te geven hoe belangrijk performance per watt wel niet is.

[Reactie gewijzigd door Halo_Master op 26 juli 2024 17:53]

Dat was als antwoord op "met 64 cores concurreert ie waarschijnlijk met de RTX 3090"
Dus neen, de m1 max is meestal veel trager dan een portable versie van de 3080 dus ik betwijfel ten zeerste of deze sneller zal zijn dan een desktop 3090 .

Het is een mooi product van apple heb zelf een mac mini m1 , maar altijd komen deze uitspraken terug alsof het sneller dan alles wat op de markt is wat gewoonweg niet juist is.
Nou , apple zegt van wel on zijn grafieken , maar is een “wij van wc eend” uitspraak, Dus moeten we nog zien.

Feit is wel dat een rtx3090 niet 2x zo snel is als een rtx 3080. Dus tel je voor dat een m1 pro Max 60% heeft van de snelheid van een reguliere rtx3080, dan kan het best zijn dat een m1 ultra net zo snel is als een rtx 3090.
Daarnaast weten we alleen hoe snel een m1 pro Max is is een laptop en nog niet in een desktop, zonder stroombeperkingen(batterij) en met betere koeling, dus minder thermal throttling , zou het mij niet verbazen dat een m1 Max met 32 gpu’ s niet sneller is dan een desktop 3080, maar daar best wel eens op 50% a 60% procent van zit . Dan zou je ook kunnen concluderen dat de m1 ultra dus best wel een vergelijkbare performance zou kunnen hebben tov een rtx 3090.

Dat weten we nog niet, maar dat is niet een hele rare gedachtengang volgens mij. Maar eerst de testen maar eens afwachten dan.
Het ging hier echter over een mobile 3080 en ja een desktop 3090 is in vele gevallen dubbel zo snel als een mobile 3080 (die vergelijkbaar is met een desktop 3060 ti).

Dus zelf al heeft een mac m1 max gelijkaardige performantie als ene mobile 3080 (wat die in vele gevallen dus nietheeft) zelfs met 50-60% winst kom je in de meeste gevallen nog niet aan een 3090 .

Natuurlijk apple kan nog bakken verbeteren qua performance terwijl nvdia zo goed als aan peak zit voor de 3090 maar de 40xx staan eraan te komen en zo blijf je bezig dus.
Ja, maar je vergeet dat ook een m1 max in een laptop ook powermanagement heeft vanwege batterij en hitte. In een desktop met wandstroom en een betere koeling heb ik een m1 Max nog niet aan het werk gezien, want er bestaat nog geen desktop pc met een m1 Max.

Maar het wordt in ieder geval leuk de aankomende jaren.

Ik vergelijk het meer met auto motoren.
Vroeger hadden we veel V8 en v12 motoren nodig om een hoog vermogen te halen.
In de loop van de jaren hebben we < 2.0 liter turbo motoren ontwikkeld die veel zuiniger zijn , maar dezelfde prestaties kunnen leveren.
Maar er zijn nog steeds mensen (m’n in Amerika) die zweren bij een ouderwets v8 blok.

[Reactie gewijzigd door Halo_Master op 26 juli 2024 17:53]

om andere reden dan kost/performantie/verbruik waar hier het wel om gaat.

We zullen zien, ik hoop het alvast echter betwijfel ik het.
Nou, ik vind het in ieder geval een goede ontwikkeling, die de concurrentie (m’n Intel) wakker heeft geschud . Die waren alleen maar bezig met het verhogen van clocksnelheid, hogere wattage en extremere koeling en grotere cache, en transitie naar een kleiner procedé schoot ook niet op. Doodlopend spoor.
Volgens mij zeiden ze 21 TFlops in het event, een 3090 heeft er 35,5. Zit nog wel een verschilletje tussen, maar nog steeds een beest van een ding. Jammer dat gaming op macOS niet echt lekker werkt. (Of dat moet inmiddels anders zijn)
64 cores en 128GB RAM welke toegankelijk is voor de GPU. Een 3090 blijft steken op 24GB. Voor games natuurlijk niet boeiend maar voor compute taken een enorm verschil.
Simpel even kijken naar de cinebench R23 benchmark, die ook geoptimaliseerd is voor m1.
core i9 12900k: single core: 2019 - multicore: 27669
m1 Ultra: single core: 1562 - multicore: 24566
m1 Max: single core: 1556 - multicore: 12502

De scores lijken dus goed te kloppen als je ze vergelijkt met m1 Max.
Conclusie: M1 Ultra komt niet eens in de buurt van een 12900K voor de meeste toepassingen.
Logisch ook als je je chipdesign 2 jaar lang niet update.

Vraag die volgt is: Wat gaat er gebeuren als Intel zijn productieproblemen opgelost heeft en binnen een paar jaar naar 3nm gaat?
Tja, dat horen we al een tijdje. Hun 7nm is eigenlijk 10nm, en al jaren lukt het ze niet om hun cpu’ s op een echt kleinere procedé te produceren.
Daarnaast kan Apple ook nog naar 3nm, die zit nu op 5nm.

Btw niet vergeten dat de m1 Max/ultra ook behoorlijke goede gpu’ s hebben. Het is in totaal gewoon een zeer goed systeem. Dus een standalone Intel chip met een hoger stroomverbruik heeft een 10% betere performance dan een zuinigere m1 ultra met een high end grafische kaart ingebouwd? Tja….. het is maar net hoe je het bekijkt.

[Reactie gewijzigd door Halo_Master op 26 juli 2024 17:53]

Intel's 7nm is gelijkaardig aan wat Apple en de rest van de industrie 7nm zou noemen. Intel's oude naamgeving, hoewel accurater dan de rest van de markt, ging juist tegen de stroom in. Wat Apple nu 5nm noemt zou Intel 7nm hebben genoemd in hun oude systeem.
Maar is stroomgebruik belangrijk in een de desktop? Ik denk het niet. 30% meer single core performance waarschijnlijk wel.

[Reactie gewijzigd door lordawesome op 26 juli 2024 17:53]

Nou, ehhh ja.
Want dat geeft wel aan welke architectuur meer headroom heeft , en dus meer ruimte om verder te verbeteren. Je kan in de toekomst niet een 3000 watt voeding en een megakoeler gaan gebruiken om de prestaties te gaan verbeteren.
Bij GFXbench 5.0 kun je alvast anticiperen op de GPU performance. Die draait ook op Metal en Windows. De M1 Max scoort bijna het dubbele van de M1 Pro. Dus de M1 Ultra zal dan wel weer bijna het dubbele worden. Dit zijn de scores:

544fps 6900 XT
512fps 3080 Ti
505fps 3090
(600fps? M1 Ultra)
309fps M1 Max
165fps M1 Pro

Bron: https://gfxbench.com/resu...arch-x86=true&base=device

En als ik dan een systeempje met een 3090 en 12900K samen stel kom ik op 3400 euro uit in plaats van 4600 van de Mac Studio: inventaris: m1 ultra
Ja, klopt, maar is wel langzamer , scheelt toch zo een 100 fps of 20%.

En dat is tov de meest high end videokaarten die er zijn, en dat ingebakken in 1 soc met veel minder stroomverbruik dan die combo’ s die jij opnoemt . Het is technisch gezien gewoon een zeer knappe prestatie, en dat met de m2 (pro/max/ultra) in het vooruitzicht.
Het is iets langzamer ja. Tenzij raytracing wordt gebruikt. In Blender Optix bijvoorbeeld. Dan is die 3090 ineens een paar keer sneller.

Ik zou het vergelijkbare machines noemen. Qua software zijn ze echter bijzonder verschillend. Er zijn maar weinig programma's die op beide besturingssystemen goed draaien.

En ja, de M2 komt er aan. Maar dit jaar komt ook Zen 4, Raptor Lake, RDNA3 en de 4090 uit. Het wordt een interessant jaar.
Dan heb je een systeem voor wat? Gaming? Mooi man, maar dit is een computer bedoeld voor mensen die video editen, muziek maken, foto's editen, etc etc.
We zullen de performance daarvan de komende weken zien, maar reken er op dat niets in de buurt kan komen als we het over bv Video productie hebben voor deze prijs, of zelf het dubbele
Je bedoelt dat hij enkel op video productie kan winnen omdat hij hardware acceleratie voor Apples eigen codec heeft. Op alle andere vlakken presteert hij als een normale computer. Nou ja, hij kan geen raytracing wat hem slecht maakt voor 3d programma's zoals Blender, Modo en Keyshot.
Ik denk dat we de komende tijd genoeg vergelijkingen gaan zien tussen high end PC oplossingen en deze nieuwe Apple, we zullen zien.
Inderdaad. De studio mag het deze ronde opnemen tegen desktop pc's in plaats van laptops. Dat wordt zeker interessant.

Het lijkt erop dat de CPU een 5950x bij houdt, maar verliest van een 12900k tenzij de prores codec wordt gebruikt. En de GPU sneller is dan een 3090 of 6900XT. Zowiezo als er meer dan 24gb vram wordt gevraagd. Tenzij er raytracing wordt gebruikt.

Ben benieuwd.
Iets met selectieve appels en peren? Zie allerlei andere benchmarks. Om over het stroomverbruik en de bijbehorende hitte maar niet te spreken.
Appels en peren? Cinebench draait native op Metal. Maakt optimaal gebruik van de hardware.

Stroomverbruik maakt niet uit. De M1 Ultra zit niet in een laptop met een batterij. En als je stroom zo belangrijk vindt, de 5950X haalt vergelijkbare scores: https://www.cpu-monkey.co..._gpu-vs-amd_ryzen_9_5950x
Tja, je kan er 1 benchmark uitpakken, maar in geekbench 5 is het weer een totaal ander verhaal, daar komt die 12900k helemaal geeneens bij de m1 ultra in de buurt.
M1 ultra 25000
Intel 12900 k: 17500

De hoogst scorende Intel cpu hierin komt op 23500.

Btw van dezelfde website, waar jij jouw getallen vandaan haalt.
Tuurlijk. Het hangt van de toepassing af. In video editing doet de M1 het waarschijnlijk heel goed. Echter, als je Blender wilt gebruiken dan is een 3080 een aantal keer sneller vanwege raytracing cores. En in games geeft Apple ook niet thuis.
Ja, dat klopt, maar dan heb je het wel over een dedicated/aparte snelste videokaart he? De m1 ultra doet het met de interne gpu die in de soc gebakken zit.
Ja, technisch is het leuk. Net zo leuk als een console. Of de Steam Deck. Technisch leuke SOCs.
Ja, zonder gpu. Terwijl die m1 ultra wel
Een ingebouwde gpu heeft.
Scheelt maar 300 a 350 watt als je een rtx3090 toevoegt.
Lol, denk je soms dat Apple's benchmarks allemaal objectief zijn? Het is al lang bekend dat, ja, er zijn bewerkingen waarbij de M1 absoluut met kop en schouder boven de rest uitsteekt, maar dat is bij lange na niet bij alles het geval.
Vindt de snelheid van het systeem als geheel een stuk belangrijker dan de snelheid van 1 onderdeel.
Zoveel kracht, maar amper fatsoenlijk spellen kunnen spelen (met de normale M1 en de M1Max)

Zo jammer dat dual boot weg is (zonder betaalde emulatie etc.), anders kocht ik zo weer een Mac Mini.
Als die emulatie zo belangrijk is, dan is die 99 EUR extra toch geen punt meer op de totale kost van zo een MAC ding ?

En ik moet toegeven, Win11 werkt als een tierelier op mijn MacBook Air m1

[Reactie gewijzigd door Anoniem: 150119 op 26 juli 2024 17:53]

Dat kan toch enkel via parallels? Dat schiet toch ook niet op. Koop dan een Windows laptop.
Met macOS erop?

Vaak koop je een Mac omwille van MacOS, maar ben je nog deels afhankelijk van Windows. En dan is emulatie een uitkomst

Als je 100% windows gaat gebruiken is een Mac bijna nooit een goede keuze. En andersom dus ook.

[Reactie gewijzigd door b12e op 26 juli 2024 17:53]

Dat schiet toch niet op. Net als dual boot echt irritant is. In de praktijk zie je vaak dat iemand enkel in Mac of enkel in Windows werkt. Dan kopen ze een M1 en zitten ze enkel in Windows via parallels met ik weet niet hoeveel overhead.
Anoniem: 150119 @Marve799 maart 2022 00:39
Dan heb jij duidelijk nog niet gehoord van de 'Coherence' functie in Parallels ?
De ARM versie van Win11?
Anoniem: 150119 @wroeter9 maart 2022 00:39
Correct ... en net zoals altijd zorgt de Coherence functie ervoor dat ik gewoon in MacOS kan werken en naadloos de specifieke windows apps die ik nodig heb kan gebruiken.
Zoveel kracht, maar amper fatsoenlijk spellen kunnen spelen (met de normale M1 en de M1Max)

Zo jammer dat dual boot weg is (zonder betaalde emulatie etc.), anders kocht ik zo weer een Mac Mini.
Mischien dat SteamOS daar in de nabije toekomst bij kan gaan helpen ;)
De dual boot (bootcamp) bal ligt bij Microsoft had Craig Federighi aangegeven. Die hebben geen Windows on Arm retail versie/licentie beschikbaar dus je kan dat ook niet officieel installeren op een Mac. Dan is bootcamp ook nutteloos.

(En nee, ik verwacht niet dat Apple illegale software zou willen faciliteren)
Even serieus. 114Miljard transistors. Dat is enorm veel.

Een 15-core xeon heeft er 4,3 miljard.
Een rtx 3090 heeft er 28,3 miljard.

Doe dat bij elkaar en dan maal drie.

De yields van deze chips moeten echt enorm zijn om dit op massa te kunnen produceren tegen fatsoenlijke kosten.
Als je kiest voor de M1 Ultra in de Mac Studio betaal je 2k meer dan de M1 Max. Dus "fatsoenlijke kosten" is misschien wat licht genomen.
Hoezo? Wat kost de combi 28 core xeon en rtx 3090 bij elkaar?

Qua prestaties moet dit ding rondjes rennen om de 28-core mac pro dus dat lijkt me wel een eerlijke vergelijking. Een xeon W3175X was minimaal 3200 en gemiddeld zo’n €4k.

Cpu uit 2019 dat wel. Maar ook een threadripper met zoveel corse kost rond de €2K. En dan moet je graphics nog erbij.

2K extra voor deze combinatie? Als de prestaties across the board zo goed zijn als de cijfers doen lijken dan is dat echt niet duur.

Veel geld? Ja, maar relatief gezien heel gunstig. Zeker ook gezien je serieus geld bespaard door het veel lagere verbruik.
In principe zijn het 2 chips/socs die met elkaar verbonden zijn, dus zo een 57 miljard per soc. Althans dat is de transistor count van een m1 max.

Nog steeds veel, maar dat maakt de kans op betere yields wel groter.
Klopt. Echter moeten ze nog wel met de interconnect aan elkaar geknoopt en daar kan het ook nog fout gaan.

Al met al erg netjes gezien de fysieke grootte van de chip.
De overstap van x86 naar RISC kan voor mij niet snel genoeg komen. Heerlijk, zoveel kracht in een mini formfactor.
De overstap naar RISC is al een paar decennia geleden gebeurd. Elke x86 is na de instruction decoder al RSIC. Het voordeel van die vertaling daar is dubbel. x86 instructies zijn gemiddeld kleiner, waardoor je meer regels code in je cache kunt hebben. En de verschillende x86 chips kunnen intern verschillende RISC-ISA's hebben die niet compatible hoeven zijn, maar juist geoptimaliseerd zijn voor de specifieke chip.

Ja, de vertaling kost een paar transistoren, maar dit was al bruikbaar op 130 nm. Die vertaling is sindsdien alleen maar kleiner en sneller geworden; het is relatief steeds minder overhead.
Dit is dus de vervanger voor de iMac (Pro)?
Nee die komt later nog.
Apple zei in de presentatie dat het enige product dat ze nog niet hebben vervangen met Apple M-chips de Mac Pro is. Dus de iMac 27" en iMac Pro lijken dood te zijn...
Er is nog altijd een intel mac mini op apple.nl te koop. dus ik verwacht in juni de 27" imac en de betere mac mini. En dan ws in november de mac pro.
Dit is geen vervanger, want die kerel zij in de conferentie “dat er nog 1 Mac blijft die transitie moet maken en dat is de Mac Pro maar dat is voor een andere dag”

Waarschijnlijk gaan ze daarvoor 2 ultra’s aan elkaar gaan plakken en noemen het M1 Infinity Power.
iMac Pro != Mac Pro
Ik denk het, maar er komt dus ook nog een nieuwe macpro , zoals ze op het einde aankondigen, maar dat is voor een nieuwe dag. Er gaan geruchten voor de nieuwe macpro met 40 cpu cores en 128 gpu cores , dus in feite een dubbele m1 ultra(of 4x m1 Max). Je wilt niet weten hoe duur die zal worden (ook niet hoe snel btw).
Ja, dat zal wel komen ja. Of misschien M2 Max 2x lol
ja, wat is dit, geen nieuwe iMacs?
Apple wil je eerst een Studio Display slijten. ;)
Ja grootste tegenvaller, vrees dat het einde verhaal is voor de 27" imac.
Nee hij eindigde met dat is voor een andere dag
Volgens mij had hij toen over de Mac Pro ipv de iMac Pro (all-in-one met beeldscherm)?
Wat mij opvalt aan de discussie hierboven over vergelijk threadripper en rtx 3090 is dat niemand het heeft over de formfactor. Kijk eens naar de compacte behuizing waar al dat geweld in zit. Probeer dat eens met al die lossen videokaarten als een rtx3090 of W6900 of zo dat past gewoon niet..

Daarnaast als je deze chip vergelijkt met alle CPU’s met geintegreerde GPU’s dan ziet dat vergelijk er ook ineens anders uit.. Want dan is er helemaal geen vergelijk.

En nee dit is niet de snelste desktopcomputer die je zelf kunt bouwen. Maar als je energieverbruik, formfactor in ogenschouw neemt dan krijg je dat niet met losse componenten voor elkaar.

Volgens mij kun je daar alleen maar respect voor hebben. Of je nu wel of geen apple fanboy bent. Ik vind dat knap.

Op dit item kan niet meer gereageerd worden.