Parallels laat gebruikers Arm-versie van Windows 10 draaien op Macs met M1-soc

De Parallels Desktop-software krijgt ondersteuning voor de Apple M1-chip. Daardoor kunnen gebruikers virtual machines met de Arm-versies van Windows 10 en Linux-distributies draaien op Macs met deze soc. De software behoudt ook ondersteuning voor Intel Macs.

Parallels meldt in een blogpost dat Apple M1-ondersteuning wordt toegevoegd aan versie 16.5 van Parallels Desktop. Gebruikers kunnen hiermee bijvoorbeeld Windows 10 voor Arm draaien in een virtuele machine. Dit OS is nog niet officieel uitgebracht, hoewel leden van het Windows Insider-programma een previewversie kunnen downloaden.

Gebruikers van dit besturingssysteem kunnen met de software Windows 10 Arm-apps naast macOS-applicaties draaien op Macs met M1-soc. Windows 10 x86-programma's worden ook ondersteund via emulatie. De virtualisatiesoftware biedt ook ondersteuning voor Linux-distributies voor Arm. De ontwikkelaar noemt hierbij Ubuntu 20.04, Kali Linux 2021.1, Debian 10.7 en Fedora Workstation 33-1.2 als opties.

Parallels claimt dat Windows 10-vm's op een Mac met Apple M1-chip tot 30 procent beter moeten presteren dan Windows 10 op een Macbook Air 2020 met Intel-cpu. De DirectX 11-prestaties moeten zestig procent beter zijn dan een Macbook Pro met Radeon Pro 555X-gpu, stelt het bedrijf. Het stroomverbruik van virtuele machines op een Apple M1-computer ligt volgens Parallels tot 250 procent lager dan dat van een Macbook Air 2020.

Parallels Desktop for Mac 16.5 is vanaf woensdag beschikbaar. Gebruikers die een licentie voor Parallels Desktop 16 hebben, kunnen de nieuwe versie gratis downloaden. Een nieuwe licentie voor thuisgebruik en studenten kost 80 euro, terwijl ontwikkelaars, testers of bedrijven een jaarabonnement van 100 euro kunnen afsluiten.

Parallels Desktop 16.5 Windows 10 Mac Apple M1
Afbeelding via Parallels

Door Daan van Monsjou

Nieuwsredacteur

14-04-2021 • 19:33

90

Submitter: robcoenen

Reacties (90)

90
85
59
6
0
19
Wijzig sortering
Met dit soort prestaties zou je op den duur weleens een verschuiving kunnen zien van Intel gebaseerde CPU's naar de Apple M1 CPU als basis voor bestaande hypervisors?
Het zijn vergelijkingen ten opzichte van MacBooks waar Intel CPUs inzitten die nooit tot hun recht zijn kunnen komen. Een M1 is een goede CPU, maar als je eenmaal naar de high-end CPUs gaat kijken zien we een ander verhaal op dit moment. Waarom denk je dat ARM in datacentra bijvoorbeeld nog altijd niet is doorgebroken? Als ARM echt zo een groot verschil zou maken als sommige mensen suggereren dan waren we al lang massaal over.
hele grote delen van de 'online' server wereld draait op één of andere vorm van linux,
ook hele grote delen draaien op cloud-achtige systemen waar al redelijk wat ARM gebruikt wordt,
Als voorbeeld: hele clusters bij google draaien al op eigen implementaties van multi-core arm chips (tot soms wel 100+ cores per chip) en ook Amazon is flink bezig.

Als je google'd (of zelfs hier in het tweakers.net nieuwsarchief zoekt zul je wel arm-serverprocessors tegen komen met een veelvoud aan cores ten opzichte van zelfs de meeste Treadripper-designs.

Er zijn echter vrijwel altijd 2 a 3 punten waarop je moet oordelen als je kijkt naar de omslag van concurenten.
1: Is nieuw beter dan oud, En beter is bijna alltijd, sneller, zuiniger én goedkoper (liefst alles in een).
2: Is nieww compatible met oud,
-> en zo niet is overstappen naar nieuw dan goedkoper dan de inefficiëntie van oud te laten voortbestaan.
3: Lost nieuw een probleem op dat je niet met oud, of op zijn minst op een alternatieve en vooral gemakkelijkere (dus goedkopere) manier kunt oplossen want laten we wel wezen zelfs als nieuw beter is en zelfs goedkopere maar het is evengoed een hoop werk en een hoog risico ... dat dan toch maar zitten: je kunt altijd nog ouderwetsch de prijzen verhogen.
Helemaal gelijk. Daar wil ik vanuit de geschiedenis alleen nog aan toevoegen dat ook de wintel wereld een geschiedenis heeft met verandering van chip architectuur:

Ooit draaide de hele wintel wereldo op 32 bits intel xxxx86 cpu's. En intel heeft toen een nieuw chip ontwerp gemaakt om over te kunnen gaan naar 64 bits maar dat is het toen helemaal niet geworden. Tot windows 2003 heeft microsoft dat platform ondersteund. Ondertussen had amd in die tijd een 64 bits uitbreiding gemaakt boven op het x86 platfrom. Dat was 'upwards compatible': Wintel kon gewoon 32 bits blijven draaien en langzaam migreren naar 64 bits.

Met die gedachte zal het met deze nieuwe architectuur en het wintel platform ook niet zo snel gaan.
Dat ligt aan twee zaken:
- Er is naast de Apple M1 nog geen goed ARM alternatief van Samsung of Qualcom, waardoor ARM server hardware zeldzaam is;
- Gebrek van een Windows server versie voor ARM. Daarnaast is het Microsoft nog niet gelukt een goede x86 naar ARM emulator te bouwen die goed werkt (lees niet de slechte 32 bits x86 emulatie van Windows 10 ARM), dus toepassing blijft beperkt.
Uhm..

NVIDIA komt met snelle en energiezuinige datacentercomputers.
Samsung had twee jaar geleden al een laptop gebaseerd op een Qualcomm 8-core ARM processor.
NVIDIA is in partnerschap met MediaTek ook aan de weg aan het timmeren om een ARM SoC op de markt te brengen.
Windows for ARM is eind 2020 met een x64 emulatie gekomen, loopt nu in preview-builds.

Als je een overview wil zien, kijk dan maar eens naar deze video :Y) : https://www.youtube.com/watch?v=WKE3rQK7dik

Ben wel een beetje bevooroordeeld maar ja, ik heb inmiddels 2 computers met M1 processor er in en ik vind ze echt heel fijn. Mijn Macbook Pro M1 gebruik ik de hele dag door op en af en tegelijk hoef ik me nooit zorgen te maken dat de accu leeg is: dat lijkt vrijwel onmogelijk. Een uur lang Zoom videoconferencing kost maar 5 tot 7% accu. Ik leg hem af en toe maar aan de lader maar ik heb nog niet meegemaakt dat de accu leeg was.

Leg dat dan maar eens naast mijn Dell XPS 9500 i7 die klinkt als een startende 747 als ik Blender opstart, zo warm wordt dat ik hem nauwelijks op mijn schoot kan houden en er snel mee stopt als hij niet vrijwel continue aan het infuus hangt. Die ligt dus te verstoffen op de plank (zonde, maar ja..)

[Reactie gewijzigd door HDoc op 22 juli 2024 23:00]

Ik vind het heel interessant waar Nvidia mee komt, maar het advies is toch om door de marketing heen te kijken: Nvidia belooft 300 SPECint_rate in 2023. Dat is aanzienlijk minder dan een Epyc Milan vandaag scoort. In 2023 heeft AMD minimaal Zen4 als het geen Zen5 is met veel meer kernen... Wellicht als Intel nog een paar tegenvallers heeft dat het daar nog tegenaan gezet kan worden, maar verder hoeft X86 zich geen zorgen te maken om de prestatiekroon. Tel daarbij op dat X86 niet alleen op de prestatiekroon drijft, maar ook het eeuwige verhaal van compatibiliteit.

Wat mij betreft mag ARM overigens gisteren nog in de servermarkt doorbreken.
X86 drijft de prestatie kroon voor nu ja, omdat de huidige Zen3 cores met 15x de wattage een zelfde single core score halen als M1. Ik denk niet dat dit gevecht zo simpel is, beide AMD en Intel zitten nu al jaren vast op 4 instructie decoders waar de m1 er rustig 8 heeft. Hyperthreading is een plakbandje op een ongebruikte core.
Hmm, voor single core gebruikt de Zen3 (Ryzen 5000 Mobile) natuurlijk niet de volledige TDP van de gehele chip ('15x de wattage'). Volgens mij ca. 15W, terwijl dat de M1 dan in totaal zo'n 6W verbruikt als je voornamelijk 1 core belast.
Je denkt niet dat het zo simpel, maar je versimpelt het wel door het te reduceren tot het aantal decoders. Er zijn heel veel aspecten die de prestaties van een processor bepalen en Intel en AMD hebben jarenlang ervaring in het maken van processoren die niet op punten, maar over de gehele linie goed presteren. Een zwak punt van de M1 is de FPU, die gebruikt de 128-bit ARM Neon-instructies. Daarmee is de M1 in het nadeel t.o.v. x86. ARM heeft al de Scalable Vector Instructions, die er zeer goed uitzien en ARM een voordeel geven op dit punt t.o.v. X86. Nvidia gaat die wel gebruiken, ik vermoed Apple op termijn ook, maar nu nog niet. Daarom zou in een FPU-intensieve benchmark de M1 onderuit gaan t.o.v. X86.

Je opmerking over hyperthreading raakt ook kant nog wal. Ook aan hyperthreading zitten veel kanten: Hardwaremultithreading is namelijk veel efficiënter dan softwaremultithreading, dus als je een drukke webserver hebt met 500 threads die tegelijk draaien, wil je beslist hyperthreading in je processor hebben.
jou ervaring met de XPS kan ik beamen. Regelmatig loeiende fans terwijl er niets gebeurt. Als je hem open klapt is het gedrag iedere keer verschillend. De ene keer kun je na ruim 10 sec het inlogscherm zien, de andere keer komt dan pas het uefi bios logo op het scherm en zit je maar te wachten.

Ik had tot vorig jaar een Macbook Pro 13" late 2010 en als je die open deed was binnen een seconde je inlogscherm te zien, leek net of hij niet in slaap was gegaan. Ik werk nu dagelijks ook op een late 2012 iMac 2012 met een 2e scherm eraan en als ik hem in slaap zet aan het eind vd dag en de volgende ochtend een tik op de spatiebalk geef ik in 2 sec in kan loggen en verder gaan.
De meeste systemen in datacenters draaien op Linux, waar al een brede ARM 64 ondersteuning voor is bij veel distro's.
Ik denk dat je, naast alles wat hierop al gezegd is, ook vergeet dat bvb AMD al vrij lang ARM server chips aanbiedt, zoals bvb https://www.amd.com/en/amd-opteron-a1100.

Dat er geen Windows Server ARM versie is, wel... dat lijkt me eerder een gebrek van Windows.
Een groot deel servers draait ook helemaal geen Windows, dus dat is een beetje een vreemd argument. Een groot deel smartphones draait ook geen Windows, en toch zijn die allemaal op ARM...
Je ziet over het hoofd dat de M1 ontworpen is voor de constraints van de kleine MacBook Pro. Dat ie dan een Intel chip ruimschoots verslaat die in diezelfde constraints moet werken zegt heel wat. Een Intel chip plus een losse gpu nota bene. Dit zegt dus nog niets over evt server chips.
Natuurlijk kan je dat niet 1:1 schalen. Energieconsumptie is voor een server geen issue, warmteproductie over het algemeen evenmin. De M1 is gebouwd speciifek met die twee dingen in het achterhoofd.

Een M1 zonder die beperkingen zou mogelijks maar net zo goed presteren als de Intel/AMD tegenhangers, dat een architectuur of chip goed werkt in een bepaalde omstandigheid wil niet gelijk zeggen dat dat goed meeschaalt naar een andere omgeving.

Dat is momenteel koffiedik kijken, omdat Apple zowat de enige is die echt vanaf "0" een laptop / desktop CPU heeft gebouwd op ARM (en geen slap aftreksel van een mobiele chip). Maar de toekomst voor ARM zie ik wel sowieso rooskleurig voor de consumentenmarkt.
Energieconsumptie is voor een server geen issue, warmteproductie over het algemeen evenmin.
Vroeger was dat misschien zo, maar energie wordt duurder, en we worden milieubewuster. Afhankelijk van de werklast van een server kan meerdere zuinige cores zomaar goedkoper uitpakken dan een paar supersnelle onzuinige cores.
Zowat, in 90er jaren was er de ARM1 de Acorn Risk Machine. De eerste desktop was de Acorn Archimedes 1987 :-) Acroniem van Archimedes = He Made Risc.
Zowat, in 90er jaren was er de ARM1 de Acorn Risk Machine. De eerste desktop was de Acorn Archimedes 1987 :-) Acroniem van Archimedes = He Made Risc.
Ja, die Archimedes was een prachtige machine, zijn tijd ver vooruit. Helaas had ik toen nog niet het budget om hem te kopen, want student :-(
Ik ben ermee begonnen, m’n vader had die. Wat een ding toen. Zelfs gamen erop.
Sterk mee oneens. Juist de twee dingen die je noemt zijn in grote datacenters nummer 1 probleem. Zie alleen al het politieke debat rondom hoeveel stroom datacenters verbruiken want klimaat.

Bovendien is de warmteafvoer in datacenters waar heel veel cpus draaien een groot probleem, en kan sterk limiterend werken voor de workload die een rack aankan. Zeker met de sterke opkomst van containers wordt dit een reëel probleem - het is door deze software ontwikkelingen steeds meer mogelijk om CPUs heel weinig idle te laten draaien doordat containers veel efficiënter gebruik kunnen maken van hardware. Het is dan heel vervelend om aan je CTO te vertellen dat je niet hoger dan zeg 15 a 20% cpu utilization (fictief) kunt gaan omdat de warmteafvoer dan een probleem wordt. Als je de limiterende factor van warmteproductie (door lagere energieconsumptie) opheft, kan het zomaar zijn dat je in een datacenter met per cpu iets minder rekenkracht toch in totaal meer rekenkracht per m2 en watt kunt leveren.

Daarnaast bestaat nog de kwestie van de kosten - de vervangingskosten van een cpu zijn vaak significant lager dan de kosten van energieverbruik over de levensduur van de cpu. Daarmee wordt het alleen al economisch gezien belangrijk om te letten op rekenkracht per wattage energieverbruik dan naar puur rekenkracht
Grootste probleem van x86 dat schalen steeds moeilijker wordt.
Terwijl ARM + neural engine een perfecte combinatie is voor de volgende ontwikkeling in tech: https://ark-invest.com/ar...yst-research/ai-training/
Dit is precies het probleem alsmede het productieproces.

[Reactie gewijzigd door InsanelyHack op 22 juli 2024 23:00]

Omdat we daar met tientallen jaren aan legacy nog niet echt zijn. Overigens AWS, de grootste hostingboer op de planeet zet al in op ARM processoren:
https://aws.amazon.com/ec2/graviton/
@Blokker_1999 :
https://www.theverge.com/...-top500-riken-fujitsu-arm

TL:DR: snelste supercomputer draait op ARM chips

edit: kleine toevoeging nog. NVIDIA nieuwe supercomputer GRACE = ARM-based
https://www.digitaltrends...m-cpu-for-supercomputers/

[Reactie gewijzigd door doc_olivier op 22 juli 2024 23:00]

Dat is niet het punt dat ik maak. Je kan zelfs met een 40 jaar oud CPU ontwerp de snelste supercomputer maken, zolang je er maar voldoende van kunt inzetten.

Mijn punt is dat het verschil tussen x86 en op dit moment commercieel verkrijgbare ARM systemen niet in die orde is dat ARM er ver bovenuit steekt als het op toepassingen in bijvoorbeeld datacentra aankomt. Dat er bepaalde toepassingen zijn waarvoor de ene of de andere veel beter geschikt is ontken ik niet. Maar voor algemeen gebruik gaan ze elkaar echt niet te veel ontlopen op dit moment.
De reden dat arm in cloud nog niet de defacto standaard is dat je lokaal dus nooit een production like systeem kunt hebben.

Als ik docker ga draaien en ik heb voor productie een arm container nodig en lokaal X86 kan ik nooit met 100% zekerheid zeggen of beide applicaties hetzelfde gaan reageren. Dat kan zijn door verschillen in onderliggende API’s bijvoorbeeld. Het ontbreken van ARM werkmachines is juist waarom het in cloud omgevingen nu alleen wordt ingezet voor specifieke functionaliteit.

Op het moment dat mijn werkgever zegt jo we gaan allemaal over op arm Macs, ga ik in AWS alleen nog maar ARM systemen afnemen. Puur omdat het dan allebei gelijk is.

Zowat iedere cloudprovider heeft tegenwoordig deftige ARM machines.
Een M1 is een goede CPU, maar als je eenmaal naar de high-end CPUs gaat kijken zien we een ander verhaal op dit moment.
De M1 chip staat wel op de 3rde plaats waar zelfs desktop CPUs mee zijn genomen in berekening. Die gebruiken een fractie van de stroom and slagen er in om amd en intel op hun knieen te krijgen. Op vlak van singlecore performance. Dit lijkt mij niet enkel "een goede CPU" maar echt insane.

Het gaat zelfs zo ver dat de M1 chip sneller windows 10 x86 kan emuleren / vertalen door rosetta dan dat microsoft deze native kan draaien op hun eigen ARM laptops ... Te gek voor woorden infeite.

https://www.cpubenchmark.net/singleThread.html
https://youtu.be/OuF9weSkS68 ... let op dit statement: "if Apple's performance trajectory continues at this pace the x86 performance crown might never be regained"... en dit is tov AMD niet eens intel.
Zijn de op Intel ‘gebaseerde’ CPU’s van origine niet juist op AMD gebaseerd? AMD64 doel ik dan op.
Ik denk dat je bedoel dat Intel een nieuwe architectuur IA-64 (gebruikt in de Itanium processor) ontwikkeld voor 64bit gebruikt welke niet succesvol werd en AMD een 64bit extentie voor x86 ontwikkeld had welke wel goed door de industrie werdt ontvangen. In een periode waar Intel jan en alleman aan het aanklagen was m.b.t. x86 licenties, werdt er door Intel en AMD een cross licence deal gesloten. Hierdoor kon AMD de x86 architectuur blijven gebruiken en intel de x64 extentie daar op. Dit was gunstig voor beide partijen aangezien ze hiermee de opkomst van RISC 64 bit hierdoor lang tegen gehouden werdt. Maar we zien nu dan toch als consument RISC 64 via op ARM gebaseerde CPU's meer en meer opkomen in diverse compute omgevingen.
Technisch gezien heb je helemaal gelijk. Maar qua servers die in de voorgaande jaren uit kwamen, voordat AMD met Ryzen op de markt kwam, presteerden de Intel varianten uiteraard beter dan hun AMD tegenhangers. En er was naar ik meen ook veel meer ondersteuning voor de genoemde Intel CPU's in producten zoals VMware vSphere/ESXi. Ikzelf ben alleen meer benieuwd of met de komst van de Apple M1 SoC dit een significante verschuiving teweeg gaat brengen naar ARM en daarmee Apple in het hypervisor wereldje.

[Reactie gewijzigd door Indir op 22 juli 2024 23:00]

Verschuiving naar Apple betwijfel ik, want enkel Apple gebruikt hun CPU's.
Waarschijnlijk voor pc virtualisatie, maar niet op server denk ik.
Ik denk dat ARM op den duur x86 helemaal gaat vervangen. Vooral omdat het ervoor zorgt dat veel meer bedrijven hun eigen CPU's kunnen gaan maken. Bijvoorbeeld Nvidia.
Maar eerst moet Windows hun x86 emulatie goed op orde krjigen, en dat vereist wat samenwerking tussen Microsoft en ARM.
Maar is de arm versie van Windows dan ook sneller dan de geëmuleerde x86? Begreep dat arm Windows laptops nog niet geweldig waren.
Op een Raspberry pi 4 draait Windows 10 ARM64 anders best redelijk met een USB SSD. Het is geen Intel i3 maar voor web en simpele office (OpenOffice of Abiword) vind ik het prima te doen.
de pi met de mac m1 vergelijken is als een prius vergelijken met een Tesla. en zelfs dán is de vergelijking nog niet correct.

Maar op toch even on-topic te blijven, ik dacht dat de Windows versie voor de pi alleen windows Core was en dus niet een desktop?
Officieel beschikbaar, ja. Maar er zijn een stel nerds die de ARM64 versie ook werkend hebben gekregen op de Pi. Heeft wel wat bugs maar het werkt best prima.

Kijk maar eens op WOR project.
Je hebt nu ook de desktop versie, alleen is (of was, het is bij mij al weer 2 maanden geleden) het installeren nog behoorlijk omslachtig. je moet eerst via een .cmd bestand een bepaalde dump downloaden, waar je volgens een .wim uit krijgt. maar dan moet je die .wim nog met een programma veranderen (oa .reg's toevoegen enz), en dan via weer een ander programma de aangepaste .wim naar de microsd (of usb stick of ssd) schrijven.

En als je het dan werkend hebt gekregen werkt de 3,5mm audio jack en wifi nog niet, dus je moet een ethernet kabel aansluiten. Geluid is alleen mogelijk als je een andere bluetooth driver installeert en een bluetooth speaker/headset hebt.

update: heb de instructies nog eens doorgelezen, blijkbaar hoef je nu niet meer de .wim aan te passen en kan je hem ook als .iso downloaden.

[Reactie gewijzigd door Hoiboy19 op 22 juli 2024 23:00]

Dat kan ook aan de chips liggen hoor, niet Windows zelf. De M1 is echt vele malen beter dan de Qualcomm alternatieven tot nu toe.
De M1 chip draait ironisch gezien rondjes om de SQ2 (surface pro x) en heeft een betere hardwarematige x86 emulator. :P
Het is wel dat je een insider versie draait, maar nu Microsoft ook Chromium ARM gebruikt voor Edge is het snel genoeg voor de meeste taken.
Wel jammer eigenlijk dat Microsoft ondanks dat C# en .Net eigenlijk alle portabiliteitseigenschappen hebben van Java en de JVM er toch niet in geslaagd is om universal binaries tot de standaard te verheffen, waarmee mits de juiste libraries aanwezig zijn de bytecode op ieder doel gedraaid kan worden. Stel dat een killer 3rd party app zoals Photoshop geheel in Java gebouwd zou zijn, zou het op iedere computer werken die een JVM heeft.

C# dat naar bytecode gecompileerd is en op .net gebaseerde libraries aanspreekt zou op iedere computer die Windows draait een native UI moeten bieden met bijna native snelheid. Nu werkt er bijna niks native op ARM Windows.
Er is een reden dat c, c++ en andere native compilers bestaan...
Had het al een tijdje in de beta draaien. Werkt prima. Jammer dat Microsoft nog geen losse ARM licenties verkoopt maar je moet teruggrijpen naar de Insider versie.
Draai al maanden de Beta, miss helaas nog wel SQL server support 2012 ... Win10Pcap ..

Heeft niks met parallels te maken , werkt opzich prima maar soms wel wat buggs
Kan je nu ook via emulatie oid windows normaal draaien? Bootcamp zal wel niet maar wellicht in een vm?
Het stroomverbruik van virtuele machines op een Apple M1-computer ligt volgens Parallels tot 250 procent lager dan dat van een Macbook Air 2020.
Mooi, dan kan ie dus stroom terugleveren aan het net!
Ha, je was voor :-)
@Redactie :
De originele tekst was wellicht dat het stroomverbruik van de Air 2.5 keer zo hoog is als dat van de M1.
Het stroomverbruik van de M1 is dan: ( 1 - ( 1 / 2.5 ) ) * 100 = 60% lager dan de Air.
Willen ze concureren kwa prestatie/accu-vermogen op een chip zal Microsoft wel moeten uiteindelijk.
Maargoed , om parallels aan te schaffen voor windows ? ..meh een goede ARM linux ..zie ik wel zitten :Y)
Dan zou ik nog eerder gewoon Asahi Linux draaien op een machine en macOS op een andere. Natuurlijk werken Parallels en QEMU nu al, dus het biedt zeker uitkomst om die te gebruiken.
Ondersteunt Qemu. De Arm M1 van Apple eigenlijk?
Ja hoor check UTM maar, die heeft al wat standaard images om mee te beginnen. Voor een linux install werkt het wel ok, windows wat minder.. maar om er mee te klooien is het wel leuk.
Uhm ik bedoel de andere kant op eigenlijk :X
Oftewel een Linux distro met Qemu en daar Mac osx op. :D
Dit is zeer interessant. Mijn inmiddels 7 jaar oude mbp met core i7 en 16 GB ( net nieuwe accu voor 4 tientjes) voelt veel vlotter aan met ubuntu in een vm dan de 2020 dell met i7 en 16 GB(ondanks de 4 cores). M1 + efficienter MacOS en linux in VM kan wel eens een ontwikkel killer combi zijn

Op dit item kan niet meer gereageerd worden.