Door Willem de Moor

Redacteur

De processor van de toekomst

Hoe ziet onze cpu van volgend jaar eruit?

27-12-2018 • 06:00

134

Multipage-opmaak

Inleiding: op naar 7nm

Het lijkt erop dat 2018 definitief het jaar is waarin de beroemde Wet van Moore ter ziele is gegaan. Zo heeft Intel, gezien zijn relatie met Moore, lang aan de wet vastgehouden, maar eindelijk toegegeven dat het grote moeite heeft om de stap naar 10nm te maken. Hoe moeilijk die stap is, bleek uit het uitbrengen van de i3-8121u-processor. Dat is tot dusver de enige 10nm-processor die Intel produceerde. Hij is slechts in een enkele Lenovo IdeaPad en Intels eigen NUC ingebouwd geweest, verder nergens. Die processor is vooralsnog het enige model in de Cannon Lake-serie geweest en zal vermoedelijk het enige blijven.

Ook ARM, toch geen onbekende op het gebied van processorontwerp, heeft aangegeven dat de vijftig jaar oude wet inmiddels zijn beste tijd heeft gehad. Het bedrijf zegt daar overigens niet rouwig om te zijn, want er zijn nog andere manieren om krachtigere chips te maken volgens de ARM-cto. Hoewel het bedrijf zelf geen chips produceert, ontwerpt ARM ze wel en daarbij speelt de technologienode uiteraard een voorname rol.

Toch zijn er ook bedrijven die nog wel vrolijk doorgaan met scaling, of het kleiner maken van transistors. Zo is TSMC, leverancier van onder meer AMD, Nvidia en Apple, klaar voor de productie van 7nm-chips en staan 5nm en zelfs 3nm op de rol. Nu is de 7nm-node van TSMC niet vergelijkbaar met de nodes van andere fabrikanten. Zo is bijvoorbeeld Intels 10nm-node vergelijkbaar met TSMC's 7nm-node.

In dit achtergrondverhaal kijken we kort terug op de ontwikkelingen van de processormarkt van het afgelopen jaar en kijken we vooral vooruit naar 2019. Wat kunnen we verwachten op processorgebied, hoe gaan fabrikanten om met de uitdagingen die steeds geavanceerdere ontwerpen met zich meebrengen, en wat zit er straks in jouw computer?

TSMC 300mm-wafer

AMD in 2018

Als we alfabetisch het rijtje processorfabrikanten langsgaan, moeten we bij AMD beginnen. Na de introductie van de Zen-core in 2017 timmerde AMD vrolijk verder aan zijn modulaire ontwerp, waarmee het modules aan elkaar kan knopen. Zoals bekend worden Ryzen-processors opgebouwd uit één Zeppelin-module, die maximaal acht Zen-cores bevat. Die Zen-cores zijn in twee core-complexes ondergebracht, die via AMD's nieuw ontwikkelde interconnect, Infinity Fabric, met elkaar communiceren. Voor de Threadripper-processors uit de X-serie worden twee van die Zeppelin-modules aan elkaar geknoopt en communiceren ze nog steeds via Infinity Fabric. In de Epyc-serverprocessors en de WX-serie Threadrippers zijn vier Zeppelin-modules actief. Bij de apu's, zoals de 2200G en 2400G, is een core-complex vervangen door een Vega-gpu, maar de communicatie verloopt ook dan via Infinity Fabric.

Zeppelin-die met acht cores

De Zen-cores werden op 14nm geïntroduceerd in 2017, maar de 2018-generatie, die zich onderscheidt met aanduiding 2xxx in plaats van 1xxx voor de processors, werd op 12nm geproduceerd. Dat is vooral een marketingnaam, want feitelijk is er geen scalingverschil tussen de 14nm-transistors en de 12nm-variant. Wel heeft GlobalFoundries, die beide varianten maakt, het 14nm-procedé verbeterd met zijn 12LP-procedé. Zo kreeg de tweede generatie Zen-cores hogere kloksnelheden en een lagere werkspanning, en noemt AMD de cores Zen+.

Ryzen 2 Pinnacle Ridge - 12nm

Begin dit jaar begon AMD zijn offensief met de in februari geïntroduceerde Raven Ridge-apu's. Daarin combineerde het niet twee Zeppelin-modules, maar een Zeppelin-module en een Vega-gpu. Daarmee had AMD de krachtigste apu's in handen waarmee je casual games zonder aparte videokaart kunt spelen. Gecombineerd met een vrij goedkoop A4-moederbord kun je daarmee op een klein budget een eenvoudig gamesysteem bouwen.

In april volgde het grote geschut, met de tweede generatie Ryzen 3-, 5- en 7-processors, die op het eerder genoemde 12LP-procedé worden gemaakt. Van de Ryzen 2-processors werden ook weer Pro-varianten gemaakt voor de zakelijke markt. Bovendien levert AMD zijn processors compleet met capabele koeler en is het platform nog altijd gebaseerd op de AM4-socket, zodat ook oudere moederborden van de eerste Ryzen-generatie voor de nieuwe processors kunnen worden gebruikt.

Threadripper 2

Het grove geschut volgde in de nazomer en herfst met de tweede generatie Threadripper-processors. Daarmee heeft AMD het maximale aantal cores uitgebreid van 16 naar 32. Waar bij de eerste generatie Threadrippers twee van de vier stukjes silicium, de dies, geactiveerd waren, zijn bij de WX-serie Threadrippers, met maximaal 32 cores dus, alle vier de dies actief. Daarmee voorkomt AMD de productieproblemen van grote chips en kan het relatief compacte dies met hoge yields maken.

Intels 2018

In het blauwe kamp, bij Intel, hebben we in 2018 eveneens een flink aantal productintroducties gezien. Daar zaten ten minste twee buitenbeentjes tussen, die niet in het standaardrijtje van Coffee Lake Refresh-processors horen.

Een van de opvallendste introducties was namelijk die van de Kaby Lake G-processors. Dat is een serie laptopprocessors die een Intel-quadcore uit, zoals de naam aangeeft, de Kaby Lake-generatie combineert met een Vega-gpu van AMD. Intel heeft voor de communicatie tussen gpu en hmb2-geheugen zijn emib-technologie ingezet, die in 2017 door het bedrijf werd geïntroduceerd. Met die silicon interposer-techniek kunnen verschillende kleine chiponderdelen met elkaar worden verbonden. De combinatie Kaby Lake-cpu en Vega-gpu heeft tot dusver geen navolging gekregen en de vijf aangekondigde modellen zijn nauwelijks in producten terug te vinden. Jammer, want de prestaties, zeker die van de Vega-gpu, waren stukken beter dan wat Intels eigen igpu presteerde en vergelijkbaar met de prestaties van een losse GTX 1050 van Nvidia.

Kaby Lake G

Ook een 'one off' is Intels Core i7-8086K. Dat is een processor die in beperkte oplage werd geproduceerd en die, zoals de naam aanduidt, de veertigste verjaardag van de 8086-processor herdenkt. Stiekem is de i7-8086K een extreem goede i7-8700K, die fabriekshalve door Intel wordt overgeklokt tot een turbofrequentie van 5GHz.

Een andere vreemde eend in de bijt is de i3-8121U, die in mei werd geïntroduceerd. Dat lijkt een simpele dualcore, maar het is stiekem Intels enige 10nm-chip met codenaam Cannon Lake. Inmiddels lijkt het erop dat het ook de enige Cannon Lake-chip zal blijven, want hoewel Intel uiteraard nog steeds de overstap naar 10nm wil maken, lijkt dat met een nieuwe architectuur te gaan gebeuren. Ter illustratie van de problemen met de huidige architectuur heeft Intel de igpu van de Cannon Lake-processor uitgeschakeld, terwijl het Kaby Lake-equivalent, de i3-8130U, dezelfde baseclock heeft, maar een hogere turbo én een werkende igp, en dat allemaal binnen hetzelfde 15W-tdp-budget.

9900K in bord

Gelukkig zijn er ook succesvollere productintroducties van Intel geweest in 2018, waarbij de Coffee Lake en -Refresh-serie van respectievelijk april en oktober het relevantst zijn. In april werd de eerste batch Coffee Lake-processors uitgebreid met een breder aanbod en in oktober volgde de zogeheten negende generatie Coffee Lake-processors. Dit zijn eigenlijk precies dezelfde processors, maar Intel gaf ze een nieuwe generatieaanduiding, met 9xxx als modelnummer. Een van de weinige significante veranderingen is de hardwarematige aanpassing tegen Spectre- en Meltdown-bugs. Bovendien heeft het topmodel acht in plaats van zes cores en wordt maximaal 128GB geheugen ondersteund, tegenover 64GB voor de vorige modellen.

Intel Xeon 28 cores

Ook op het hedt-vlak gaf Intel tegengas aan het core-geweld van AMD, met de introductie van nieuwe Skylake-X-processors. Het topmodel daarvan heeft net als het topmodel van vorig jaar 18 cores, maar Intel kondigde tijdens de Computex ook een Xeon met 28 cores aan. Op zich had Intel al Xeons met zoveel cores, maar de Xeon W-3175X is bijzonder omdat deze een 'enthousiast'-processor is voor high-end workstations. Bovendien is de processor overklokbaar, iets wat Intel tijdens de Computex demonstreerde met een chiller, waarbij de cpu tot 5GHz werd overgeklokt. Intel vergat echter te melden dat de Xeon extreem werd gekoeld en deed het voorkomen dat de getoonde 5GHz-kloksnelheid stock was.

New Horizon en chiplets

Met 2018 achter de rug wordt het tijd om vooruit te kijken naar wat we in 2019 mogen verwachten. We beginnen weer met AMD, dat in november tijdens zijn New Horizon-evenement een vooruitblik op de techniek van 2019 gaf.

De ster van de show was uiteraard de nieuwe Zen 2-architectuur, die net als de eerste generatie Zen-cores de basis zal vormen van alle komende processors. Tijdens het evenement noemde AMD enkel zijn Epyc 2-serverprocessors, aangezien het bedrijf die chips al aan klanten samplet. Dezelfde cores moeten echter ook hun weg gaan vinden naar de diverse Ryzen-processors, inclusief de Threadrippers.

AMD scaling met TSMC

Met Zen 2 gaat AMD de overstap maken naar 7nm-chips, die echter niet meer worden geproduceerd door GlobalFoundries, zoals de huidige chips, maar bij TSMC zullen worden gemaakt. GloFo heeft aangegeven niet te willen concurreren met de fabs die agressief blijven scalen, omdat de investeringen te hoog zijn. De 7nm-Zen 2-cores van TSMC krijgen dankzij het kleinere procedé een dubbel zo hoge transistordichtheid en zijn vijftig procent zuiniger bij gelijke prestaties.

Zen 2 frontend

Bovendien heeft AMD aangekondigd dat de Zen 2-cores een stuk krachtiger zijn, vooral dankzij een verbetering in de floating point-units. Die hebben twee keer zoveel bandbreedte gekregen, zowel in load/store-units als in de fpu's zelf, en de avx2-ondersteuning is verbeterd. De execution units van de fpu's zijn in Zen 2 256bit geworden, in plaats van 128bit bij Zen 1. Mede daardoor kan een Zen 2-core 16 flops/kloktikken in de floating point-unit halen, waarmee hij Sky Lake-cores evenaart. Daarnaast heeft AMD de branch prediction verbeterd, en de instructiecache en µop-cache geoptimaliseerd. Al die factoren dragen bij aan een ipc-verbetering, maar het is nog onbekend hoeveel sneller de Zen 2-cores exact worden. De Zen 2-cores hebben ook hardwarematige beveiliging tegen kwetsbaarheden als Spectre.

AMD wint het meestal op prijs en aantal cores, maar Intel heeft altijd hoger geklokte processors gehadVolgens sommige voorspellingen, of wensenlijstjes zo je wilt, zouden de nieuwe Ryzen 3000-processors 6 tot 16 cores krijgen en flink hoger geklokt gaan worden dan de 2000-serie. Bovendien zou Zen 2 een ipc-verbetering krijgen, die gecombineerd met hogere kloksnelheden AMD-processors voorbij die van Intel zouden brengen. AMD wint het meestal op prijs en aantal cores van Intel, maar laatstgenoemde heeft tot dusver altijd hoger geklokte processors in zijn assortiment gehad en Intels processors hebben een kleine ipc-voorsprong. Volgens de voorspelling van met name AdoredTV zou de nieuwe generatie Ryzen-processors niet alleen sneller dan Coffee Lake-processors worden, maar ook een stuk goedkoper en voorzien van lage tdp's. De tijd zal het leren.

Chiplets

Een van de features van AMD's 2019-line-up die wel door AMD zelf is aangekondigd, is de manier waarop de chips worden samengesteld. Vooralsnog heeft AMD enkel zijn Epyc 2-serverprocessors getoond, maar die hebben een interessant ontwerp met zogeheten chiplets. Waar de eerste generatie Epyc, en daarmee de Threadrippers die tot dusver zijn uitgekomen, nog waren opgebouwd uit vier Zeppelin-dies, ieder met twee core-complexes met in totaal acht cores, krijgt de tweede Epyc-generatie een extra die aan boord. De dies met de cores worden namelijk uitgekleed. Die krijgen niet langer naast de Zen (2)-cores ook geheugen- en pci express-controllers en andere i/o-hardware aan boord, maar worden gereduceerd tot zogeheten chiplets met enkel de cpu-cores.

AMD chiplets

In Epyc 2 worden tot 8 van die chiplets, met elk maximaal 8 Zen 2-cores, gecombineerd met een extra 'chip' die voor alle i/o als geheugencontrollers en pci express-controllers zorgt. De chiplets met de cores worden op het meest geavanceerde 7nm-procedé gemaakt, maar de i/o-controller wordt op 14nm gemaakt. Daarmee maakt AMD zijn chips nog meer modulair, en kan het kosten besparen door het prijzige 7nm-procedé alleen in te zetten bij de cores en voor de minder kritische i/o-onderdelen goedkopere 14nm-techniek in te zetten. Uiteraard communiceren de diverse onderdelen nog steeds met elkaar via Infinity Fabric, net als in de huidige Zen-producten.

De stilte doorbroken: Intel

Na een lange periode van relatief weinig openheid van Intel naar de buitenwereld in het algemeen en naar de pers in het bijzonder heeft het bedrijf in december weer een kijkje in zijn keuken gegeven in de vorm van een Architecture Day. Daarin deed het uitgebreid uit de doeken tegen welke problemen het opliep met de overstap van 14 naar 10nm en, belangrijker, heeft Intel verteld wat het in petto heeft voor de komende periode.

Om met de 10nm-productie te beginnen: die gaat er, naast het enkele model uit de Cannon Lake-serie dat we eerder noemden, nog wel komen, maar dan niet meer met de Skylake-architectuur. 10nm staat nog steeds op de planning, maar dan in de vorm van Ice Lake-processors. Die moeten met een geoptimaliseerd 10nm-procedé gemaakt gaan worden, met aan boord een nieuwe cpu-core, namelijk Sunny Cove, waarover zodirect meer.

Intels Core- en Atom-roadmap

Een van de belangrijkste conclusies die Intel zegt te hebben getrokken, is dat we in een nieuw tijdperk van architecturen zijn beland, na het tijdperk van de megahertzen en het tijdperk van meer cores. Simpel gezegd ziet het bedrijf niet zoveel heil meer in het verhogen van kloksnelheden of het toevoegen van meer cores om de prestaties van zijn processors te verbeteren, maar moet de winst worden gezocht in slimmere architecturen.Het bedrijf ziet niet zoveel heil meer in het verhogen van kloksnelheden of het toevoegen van meer cores

De eerste van die nieuwe architecturen wordt Sunny Cove, de core die we vermoedelijk volgend jaar in Ice Lake-processors gaan vinden. De Sunny Cove-core heeft meer rekenkracht dan de huidige architecturen, onder meer dankzij uitbreidingen van diverse buffers en caches in de frontend van de processor. Dat is nodig, omdat de execution units, de eenheden die daadwerkelijke berekeningen verrichten, zijn uitgebreid van 8 in Skylake naar 10 stuks in Sunny Cove. Samen daarmee zijn ook de caches als L1-, L2-caches en de TLB groter gemaakt en is de branch prediction verbeterd, om al die out-of-order rekenkracht optimaal te vullen.

Op het gebied van de instructies zijn verder diverse nieuwe toegevoegd, vooral bedoeld voor encryptie en decryptie van data, zoals met aes-algoritme en hashing met sha. Ook is het comprimeren van data verbeterd en zou Intel nog tal van instructies voor onder meer big data, machinelearning en vectorberekeningen toevoegen. Daarmee moeten Sunny Cove-cores een stuk sneller worden dan de huidige Skylake-cores die in alle 14nm-producten zitten. Hoeveel sneller ze zouden worden, is nog afwachten; daarover deed Intel op de Architecture Day geen uitspraken. Overigens zou na Sunny Cove een nieuwe core volgen met codenaam Willow Cove, die nog meer cacheoptimalisaties en verbeteringen aan het procedé krijgt, gevolgd door Golden Cove-cores, die onder meer snellere singlethreaded prestaties en verbeterde ai-prestaties krijgt.

11e generatie Intel-graphics

Intels processors hebben al jaren gpu's aan boord en ook die belooft Intel flink sneller te maken dan de huidige. Daarbij lijkt generatie 10 te worden overgeslagen en gaan we van de huidige 9,5e generatie direct door naar de 11e. Die gaat een rekenkracht van ruim een teraflops krijgen, vergelijkbaar met AMD's geïntegreerde gpu's in Raven Ridge en Nvidia's 1030-kaarten. Om optimaal van de rekenkracht voor games gebruik te maken, krijgen de gpu's ondersteuning voor het selectief renderen van onderdelen in een frame, zodat snelle bewegingen meer rekencapaciteit toegewezen krijgen dan statische onderdelen. AMD en Nvidia gebruiken vergelijkbare technologie. Bovendien gaat Intel onder de naam Adaptive Sync monitors met Freesync ondersteunen. Ook de videodecoding is verbeterd met onder meer hdr-ondersteuning en verbeterde hevc-codecs.

Foveros en Intels chiplets

We hebben het al even over Intels overstap naar 10nm gehad, maar we gaan nog even iets verder in op de daadwerkelijke productie van Intels nieuwe generatie processors. De 10nm-node die voor Cannon Lake is ontwikkeld en niet verder ontwikkeld zal worden, heeft een onbekende codenaam gekregen. De Sunny Cove-core, die productiegereed is, heeft naar alle waarschijnlijkheid intern de codenaam 1274 gekregen. Inmiddels heeft Intel ook een optimalisatie voor de 10nm-node in ontwikkeling, die het 1274.7 noemt, en nog een tweede optimalisatie, die als 1274.12 door het leven gaat. Intels nodes voor core-logica hebben een opeenvolgend even nummer, met een 12 ervoor voor 12"-wafers, en de i/o-logica heeft oneven nummers.

Intel processnode-roadmapIntels development-roadmap

Dat is echter niet de enige node die Intel in zijn fabs produceert. Het bedrijf is namelijk van plan slechts een deel van zijn transistorlogica op 10nm te produceren, het deel dat daar het meest van profiteert. Dat zijn dus de daadwerkelijke rekencores, maar de perifere logica, zoals i/o, geheugencontrollers en pci express-controllers, hoeven niet zo nodig op het kleinst mogelijke procedé gemaakt te worden. Denk maar aan chipsets die vaak een of twee nodes achterlopen op processors. Wafers worden echter integraal geproduceerd. Je kunt dus niet een stukje van een wafer op 10nm maken en een stukje op 14nm. Daaruit volgt dat je een processor ook niet uit 10nm- en 14nm-onderdelen kunt laten bestaan, of toch?

Toch wel, want net als AMD wil Intel chiplets met snelle cores gaan maken en die combineren met andere stukken silicium, of dies, met daarop de controllers en andere i/o. Dat betekent dat Intel ook met silicium interposers moet gaan werken om die onderdelen met elkaar te laten communiceren, een techniek die Intel eerder al pionierde met emib-technologie, maar die nu in een verdere ontwikkeling als Foveros te boek staat. Dat Intel net als AMD chiplets gaat bouwen, is niet heel gek als je bedenkt dat Jim Keller, een bekende cpu-architect die eerder bij AMD werkte en de Zen-architectuur uitstippelde, inmiddels bij Intel werkzaam is.

Intels Foveros-concept

Die Foveros-technologie moet het mogelijk maken om 10nm-chiplets met de cores te combineren met 14nm-i/o-chips en zo een complete cpu-package te maken. De Foveros-techniek gaat echter verder, want ze integreert niet alleen dies in een 2- of 2,5-dimensionale configuratie, maar ook in 3d. Het is met Foveros namelijk mogelijk om ook dies op elkaar te stapelen en zo zeer compacte chips met heterogene onderdelen te ontwikkelen.

Eerste Foveros-product

Dat Foveros niet alleen een interessant concept is, maar daadwerkelijk in een vergevorderd stadium verkeert, blijkt uit een demochip die Intel liet zien. In die chip heeft Intel niet alleen met de Foveros-techniek een 10nm-die met compute-cores en een 14nm-i/o-die met elkaar gecombineerd. Er is ook een geheugenchip bovenop gestapeld en het geheel is slechts 12 bij 12mm groot en 1mm dik. Bovendien is het stand-byverbruik slechts 2mW en om nog zuiniger te werken, zijn niet alleen krachtige 10nm-Sunny Cove-cores gebruikt, maar in de 14nm-soc zitten bovendien Atom-achtige cores die lichte taken voor hun rekening moeten nemen. Zo combineert Intel dus krachtige Sunny Cove-cores met minder krachtige Atom-cores, voor het zware en lichte werk, vergelijkbaar met ARM's big.Little-concept dus. Uiteraard zijn bij Intel alle cores x86-cores, dus Windows moet in een ultradunne laptop of 2-in-1-apparaat zonder emulatie met de chip overweg kunnen. Producten met de chip moeten al volgend jaar verkrijgbaar zijn.

Tot slot: kapers op de kust?

Over ARM gesproken, we kunnen niet voorbij aan Qualcomm, bekend van zijn Snapdragon-chips. Diverse fabrikanten hebben jarenlang gepoogd om desktopsoftware op ARM-chips te laten draaien, met wisselend succes. Zo had ooit een desktop-Ubuntu op telefoons moeten draaien, zodat je met hetzelfde apparaat kon wisselen tussen telefoon en desktop, en we kennen allemaal nog de gefaalde Windows RT-pogingen.

Inmiddels draait Windows echter prima op ARM-hardware, reden voor Qualcomm om weer een poging te wagen om niet alleen een dominante speler op de telefoonmarkt, maar ook op de laptopmarkt te worden. Dit jaar doet het dat niet met een standaard Snapdragon-soc, maar met een speciaal daarvoor ontwikkelde chip. Qualcomm noemt die chip Snapdragon 8cx.

Qualcomm Snapdragon 8cx

De 8cx maakt gebruik van de Kryo 495, met aan boord de nieuwste A76-cores van ARM, die ook in de nieuwe Snapdragon 855-soc zitten en vergeleken met de A75-cores van onder meer de 845-soc tot 35 procent sneller zouden zijn. In de Kryo 495 zitten acht cores in een big.Little-configuratie. Vier van die cores zijn A76-cores met onbekende kloksnelheid en de andere vier zijn A55-cores. De Kryo 495 beschikt over in totaal 10MB cache, en kan overweg met 16GB geheugen en nvme- of ufs 3.0-opslag. Qualcomm is net als AMD klant bij TSMC en de 8cx wordt op diens 7nm-node geproduceerd.

Dat klinkt allemaal zeer positief en volgens Qualcomm kan de 8cx binnen een thermal envelope van 7W een prestatieniveau volhouden dat vergelijkbaar is met Intels mobiele Y-processors. Het enige nadeel is dat alleen Windows en een handjevol apps native met de ARM-architectuur overweg kunnen. Als je gewone software wil draaien, moet een emulator de vertaalslag van x86-code naar ARM's risc-architectuur maken. Aangezien emulatielagen nooit tot snelheidswinst, maar enkel tot vertraging leiden, is het afwachten hoe de 8cx zich in de praktijk staande zal houden.

Apple iPad Pro

Toch lijkt er steeds meer momentum te komen voor ARM als ultrazuinige laptopprocessor. Zo is volgens Apple ook diens A12X-processor snel genoeg om zich met x86-processors te meten en is het volgens sommigen een kwestie van tijd voordat Apple, voor ten minste een deel van zijn laptops, de overstap maakt naar zijn eigen processors, in plaats van die van Intel. Voor Apple is het daarentegen wellicht makkelijker om zijn developers te dwingen een dergelijke overstap te maken, eventueel met een tijdelijke emulatieperiode. Het zou immers niet voor het eerst zijn, gezien de overstap van de PowerPC-architectuur naar Intels x86-processors, met Rosetta als vertaallaag.

Of 2019 echter het jaar wordt waarin we Apple Macbooks met A12-soc zullen zien, moeten we afwachten, maar ook zonder A12 in laptops blijft er genoeg over met Zen 2, Sunny Cove, en Foveros en de 8cx. Hoe dan ook wordt 2019 het jaar van TSMC's 7nm-node en komt Intel met zijn 10nm-node.

Lees meer

Reacties (134)

134
132
48
4
0
68
Wijzig sortering
Het enige nadeel is dat alleen Windows en een handjevol apps native met de ARM-architectuur overweg kunnen
Uh, die uitspraak heeft wat uitleg nodig, want allerlei Linux distributies draaien al heel lang op ARM (en andere architecturen zoals MIPS en RISCV) en dat werkt prima.

Native support is een kwestie van de code nog een keer door de compiler halen, niet iets waar de fabrikant wat aan kan doen maar de leverancier van de software kan dat heel gemakkelijk. Vaak wordt erover gezeurd, maar in praktijk stelt een conversie van intel naar ARM weinig voor.
[...]
Native support is een kwestie van de code nog een keer door de compiler halen, niet iets waar de fabrikant wat aan kan doen maar de leverancier van de software kan dat heel gemakkelijk.
En zie hier de reden, waarom we ook in 2019 niet massaal over zullen stappen op een nieuwe architectuur voor desktop OS'en.

Windows is nog steeds het meestgebruikt en ik zie niet in waarom Microsoft hun comfortabele Microsoft-Intel x86 cartel vrijwillig zouden willen opgeven?

Verder mist voor zover ik weet (ik weet niet veel) de ARM concurrentie in het higher-end segment? Als ik het artikel zo lees kan Qualcomm in theorie leuke CPU's leveren voor piepkleine laptops, maar is er niets voor desktops en laptops waar je daadwerkelijk op kunt werken (lees: 15" en groter).
Zwaardere ARM processoren kom je best wel in serverparken tegen, omdat die doorgaans meer om I/O verlegen zitten dan om CPU "crunching" power. De ARMs gebruiken veel minder stroom (met name moederbord is veel zuiniger) en vaak zijn de stroomvoorziening en de airco beperkende factoren. Een stuk of vier ARMs verzetten dan meer werk tegen minder warmte afvoer dan een dikke intel.

Overigens is je cheapo mobieltje deze dagen al voorzien van een 64-bit quad-core op 2GHz of daaromtrent.

De overstap is wat mij betreft al geweest, steeds meer van mijn familie gaat over op Ubuntu omdat ze dan geen nieuwe Windows en/of hardware hoeven aan te schaffen. Een laptop met 0.5GB RAM is prima voor e-mail en internetbankieren enzo, maar daar draait dan nog XP op en dus wil je daar niet op bankieren. Upgraden naar W10 is een drama, kost meer dan de computer nog waard is, en resulteert in een onbruikbaar traag onding. Met lubuntu werkt 't binnen een half uurtje en als bonus hoef je ook geen urenlang op jacht naar drivers enzo... En je bent meteen een stuk veiliger.

[Reactie gewijzigd door cdwave op 23 juli 2024 13:27]

Zwaardere ARM processoren kom je best wel in serverparken tegen, omdat die doorgaans meer om I/O verlegen zitten dan om CPU "crunching" power. De ARMs gebruiken veel minder stroom (met name moederbord is veel zuiniger) en vaak zijn de stroomvoorziening en de airco beperkende factoren. Een stuk of vier ARMs verzetten dan meer werk tegen minder warmte afvoer dan een dikke intel.

Overigens is je cheapo mobieltje deze dagen al voorzien van een 64-bit quad-core op 2GHz of daaromtrent.

De overstap is wat mij betreft al geweest, steeds meer van mijn familie gaat over op Ubuntu omdat ze dan geen nieuwe Windows en/of hardware hoeven aan te schaffen. Een laptop met 0.5GB RAM is prima voor e-mail en internetbankieren enzo, maar daar draait dan nog XP op en dus wil je daar niet op bankieren. Upgraden naar W10 is een drama, kost meer dan de computer nog waard is, en resulteert in een onbruikbaar traag onding. Met lubuntu werkt 't binnen een half uurtje en als bonus hoef je ook geen urenlang op jacht naar drivers enzo... En je bent meteen een stuk veiliger.
De overstap is wat jou betreft al geweest, want een paar van je familieleden zijn overgegaan op Ubuntu?

Sorry, maar ik ben daarmee niet overtuigd. Dat veranderd niets aan het feit dat nog steeds het overgrote deel van de mensen wereldwijd Windows als Desktop/Laptop OS gebruikt...
Door onder andere Android zijn mensen gewend geraakt aan "iets anders dan Windows", wat de weg vrij maakt voor alternatieven op de PC. Ik zie de verandering in mijn familie, en ik wil absoluut niet beweren dat die representatief zijn voor de hele wereld, maar ze zijn wel modaal of sub-modaal als het op computerkennis aankomt. Windows is op het moment uitsluitend en alleen op PC's nog het meestgebruikte OS, en ik zie dat nog wel veranderen. De meeste Windows gebruikers weten niet eens dat je iets kunt kiezen, mijn ouders weten dat nu wel en zijn blij dat ze van Windows verlost zijn.
Ik kan me voorstellen dat er in non-tech bedrijven wel veel legacy software is waarvan de leverancier verdwenen is en ze de broncode niet hebben en/of de kennis niet hebben om te recompilen. Kassasystemen, een bepaald boekhoudingsprogramma of zoiets?
Opnieuw compilen is niet lastig, maar alle libraries die je gebruikt zijn meestal niet voor ARM (in ieder geval niet allemaal) dan is het weer een stuk meer werk voor een minimaal aantal gebruikers.
Dat is het "gezeur" waar ik op doelde. Die libraries zijn ook door iemand gemaakt die heel makkelijk een ARM versie zou kunnen leveren. Recursief probleem...
Heb je dat ooit al eens zelf gedaan?

Het klinkt eenvoudig maar hercompileren is een beetje zoals google translate gebruiken. De ontvanger (arm cpu) zal je wel begrijpen (na het vinden van een synoniemen voor een hele resem commando’s) maar optimaal zal het niet zijn.
Er zijn oa nodig:
Optimalisaties
Translaties van bvb SSE commands
...
Meer dan eens.
ARM is de toekomst. Helemaal eens met wat je zegt.

Draait de halve smartphone wereld ook niet op ARM, of is dat iets van de begin jaren van de smartphone?
In de jaren 90 werd er al geroepen dat ARM de toekomst was.
Maar in tegenstelling tot ipv6 geloof ik hier wel in ;)
Neuh, niet de halve wereld. De smartphones hebben bijna allemaal ARM processoren. Ja, ook die van Apple.

Merk wel op dat ARM zelf geen chips maakt, ze verkopen licenties.
Het zou mij niets verbazen als Apple met eigen processoren op de markt inderdaad komt voor de laptops en pc's. De reeds aanwezige processoren in iPad en iPhone worden zo goed en snel volgens mij dat Apple deze stap kan maken. Het is alleen een kwestie van tijd. Op zich zou je tegenwoordig ook iOS kunnen integreren in de pc en laptop want de meeste mensen hebben daar al voldoende aan als ik al zie wat de meeste apps kunnen en waarvoor je het gebruikt.
Eigenlijk vond vroeger al mooi zoals mijn oude Compaq Aero 8000 met Windows CE waarin je al zag hoe een mobiel besturingssysteem werd gebruikt als laptop. Het was niet volwaardig en vervanging van de desktop maar je kon wel een hoop mee doen met Office en Internet.
Ik denk ook wel dat een Mac met een ARM-processor er gaat komen, maar die zal niet iOS draaien. iOS is voor touchdevices, macOS voor desktops en laptops met een muispointer. Onderliggend zijn ze grotendeels op dezelfde codebase gebaseerd. Het porten naar ARM64 is het probleem niet. Vergeleken met de overstap van PowerPC naar x86 in 2006 is het nu veel makkelijker om van platform te switchen omdat alle softwaredistributie online plaatsvindt. De App Store en de updatetools van softwareontwikkelaars zoals Adobe hoeven alleen maar aangepast te worden om de juiste binaries voor de verschillende platformen te verspreiden.

Ergens in die donutcampus van Apple zullen ongetwijfeld Macs op ARM-hardware draaien. Als ze het aantal cores van de A12X nog wat verhogen en de kloksnelheid wat opkrikken (moet kunnen aangezien er meer koelcapaciteit beschikbaar is in een laptop of desktop) is Apple er al.
Enigzins off topic, ik had begrepen dat Apple, in het diepste geheim, vanaf OS X 10.2 ook een OS X versie op een "intel computer" hadden.
Dat klopt. Je kon ook al heel lang voordat Apple overstapte naar Intel Darwin, de open-source laag van macOS en iOS, downloaden voor de x86 architectuur. Zie: nieuws: Apple's Darwin OS uitgegeven voor x86
Het overgrote deel van de wereld zou bij wijze van spreken nog steeds uit de voeten kunnen met een Pentium 1 met Windows 95, als je er maar een browser bij kon leveren die moderne media aan kan.
Dat valt zwaar tegen. Ik heb tamelijk recent mijn ruim 10 jaar oude laptop met een dual core Atom (die rondjes kan rennen rond een P1) vervangen door iets moderners. De belangrijkste reden was dat allerlei websites, zoals bevoorbeeld Bol.com, niet meer bruikbaar waren doordat de arme processor al de javascript niet meer kon trekken.
Maar ligt dat dan aan de hardware of aan de software? Omdat we vandaag de dag veel processorkracht en geheugen hebben wordt er niet veel intelligent geschreven en veel vertrouwd op compilers die niet altijd efficiënt zijn. Zo zijn er ook altijd wedstrijden geweest wie het mooiste in 64k kan programmeren: http://www.pouet.net/prod.php?which=5
Ik kan mij ook nog iets van vroeger herinneren van een bedrijf die iets van Internet applicaties onder DOS had geschreven en zo oude PC's een nieuw leven gaf als een Internet PC.
Ik ben er dan ook van overtuigd dat hardware niet het probleem is maar commercieel voor hardware, software en OS bouwers het totaal niet interessant is om oude hardware in leven te houden met veel beter geschreven software.
ligt natuurlijk aan beide, maar met de huidige stand van sites en applicaties (office 365 ed)
kom je ect niet meer toe met een P1 of atom.
Dat maakt de eerdere 'W95' uitspraak voor mij onwaar.
ja je kan nog de stok oude software gebruiken, maar door vooral de sites en online toepassingen is het niet meer werkbaar.
een browser vinden die het kan ?? je zou miss nog een kunnen vinden, maar de sites zal hij niet meer trekken.
Wel triest eigenlijk, hoe we tegenwoordig processors hebben die letterlijk honderden keren sneller zijn en nog steeds dezelfde software draaien met dezelfde performance, dan niet trager..
Wirth's law heet dat. Software bloat gaat sneller dan Moore's Law.
Ook raar dat we van native code naar steeds meer emulatie en ongecompileerde code gaan. Office 365 draait in de browser met dezelfde prestaties als standalone Office op 10x zoveel processorkracht.
Hmm, hoe zou het kostenmodel in elkaar steken? Wie draagt de kosten voor de extra processorkracht en wie voor het programmeren?
Hoeveel schaarste is er in programmeurs en hoeveel in processoren/vermogen bij de klant?
Daar is het antwoord. Ontwikkelaars zijn schaars en duur en het is bijna altijd beter qua rendement om hen nieuwe features te laten ontwikkelen dan te optimaliseren.

Maar er is ook een andere oorzaak dan alleen luie programmeurs, trouwens. Windows 95 draait software uit dat tijdperk nog steeds perfect maar nieuwe software niet. Nou, waarom gebruik je de oude software dan niet? Omdat de nieuwe software veel meer doet natuurlijk... en een document met subpixel rendering op 4k met 32 miljard kleuren weergeven kost verrassend genoeg echt meer rekenkracht en geheugen dan een 256 kleuren 800x600 documentje. Zeker als je dan natuurlijk ook 3 andere dingen tegelijk wilt doe. - Spotify in je browser enzo... weet je nog dat Windows 98 een tel kon overslaan van je winamp mp3 als de computer het druk had? Dat zou je nu toch echt niet accepteren...
Dit zijn de goede vragen. Als ik naar mezelf kijk heb ik nooit geleerd te programmeren, maar met allerlei inefficiënte dingen als Wordpress kan ik zo een site maken. Het aantal mensen dat zonder CMS een website kan bouwen is denk ik vele malen kleiner dan de vraag. Andersom zouden de ontwikkelaars van bibliotheken en CMS vast heel veel effciëntere code schrijven als de hardwarefabrikanten de boel niet elk jaar weer sneller maakten. Het aanbod bij hardwarefabrikanten lijkt sowieso niet echt makkelijk vergroot te kunnen worden: het lijkt een aanbodgestuurde markt? Maar ik ben geen econoom.
ja maar de functionaliteit van O365 laat voor mij wel 100% te wensen over.
als het even kan is het toch lokaal openen en 100 keer sneller en gemakkelijker werken dan in die webbrol.
Office 365 draait in de browser met dezelfde prestaties als standalone Office op 10x zoveel processorkracht.
Dat is niet mijn ervaring. De geïnstalleerde office draait echt vele malen sneller en reageert veel sneller dan het in-browser gedrocht.

Hetzelfde geldt voor Gmail of een gecompileerde mailclient (maakt niet uit welke).

Echt niet te vergelijken qua snelheid...
ja maar de functionaliteit van O365 laat voor mij wel 100% te wensen over.
als het even kan is het toch lokaal openen en 100 keer sneller en gemakkelijker werken dan in die webbrol.
Ik heb het over 10x zoveel processorkracht: dus waar de standalone op een Core2Duo perfect draait, is voor de webversie een 18core Xeon nodig.
[...]

Ik heb het over 10x zoveel processorkracht: dus waar de standalone op een Core2Duo perfect draait, is voor de webversie een 18core Xeon nodig.
Oeps, niet goed gelezen ;) Mee eens dus.
Ook al schrijf je de boel efficiënt je gaat echt niet hedendaagse applicaties op een P1 kunnen draaien.

Daarbij zijn de compilers/libraries nu veel beter dan vroeger. De code zal dan ook een stuk sneller zijn. Hier zijn nog steeds allerlei ontwikkelingen mee bezig (zoals de nieuwe C# versies, webassembly etc).

Probleem is alleen dat zo'n site nu veel meer doet dan vroeger. Dan mag de code wel veel sneller zijn maar dat weegt daar niet in zijn eentje tegenop.

Nu kan je je terecht afvragen of je nou echt blij moet worden van al die extra functionaliteit op een website. Een groot gedeelte is niet eens voor de bezoeker maar bijv tbv marketing.
C# en webassembly zijn voorbeelden van platformen die het gebruik van oude cpu's uitsluiten. Beide gebruiken een vm en jit compilatie die de cpu extra belasten nog voordat je functionaliteit aan de gebruiker biedt.
Webassembly is anders wel ff een stuk sneller dan JavaScript. Probleem is vooral nog dat het in de kinderschoenen staat.

Daarbij hoeft een JIT niet langzaam te zijn. Sterker nog een JIT kan runtime informatie gebruiken om de code nog verder te optimaliseren dan precompiled code.

In theorie heeft een JIT dus meer potentie. In de praktijk gebeurd dit nog weinig maar bijv in .NET core 2.1 zat al een preview van een tiered JIT die meer optimalisaties toepast.

TLDR: een hoop talen zijn dus juist sneller geworden de laatste tijd door allerlei ontwikkelingen. Je wilt echt niet terug naar 20 jaar geleden.

Wil je echt alles eruit persen op dit moment kan je beter kijken naar zoiets als Rust. Die compileert trouwens ook naar webassembly mocht je dat willen.

[Reactie gewijzigd door Barsonax op 23 juli 2024 13:27]

Ja, een jit kan voor lang lopende processen voordelen bieden (ik gebruik al meer dan 20 jaar Java dus ben erg bekend met de materie). Punt is dat voordat de JIT iets kan doen de code vele malen trager is dan pre-compiled code (zoals ouderwetse C code). Ook kort lopende processen hebben er heel weinig aan. Een GUI applicatie is ook een voorbeeld van iets waar een JIT weinig helpt: 90% van de tijd wachten op een gebruiker en als die dan een keer klikt dan is de code die uitgevoerd moet worden nog lang niet in het hotpath van de compiler gekomen.
Ik zeg niet dat ik 20 jaar terug wil (malloc() debuggen is niet leuk, GC is erg handig). Maar C#, Java en WebAssembly maken je software vrijwel nooit sneller, integendeel het is vaak trager. Op een server geen probleem (lang lopende applicaties en de JIT compiler kan WEL zijn werk doen), op een desktop dus vaak wel. En Rust naar WebAssembly is ook een slecht voorbeeld als het snel moet. Is wel leuk, maar zeker niet sneller dan een (goed geschreven) C applicatie. Alleen duurt het schrijven van die C applicatie vaak langer (door genoemde malloc() debug sessie en andere kromme pointer zaken).
Je zegt dat Rust naar webassembly een slecht voorbeeld is en vervolgens heb je het over C. Hoe ga je C draaien in de browser denk je? Dat gaat niet zomaar. Dan zul je die C code moeten omzetten naar iets anders (Webassembly of Javascript...).

Overigens je hoeft Rust niet naar webassembly te compileren het kan ook naar machinecode maar dan loop je tegen hetzelfde probleem aan in de browser als met C.

Of wil je de gecompileerde machinecode zelf over het internet gaan sturen en dat die client dat dan gaat uitvoeren? Naast dat je dan de hardware architectuur moet weten van de client lijkt mij dat nogal vatbaar voor exploits.
Niet alle software hoeft in een browser te draaien (liever niet zelfs, scheelt megabytes aan geheugen en native applicaties zijn altijd sneller). E-mail in de browser (gmail) : leuk, maar native is handiger bij grote hoeveelheden mail. Documenten bewerken in de browser? Als je genoegen neemt met beperkte mogelijkheden en je nooit offline werkt. Rust naar WebAssembly is nodig omdat JavaScript als programmeertaal nauwelijks schaalt naar grote groepen ontwikkelaars (weak typing, geen modules oid) en een rommelige build omgeving kent (welke is het vandaag?). Hopelijk kan Rust daar verbetering in brengen (of Dart of Swift of typescript of een van de tientallen andere (veelal emscripten gebaseerde) oplossingen).
Maar wat is je punt nou? Dat een native applicatie efficiënter zou zijn zal niemand betwisten. Beetje moeilijk met sites alleen.

Daarbij het doel van Webassembly is niet het vervangen van JavaScript als taal. Het is bedoelt als een veel efficiëntere compile target dan JavaScript.
Mijn punt is, nog steeds, een reactie op jouw stelling: "Daarbij zijn de compilers/libraries nu veel beter dan vroeger. De code zal dan ook een stuk sneller zijn. Hier zijn nog steeds allerlei ontwikkelingen mee bezig (zoals de nieuwe C# versies, webassembly etc).". Compilers zijn wel beter geworden, maar geen ordegrootes. Nieuwe technieken zoals C# en WebAssembly zijn per definitie trager dan C code met een compiler van 10 jaar terug. Ga maar meten.
C wordt gecompileerd naar Webassembly als je deze in de browser wilt draaien dus je hele argument slaat nergens op.
Mijn argument is dat alles in de browser flauwekul is en ontzettende veel CPU cycles weggooit alleen om dat het kan. De browser is een van de platformen waarop je programma's kunt leveren. In veel gevallen de minst wenselijke, maar wel de meest gebruikte. Je gaf zelf ook al C# als voorbeeld. Ik heb nog geen C# (of MSIL naar WebAssebmbly) gezien. Dus ik nam aan (onterecht zo blijkt uit jouw reactie) dat je ook over het verschil tussen Browser en niet browser based platformen sprak. Zo te zien doen je dit niet en idd. C op webassembly is het slechtste voorbeeld van zinnig: low-level taal in een browser hangen die alles in een sandbox draait om zo je performance winst teniet te doen.
Ik denk dat voor een website een browser helemaal niet onzinnig is. Voor echte desktop applicaties is het natuurlijk wel killing voor je performance. Echter 1 groot voordeel is natuurlijk wel dat het cross platform is. Of dat voordeel opweegt tegen de nadelen hangt af van de situatie.

Persoonlijk denk ik dat een taal als C# voor een hoop applicaties meer dan voldoende is (zeker met tiered compilation en de wat nieuwere features die zelfs zaken als SIMD toevoegen). Natuurlijk zul je met C/C++/Rust etc er nog meer performance uit kunnen halen maar dat is vooral relevant als je veel rekenwerk wilt doen.

De meeste bottlenecks zitten vaak niet eens in de taal zelf maar meer in dingen zoals databases of als je iets wilt aanroepen via het internet. Vandaar ook dat goede support voor multithreading en asynchrone code in dit soort gevallen vaak een grotere rol zal spelen. Dit is iets waar C en C++ wat zwakker in zijn maar talen als C# en Rust juist veel sterker in zijn (hoewel async nog moet komen naar Rust dacht ik).

Nu is multithreading natuurlijk iets minder relevant als we het hebben over een P1 met maar 1 core maar in het hedendaagse hardware landschap waar we ondertussen op hexacores/octacores zitten begint dit toch echt belangrijk te worden.
Doet het er iets toe waar het precies aan ligt? Het probleem is dat ik met een te oude processor niet meer mee kan op het hedendaagse internet, en dan gebruik ik geen extreme functies.
Grootste deel software en bulky internet. Waar vroeger allerlei technische trucjes werden uitgehaald om de data zo efficiënt en snel mogelijk naar de bezoeker te krijgen (html zonder 1 enkele enter, dus je hele pagina is 1 regel, bijv.) is alles nu grotendeels log en minimaal geoptimaliseerd voor throughput. Dan kan je inderdaad krijgen dat de hardware het niet trekt.
Dat is wel heel optimistisch. Veronderstel 20 jaar Moore scaling sinds 1995: x2 compute per 18 maanden -> x8000 keer krachtiger. Dat komt van puur hogere klokfrequentie factor x hogere IPC x 8 cores vs single core. Maar ik volg je wel (deels) dat voor simplele productiviteitstaken zoal browsen de hele processor race niet echt nodig is. Maar zelfs dan, een probleem is wel dat bv. webpagina's vele dynamischer en complexer worden, en er dan ook verondersteld wordt dat vooruitgang in rekenkracht zich overal voordoet, ook al is die niet altijd strikt nodig . En technologieschaling heeft nog een ander voordeel: je kan in plaats van de extra performance te gebruiken, eenzelfde prestatie veel zuiniger leveren, wat zich vertaalt in langere batterij... Specifieke hardware voor decoden van video (youtube) valt daar ook onder.
Ik vraag we dan af dat intel de chips nog beter gaan maken zonder de klokfrequentie te verhogen en zonder meer cores?Meer bittage misschien.Misschien staat wel een 128 of 256 bit processor in de planning.
64-Bit slaat voornamelijk op het adresseerbare geheugen. Met 64 bit kunnen we nog wel even vooruit... Tot 2^64 bytes aan geheugen, 18446744 TB.
Meer bittage misschien.Misschien staat wel een 128 of 256 bit processor in de planning.
Voor doeleinden waar 128 of 256 bits praktisch zijn wordt dit al ondersteund. SSE en AVX gebruiken 128, 256 en zelfs 512 bits registers om bewerkingen te doen op een hele ris kleinere getallen tegelijk.
kijk en dat wis ik niet.
Maar wat ik bedoel is gewoon een gehele 128 bit processor. Dat wilt zeggen dat hij meer bandbreedte heeft en dus meer data per tijdsindicatie kan doorvoeren.
Weer wat geleerd vandaag.
En meer overhead omdat 99% van het werk in 8 bits past. Intel heeft iets dergelijks wel geprobeerd met vliw (itanium) maar dat was zo raar programmeren dat het niks werd. En vergis je niet waar de echte bottlenecks zitten: je cpu staat zo maar tientallen cycles te wachten op je ram geheugen
Even een zijpaadje: ik heb best vaak dat ik een programma draai en dat ik moet wachten, terwijl er geen pieken zijn in mijn processor, noch input-output, en het werkgeheugen ook niet bijna vol is of snel voller wordt, en de videokaart ook niet zwaar belast is. Waar wacht ik dan op? Ik snap het gewoon niet echt, weet te weinig van hoe computers en programma's in elkaar zitten.
Zonder specifiek te weten welke programma's het zijn is het heel lastig. Maar het kan zo maar een wachtlus in de software zijn omdat iemand anders ooit een bug had met een filelock die nog niet snel genoeg opgeruimd was. De workaround (wacht een seconde en ga dan verder) is ingebakken en blijft tot sint juttemus zitten. Zeker in de wondere Windows Wereld is dat niet onwaarschijnlijk (veel closed source, veel gebruikers dus veel 'rare' problemen). Ik weet ook niet hoe Windows io-waits rapporteert (als in: lees data van de HDD, de hdd moet opspinnen en dit kost 5 seconden. Is dit dan actieve IO Time of idle-time?)
OK twee interessante punten. Maar ik heb het idee dat ik het ook zie op mijn nieuwe computer met SSD, en met zeer grote/bekende sofware. Zien anderen dat nooit?
Onder Windows: ik wel. Onder linux: vrijwel nooit en met top/strace/lm-sensors vaak wel te achterhalen.
Je hoeft ook niet op de trein te stappen van iedere nieuwe processor generatie.
Veel plezier met 4k video of HDR foto's op een Pentium, en met alle veiligheids risico's.
Fatsoenlijke gpu erbij en dat is geen probleem. En welke security zaken? Meltdown? Je bent geen cloud provider dus dat risico is vrijwel nul.
Wat ik bedoel is dat Windows XP geen bescherming bied tegen moderne methoden om OS'en aan te vallen via software.
Het overgrote deel van de wereld zou bij wijze van spreken nog steeds uit de voeten kunnen met een Pentium 1 met Windows 95, als je er maar een browser bij kon leveren die moderne media aan kan.
Ik vrees dat je vergeten bent dat je plaatjes destijds letterlijk van boven naar onder opgebouwd zag worden, ook plaatjes die reeds op je harde schijf waren opgeslagen... Foto's konden gerust 3 tot 5 seconde duren.
iOS is helemaal niet geschikt voor de PC/laptop. Hebben we al vaak genoeg gezien met de iPad pro. Een niche kan er een productiviteitsproduct van maken, maar voor vele dagelijkse taken is het niet geschikt. Het zal vermoedelijk eenvoudiger zijn om macOS om te zetten naar ARM dan om van iOS een desktop besturingssysteem te maken.
Wat maakt iOS dan zo ongeschikt?
Geen File Manager (ok dit valt redelijk makkelijk op te lossen door Apple), geen echte multitasking is het eerste wat in mij opkomt...
En vooral het feit dat MacOS er is, wat in mijn ogen veel geschikter is, en Apple heeft het kunstje van een architectuur switch in het verleden al eens heeft klaargepseeld, zou me niet verbazen dat ze het opnieuw doen en er opnieuw in slagen.

[Reactie gewijzigd door Clemens123 op 23 juli 2024 13:27]

iOS heeft sinds enige tijd een filemanager app ingebouwd
die bijna geen hol kan
ligt dat aan de filemanager of aan de beiveiliging wat de file manager mag op iOS?
ik ken enkel die op android, en die worden ook langs alle kanten voorgelogen door het OS om te verhinderen dat men zotte dingen gaat doen.
ik kan mij best voorstellen dat Apple dit nog beter gaat controleren en dirigeren zodat je enkel kan en mag doen wat iOS/Apple denkt dat je wilt en mag doen.
Geen muis, matige multitasking etc. Het is een os specifiek ontworpen voor mobiele apparaten om media op te “consumeren”, niet om op te “creeeren”.
Er wordt meer 'gecreëerd' op smartphones en tablets dan op laptops en desktops.
Wat als 'creëren' wordt gezien veranderd met de tijd.
Vroegah was enkel een terminal aan een mainframe acceptabel. Tegenwoordig gebruiken mensen een smartphone...
Dat is precies waarom Apple met hun Marzipan project komt. Zie bijv.: https://www.imore.com/marzipan
Voor alle overige developers inderdaad. Het werkt nu al prima op de Mac.
De IOS Home app werkt perfect.
Dude, je kan nog niet eens simpel FLAC bestanden op een iOS apparaat zetten zonder een hoop gedoe, en met een filemanager vervolgens in een zelf gekozen player afspelen. Als dit uberhaupt allemaal al mogelijk is zonder een jailbreak.

Hoeveel obstructies heb je nodig voordat je kan zeggen dat dit niet geschikt is?

Nee. iOS is geschikt voor easy mode, spotify(en alle andere afhankelijke cloud zooi), klik en klaar dingetjes.

[Reactie gewijzigd door Marctraider op 23 juli 2024 13:27]

Dude, het was een vraag. Bedankt voor je genuanceerde antwoord.
Dat vraag ik me af. Ja in telefoons wel. Maar dat komt onder andere door de erg goede optimalisatie van het os
Als mensen photoshop gebruiken dan weet ik het nog niet
Leuk stuk om te lezen! Hoe zit het met de Chinese x86 processors die met de licentie van VIA worden gemaakt, komt daar nog iets uit de hoge hoed? Dat is toch ook een speler?
Op de ISC van afgelopen zomer waren de Chinezen vrij duidelijk over de architectuur: Ze gaan hun deelname in de exaflops race aan met een x86-processor. Andere architecturen zoals de Sunway, zullen nooit een groot marktaandeel winnen. Waar ze niet duidelijk over waren, was de specifieke processor die ze gingen gebruiken, want China en x86 roept natuurlijk vraagtekens op. Gaat het om de Zen-processoren die ze in licentie kunnen maken, of komen ze met een konijn uit de hoge hoed?

En ja, de Chinezen houden van konijnen, de Matrix 2000-accelerator waarmee ze afgelopen zomer kwamen, zag niemand aankomen.
Het probleem van het westen: ze onderschatten de Chinezen ALTIJD.
Op sommige gebieden lopen ze nog wat achter, maar ze lopen zeer snel in.
Binnen een paar jaar zal China eigen cpu's ontwerpen die op een haar na even snel zijn al intel, AMD, Apple en Qualcomm.
Ik denk dat niemand onderschat dat de Chinezen zich ontwikkelen.
Gezien de bak geld die de Chinezen hebben, valt het mij juist tegen wat daar vandaan komt.
Waarom hebben ze überhaupt nog geen baanbrekende eigen processorarchitectuur en OS?
Er wordt ook wel geschreven over de electrische auto's uit China. Ik heb er nog nooit één gezien op de Nederlandse wegen.
Bekenste Chinese chip moet wel de soc's van de huawei smartphones zijn. Zou wat zijn als alle chinese smartphone makers ervoor kiezen om alleen nog maar Chineze soc's te gebruiken. Met de groei die Chineze smartphone makers allemaal maken zouden bijweize van 1/3e van de smartphone markt en de smartphone soc's in handen kunnen krijgen.
Ik geloof ook niet dat de chinese auto's dezelfde kwaliteitstandaard halen die wij verwachten. Wat betreft kwaliteit en veiligheid hebben ze nog in te halen.
Chinezen hebben andere standaarden dan wij. Dat is volgens mij het probleem.
Er zijn drie clubs die x86 processoren ontwikkelen.

Intel
Amd
Centaur (sinds 1995) d.w.z. VIA en in samenwerking met Shanghai Municipal Government bekend als Zhaoxin. (Om het ingewikkeld te maken)
Cyrix MX/MXII, It was originally released in 1996.

Dus waarom je Centaur sinds 1995 benoemd en de laatste processor van Cyrix uit 1996 klopt dan eigenlijk niet :P
Die zullen alleen wat kunnen produceren voor hun interne markt volgend jaar.
China staat er nog steeds erg zwak voor.
Hun beste gieterij zal begin volgend jaar eindelijk de 14 nanometer halen. Daarmee liggen ze anderhalve generatie (14/10/7, intel 10nm is even goed als TSMC 7nm) achter op Intel en twee op TSMC. China wil dan ook heel graag (geen grapje) een tunnel bouwen naar Taiwan toe.
De chinese x86 processors zal dan ook leunen op de TSMC gieterij.
Hun plan is om in 2019 iets vergelijkbaars (7 nanometers) neer te zetten als AMD die nu ook op TSMC leunt. In feite leunt nu bijna iedereen op TSMC. Apple en Huawei ook.
Kijk ook eens naar de IBM power9 processoren. Raptor maakt daar hele leuke moederborden mee.
https://www.raptorcs.com/content/BK1B01/intro.html

Voor de privacy en security minded mensen die ook fatsoenlijke performance willen.
Een dual 22 core processor bord lijkt me wel wat.
Nadeel is dat de meeste commerciele software er niet voor geoptimaliseerd is maar als je veel wetenschappelijke rekenwerk doet en alles zelf maakt is het wel een aanrader
Op dit moment presteert de Power9 wel concurrerend voor wetenschappelijke applicaties, maar in 2019, als Rome op de markt komt zal deze met kop en schouders boven de Power9 uit steken voor wetenschappelijke berekeningen. De Power9 blijft interessant vanwege zijn ondersteuning voor NVLink en de 4 threads per processor maken hem erg aantrekkelijk in threadintentieve applicaties zoals databases en webservers.
Dit is een markt waar Nvidia met zijn Cuda en tensor cores ook flink aan de weg timmert. Kijk eens naar de top500.org daar zijn de snelste / krachtigste systemen uitgerust met Nvidia.
Voor de Top500 zijn tensorkernen niet interesant, omdat ze enkel op halve precisie werken en dan nog specifiek één bepaalde vectorvermenigvuldiging accelereren. Nvidia Tesla in het algemeen is een ander verhaal: Dat is veel rekenkracht in dubbele precisie per chip en met name aan Amerikaanse zijde wordt sterk ingezet op Nvidia, al dan niet gecombineerd met de Power9.

Het is evenwel wel zo, dat een Tesla zeer prijzig is, en de hoge marges die daarop zitten reden tot zorg zijn bij veel spelers in de HPC. Er wordt daardoor actief gewerkt aan projecten tegen Nvidia. De Matrix 2000 van de Chinezen kun je daar als een voorbeeld van zien.
Punt is dat een processor maar 1 (weliswaar cruciaal) onderdeel is in het hele verhaal. Een compleet powerPC systeem in de enterprise klasse is toch echt wat anders dan de Epyc servers die nu bij HP en Dell te krijgen zijn. Die PowerPC (Linux, maar zeker ook AIX) systemen schalen veel verder dan een AMD (of Intel) systeem. Je betaalt er echter ook voor (tonnen of nog meer).

Puur prijs/prestatie zal een IBM PowerPC het niet kunnen halen bij AMD, maar als je behoefte verder gaat, dan ben je min of meer veroordeeld tot PowerPC (voorbeeld: LPARs gaat heel wat beter/verder dan hyperV of VMWare VMs: en enterprise RAS features + hot swap ook bij IBM een stuk beter). Concurrentie is er dus wel, maar niet op prijs. En het is maar afwachten hoeveel jaar IBM het nog volhoudt. Een monopolist (HW, OS, RDBMS) wordt niet door iedereen gewaardeerd + Oracle en IBM hebben nu niet echt een goede relatie.
Enerzijds ben ik het volkomen met je eens dat de Power-architectuur bepaalde niches heeft waar hij zinnig is, maar op het gebied van schaalbaarheid zul je dat nader moeten definiëren. Juist de x86-processoren zijn behoorlijk schaalbaar en ook hier gaat de Rome nieuwe standaarden zetten: 4 Romes op een bordje geeft je een rekenmonster van 256 kernen.

IBM houdt het nog best wel even vol, juist omdat ze nichemarkten hebben waar hun spullen zin hebben. Maar ik zie de architectuur geen groter marktaandeel krijgen in 2019. Juist omdat IBM ervoor kiest om niet met x86 te concurreren (en we hebben het niet over een prijs-/prestatieverschil van enkele procenten) kiezen partijen die naar een alternatief op zoek zijn massaal voor ARM.
Alhoewel het volgende ook marketing bla bla is (zie: https://www.ibm.com/blogs...performance-vs-intel-x86/) is 4TB voor x86/x64 meer dan wat (volgens mij) te koop is. HP had (?) een DL980, die tot 2TB ging.

En de max clock per CPU is bij PowerPC hoger. Al weet ik niet of dat in een betere IPC resulteert.

Persoonlijk zie ik dat (met name op Windows) x86 en veel cores niet lekker werkt. Op Linux is dat al een stuk beter. IBM heeft wel vele jaren meer ervaringen met SMP (waar Intel altijd NUMA is/was). Op mijn werk zie ik wel IBM AIX systemen waar 1000-den ERP gebruikers op draaien, maar op Windows is dat een stuk lager. Maar goed, dit zit misschien meer in Windows (dat een hekel heeft aan veel processen) dan in de processor.

Voor hardware vervanging lijkt me Rome ook perspectieven te bieden, al is Intel qua clock en IPC (nu nog) hoger.

Ik geloof ook wel dat IBM het nog even volhoudt, domweg omdat ze 1 type processor in een breed portfolio gebruiken (pSeries, Linux, iSeries en wellicht deels ook zSeries). Met vette marges.
X86 Is een goed all-rounder, alleen een waardeloze specialist.

Dat is ook de reden waarom gpgpu een vlucht neemt. Je kunt er minder mee, maar datgene wat ze kunnen doen, doen ze supersnel.
Alleen gpgpu wordt weer langzaam ingehaald door ASIC/FPGA. De opbouw is nog simpeler dan een gpu. Op mobiele telefoontjes worden ze al toegevoegd als “AI” ,
maar oa Google heeft meerdere tpu’s
nieuws: Google toont watergekoelde tpu v3-pods van 100 petaflops voor machine...


Nvidia is er ook hard mee bezig, Tesla is ook bezig, Qualcomm en Huawei zijn iig bezig met eigen tpu’s en hoe dat zich verder gaat ontwikkelen.


De wet van moore lijkt misschien dood, maar performance gaat nog hard omhoog.
De Rome ziet er veelbelovend uit, maar een jaar later komt er een Power10 met 48cores op 10nm.
"Als je gewone software wil draaien, moet een emulator de vertaalslag van x86-code naar ARM's risc-architectuur maken. "

Tja zeg ik dan.... definieer 'normaal'
Gezien de grote hoeveelheid (open source) software beshikbaar voor ARM op Linux zou dit natuurlijk gewoon kunnen omslaan denk ik dan. En veel daarvan wordt ook al geport naar windows en Mac. Onmogelijk os het niet, de vraag is hoe je de omslag voor elkaar krijgt.
Ik denk dat als Linux een groter marktaandeel had, dat de overstap al gemaakt zou zijn. Maar Windows en daarmee x86 zit met vele kabeltjes sterk verankerd in de wereld. Soms breekt er een kabeltje, maar er blijven er nog veel over.
Linux is een ongelooflijk flexibel OS dat op praktisch ieder soort hardware en processorarchitectuur kan draaien.

Om maar een voorbeeld te noemen;
"Installing Linux on a dead badger"

https://books.google.nl/b...cad=0#v=onepage&q&f=false

:*)

[Reactie gewijzigd door Titan_Fox op 23 juli 2024 13:27]

Willem de Moor heeft het over de wet van Moore :+
Ik ben benieuwd of andere fabrikanten die gebruik maken van ARM ontwerpen in de toekomst dezelfde kant op gaan.

Denk hierbij aan :
- Samsung (Exynos)
- Allwinner
- Amlogic
- Broadcom
- Hisilicon
- Rockchip

Indien ARM succesvol wordt op ultrabooks e.d. zal Qualcomm niet op haar lauweren kunnen rusten.
Voor de wat langere termijn zou risc-v interessant kunnen worden.
Zie bv:

[Reactie gewijzigd door jklu op 23 juli 2024 13:27]

7/10nm node voor 2019 ?
TSMC is al een hele tijd vol in productie, ze zitten tot de nok toe vol met orders.
Dat de 10nm node van Intel nog wel gaat komen komt hoog waarschijnlijk doordat het gerucht gaat dat Intel die bij TSMC laat maken.
TSMC loop wel degelijk voor op Intel op dit moment met wat er nu gemaakt wordt
Intel maakt nog bijna alles op 14nm, omdat ze de 10nm niet winstgevend kunnen maken, zeker niet in consumer producten.
Als je kijkt naar het Westen en het aantal innovaties. Kijk dan naar China. Met de procentuele potentials, talenten, dan kunnen we inderdaad veel meer uit die hoek verwachten. China zou in principe 5 Einsteins kunnen hebben, 50 Steve Jobs en ga maar door. Zoveel mensen, verhoogt kans op talent. Ook al zijn de universiteiten niet op niveau. Jobs is gestopt, en Einstein heeft ook geen universitaire studie afgemaakt. Wij denken in het Westen dat wij superieur zijn. Dus we moeten talenten scouten in.... China,

Op dit item kan niet meer gereageerd worden.