European Processor Initiative voor Europese chips voltooit eerste projectfase

Het European Processor Initiative heeft de eerste fase van zijn project voltooid. Daarmee heeft het project de specificaties van zijn eerste general purpose processor af, heeft het initiatief een RISC-V-accelerator gesampled en een testauto met eigen platform getoond.

Het EPI laat deze week weten dat de eerste fase van het project succesvol is afgerond. In dat eerste stadium zou gewerkt worden aan de EPI-roadmap. Het initiatief heeft onder andere de specificaties van de aanstaande general purpose processor gereed. Die chips krijgen de codenaam Rhea en zijn bedoeld voor supercomputers, datacenters en automotive. Die gpp wordt gebaseerd op Arm Neoverse V1-hpc-cores die worden bijgestaan door RISC-V-accelerators. De chips zelf zijn nog niet beschikbaar; dat volgt in fase twee van het project.

Het EPI laat nu weten dat de processor zal beschikken over 29 RISC-V-cores. De hoeveelheid Arm-cores in Rhea is nog niet bevestigd. Een Franse politica deelde eerder foto's die wijzen op een ontwerp met 72 Neoverse V1-cores, hoewel dat inmiddels gewijzigd kan zijn. EPI liet eerder weten dat de Rhea-gpp geproduceerd zal worden op TSMC's 6nm-procedé.

De verschillende onderdelen van de gpp worden met elkaar verbonden via een network-on-chip. De chip zal verder beschikken over HBM2e-geheugen en verschillende tiles. Het EPI spreekt bijvoorbeeld over een crypto-tile met beveiligingsfuncties. Deze wordt geïntegreerd in de Rhea-processor en biedt versnelling voor verschillende cryptografiealgoritmes.

Testaccelerators en BMW X5-testauto

Het EPI werkte in de eerste fase ook aan zijn eerste RISC-V-testaccelerators, die de general purpose processor kunnen aanvullen. Het initiatief toonde eerder dit jaar al de eerste sample van zo'n testchip, genaamd European Processor Accelerator of EPAC. Deze beschikt over verschillende soorten cores voor specifieke berekeningen.

Verder heeft het EPI een proof-of-concept voor een eigen automotive-platform getoond. Het was al bekend dat EPI daarmee zijn eerste fase zou afsluiten. Het initiatief laat een BMW X5-testauto zien die beschikt over een dergelijk platform, bestaande uit onder meer een modular computing platform met een microcontroller en camerasystemen met AI-ondersteuning.

De toekomstige versie zal ook plek bieden aan efpga's van Menta, RISC-V-accelerators, automotive-versies van de general purpose processors en andere chips. De eerste tests tonen dat het EPI technologieën heeft gemaakt die geschikt zijn voor autonome voertuigen op 'level 4', wat wil zeggen dat de auto in vrijwel alle omstandigheden zichzelf kan besturen.

EPAC-testbord en BMW X5-testauto van EPIEPAC-testbord en BMW X5-testauto van EPIEPAC-testbord en BMW X5-testauto van EPI

Het testplatform met EPAC-testaccelerator en de BMW X5-testauto en diens testsysteem. Afbeeldingen via EPI

Over het EPI en fase twee

Het European Processor Initiative is een project dat is opgezet door de Europese Commissie, met als doel het ontwikkelen van Europese hpc-chips die gebruikt kunnen worden in supercomputers, datacenters of voor automotive. Daarvoor werken 29 Europese bedrijven, universiteiten en andere partijen samen. De eerste EPI-fase kreeg in 2018 het startschot van de Europese Commissie en zou lopen tot het einde van 2021.

Volgend jaar start fase twee van het European Processor Initiative, waarin het de chipontwerpen uit de eerste fase daadwerkelijk wil produceren. Het project gaat dan verder onder de vlag van EuroHPC. Tweakers publiceerde eerder dit jaar een uitgebreider achtergrondverhaal over het European Processor Initiative en diens doelen.

Door Daan van Monsjou

Nieuwsredacteur

26-12-2021 • 10:59

64

Reacties (64)

64
59
33
7
1
16
Wijzig sortering
Ik begrijp dat de Reduced Instruction Set Computing een open source Instructieset-ontwerp (IPA) is.
Maar is er een technische reden waarom je voor een gereduceerde instructieset zou gaan ipv een uitgebreide instructieset. Eventueel door deze zelf te ontwerpen, open source.
is er een technische reden waarom je voor een gereduceerde instructieset zou gaan ipv een uitgebreide instructieset.
Ten eerste denk ik dat hier sprake is van een veel voorkomend misverstand. RISC processoren hebben geen kleinere instructieset. Mensen lezen het als: “Reduced (Instruction Set)” , maar wat het eigenlijk is, is een “(Reduced Instruction) Set”.

Het zijn niet minder instructies, maar de instructies zijn eenvoudiger. En het verschil zit hem dan niet in wat de instructies doen, maar in de adresseringsmodes. Om een simpel voorbeeld te nemen, de ADD instructie, die 2 waardes bij elkaar optelt. In een CISC instructieset heeft deze instructie vele varianten, waarbij het om dezelfde instructie gaat maar met verschillende manieren om aan te geven *welke* waarden hij bij elkaar op moet tellen en waar het resultaat naartoe moet.

Je kan bijvoorbeeld zeggen: tel register 1 bij register 2 op en schrijf het resultaat in register 3. Simpel. Maar je kan ook zeggen: tel r1 op bij de waarde op geheugenadres 0x120212 en schrijf het resultaat weg naar het geheugen adres dat in het adres register X staat. Of je kan iets adresseren relatief aan de stack pointer, of.. of.. of..

Een RISC processor is fundamenteel anders. Instructies zijn daar in 2 groepen in te delen: instructies die waardes van/naar een register van/naar het geheugen (of een ander register) verplaatsen, en instructies die een bewerking uitvoeren op waardes in de registers. Je kan nog steeds de instructie uitvoeren om r1 bij r2 op te tellen en het resultaat in r3 op te slaan, maar er zijn geen varianten meer die de waarde direct uit het geheugen kunnen lezen. Om een waarde bij iets in het geheugen op te tellen moet je dus meerdere instructies uitvoeren: eerst een LOAD om het uit het geheugen te laden, dan de daadwerkelijke ADD, en daarna een STORE om het weer terug te schrijven naar het geheugen. Daarom wordt dit ook wel een load-store architectuur genoemd.

Nu zou je denken dat een CISC processor hierdoor veel sneller is, hij kan immers in.1 instructie wat op RISC 3 instructies kost, maar dat is in praktijk niet zo. Een simpele ADD tussen 2 registers zal in 1 kloktik gaat, op beide types processor, maar een ADD met ingewikkelde adressering zal er veel langer over doen, omdat er nu eenmaal data uit het RAM gehaald moet worden. In praktijk duurt de complexe add net zo lang als 3 simpelere instructies.

Maar wat is nu het grote voordeel van RISC ? Ten eerste maakt het het ontwerp van de processor een stuk simpeler, je hoeft niet al die verschillende adresseringsmogelijkheden in te bouwen voor alle instructies. Ten tweede maakt het de codering van de instructies veel simpeler. In een CISC processor is de lengte van een instructie variabel, o.a. vanwege de veel verschillende modes. Een instructie in x86 varieert van 1 tot 15 bytes. Bij RISC processoren is dit over het algemeen niet zo, elke instructie is even lang. In ARM bijvoorbeeld is elke instructie precies 4 bytes.

Waarom is het een voordeel dat instructies allemaal even lang zijn ? Dat komt omdat moderne processoren een optimalisatie doen genaamd ‘out-of-order execution’. Een moderne CPU heeft vaak meerdere execution units per core. Dit zijn stukjes van de CPU die een bepaalde taak hebben, bijvoorbeeld berekeningen met gehele getallen. Als er in een CPU 2 van deze unit zitten dan kan ie 2 van dit soort berekeningen tegelijk doen. Als er 2 instructies na elkaar zijn waarbij de input van instructie 2 de output is van instructie 1, dan kunnen deze alleen na elkaar plaatsvinden, en kan ie dus niet beide execution units gebruiken. Maar als er nog een 3e instructie aan zit te komen die geen relatie heeft met instructie 1 en 2 dan zou de processor deze tegelijk uitvoeren met instructie 1. Processoren zijn tegenwoordig slim genoeg om dit te zien en veranderen de volgorde van de instructies om dit mogelijk te maken: in plaats van instructie 1, 2, 3 uit te voeren, voert ie 1, 3, 2 uit. In plaats van 3 kloktikken kost het nu nog maar 2, omdat instructie 1 en 3 tegelijk kunnen.

Wat heeft dit te maken met instructies die even lang zijn ? Dat is het volgende: om dit mogelijk te maken moet de processor een stukje vooruit lezen in het programma, zodat ie weet wat er aan zit te komen. Deze instructies worden vervolgens in een buffer geplaatst, genaamd de “reorder buffer” (ROB). In een CISC processor waar de lengte van een instructie variabel is moet je een instructie eerst decoderen voordat je weet waar de volgende instructie begint. Dit maakt het erg lastig om meerdere instructies in parallel te decoderen waardoor je dus moeilijker vooruit kan lezen. In een RISC processor is het simpel: je kan hier gewoon meerdere decoders in zetten die allemaal net naar een ander stukje geheugen kijken (elke keer 4 bytes verschil) en zo in 1 keer een hele rits instructies tegelijk inlezen. In een CISC processor is hier een hele complexe decoder voor nodig, en hoe meer je tegelijk wilt kunnen doen hoe ingewikkelder dit wordt.

Een processor die makkelijker en sneller vooruit kijkt, kan een grotere ROB vullen, en dus heeft dus meer instructies om uit te kiezen bij het aanpassen van de volgorde. Dit betekent dat het veel makkelijker is om werk te vinden voor alle execution units in de processor, waardoor hij dus efficiënter kan werken.

Kort samengevat: RISC maakt de processor minder complex en hij kan efficiënter gebruik maken van de aanwezige hardware.

[Reactie gewijzigd door Aaargh! op 22 juli 2024 23:07]

Klein lulligheidje, maar door complexe varianten van instructies weg te laten, heb je volgens mij effectief minder instructies. Dat het om verschillen in adressering opties gaat maakt daarbij weinig uit vind ik zelf.
Zeker daar ik meen te herinneren dat Assemblers vaak verschillende nmemonics hebben voor de varianten van instructies. Dus een instructie aantal reductie is een prima manier om het aan de leek uit te leggen of eenvoudig samen te vatten.
door complexe varianten van instructies weg te laten, heb je volgens mij effectief minder instructies.
Dat hangt er helemaal vanaf hoe je het aantal instructies telt. Vind jij dat "add r1, r2" en "add r1, r3" één instructie zijn (met verschillende parameters) of tel jij dat als twee instructies? Zelfde vraag over "add r1, 42" en "add r1, 37"; één instructie met verschillende parameters of twee verschillende instructies? En inderdaad, de volgende vraag is of je "add r1, r2" en "add r1, 42" als één of twee verschillende instructies telt.
Wat mij betreft is het antwoord dat je daar heel erg lang over kunt discussiëren, maar dat het geen interessante discussie is: het is volkomen irrelevant om te kunnen zeggen "processor X ondersteunt precies Y verschillende instructies". Het is hooguit nuttig om het in hele grote lijnen te hebben over CPUs die "veel" of "weinig" instructies ondersteunen, niet over de exacte aantallen.
Dat het om verschillen in adressering opties gaat maakt daarbij weinig uit vind ik zelf.
Als we het hebben over de complexiteit van de processor (zowel in de zin van instructieset, blokkenschema als silicium), dan is "welke vormen van adressering ondersteunt deze processor?" (of "... deze instructie?") juist ontzettend relevant. Je mag best vinden dat de formulering "aantal instructies" daarvoor niet de beste woordkeuze is (misschien zou je liever "instructievarianten" zeggen, of iets dergelijks), maar hoe we het beestje ook noemen, dat is wel de relevante vraag.
Zeker daar ik meen te herinneren dat Assemblers vaak verschillende nmemonics hebben voor de varianten van instructies.
lol, zeker bij CISC-ontwerpen is er meestal niet eens een één-op-één mapping van mnemonics naar opcodes (tenzij je ontzettend hard gaat goochelen met welke bitjes wel of niet meetellen als de "opcode", maar dan pas je de definitie aan om een uitspraak kloppend te maken; dat is wat mij betreft verkeerd om). Op het allereerste gezicht gaat het wel ongeveer goed, maar als je beter kijkt dan kom je gegarandeerd allerlei rare uitzonderingen tegen.
Beste woordkeuze of niet, als ik aan een leek het verschil moet uitleggen komt het dicht genoeg in de buurt. Ja het is niet de perfecte uitleg, maar gezien hoeveel tekst jij nodig hebt om al die nuance aan te brengen, denk ik toch dat de niet helemaal correcte beschrijving in het dagelijks gebruik het makkelijkst is.
Bedankt voor deze uitgebreide uitleg, erg interessant en ik heb heel wat geleerd in 2 minuten!
Eigenlijk 1 stap vs 2 of meerdere stappen, heel simpel uitgelegd. De penalty's voor fouten inde instructie wegen "anders" als het fout gaat.
Er staat hier gewoon een Plus-artikel in de comments :D
RISC is een filosofie, RISC-V is een specifieke ontwerp. Groot voordeel is dat de hele toolchain (compilers, assemblers, etc) al bestaat dan wanneer je zelf iets gaat bedenken.
Ik begrijp dat de Reduced Instruction Set Computing een open source Instructieset-ontwerp (IPA) is.
Maar is er een technische reden waarom je voor een gereduceerde instructieset zou gaan ipv een uitgebreide instructieset. Eventueel door deze zelf te ontwerpen, open source.
Dit is een oude discussie die tegenwoordig niet meer gevoerd wordt omdat de grenzen zijn vervaagd tussen de twee ontwerpen.
Van oudsher is het voordeel van RISC is dat het ontwerp simpeler is en daarom makkelijker kan worden geoptimaliseerd. Denk aan het verschil tussen een complexe mountainbike en kale racfiets. De mountainbike heeft allerlei handigheidjes en zit heel comfortable maar je moet wel extra gewicht meeslepen en dus harder trappen als gewoon rechtuit wil.

Maar in de jaren 90 hebben ze de "binnenkant" en de "buitenkant" van de processor losgekoppeld om willen van compatibiliteit. Zo'n processor werkt aan de buitenkant nog altijd zoals een CISC-processor uit de jaren 70, zodat mensen hun oude software ook op nieuwe processoren kunnen draaien. (Dat was met de Intel 386, best wel lang geleden dus).
Maar de binnenkant werkt heel anders. In de jaren 90 kon je zeggen dat processoren aan de binnenkant RISC waren en aan de buitenkant CISC. Maar sindsdien zijn de grenzen flink verschoven en kijken we op een andere manier naar het probleem. Daardoor is het verschil tussen RISC en CISC eigenlijk verdwenen of in ieder geval niet meer belangrijk.

De term RISC leeft vooral voort omdat die processorlijn er naar vernoemd is.
1 van de redenen is dat het energieverbruik een stuk lager is.
Die zijn er. Lees in wikipedia maar eens wat RISC en CISC is.
Overigens is de instructieset wat tegenwoordig als RISC bestempeld wordt vaak groter dan wat vroeger als CISC bestempeld wordt.
Ooit, vóór de wet van Moore 'op' raakte was de belofte dat met risc veel hogere kloksnelheden mogelijk zouden zijn dan met cisc. Helaas lijkt 5 GHz nog steeds ongeveer de praktische limiet.
Maar waarom is dat helaas, wat voegt een hoger getalletje toe aan de optimalisaties die daarbuiten worden doorgevoerd? De kloksnelheid is zeker een onderdeel, maar absoluut niet het enige wat de snelheid van een processor bepaalt. Een CPU met 3ghz nu is veel sneller dan 10 jaar geleden, terwijl het getalletje nog steeds hetzelfde is.

In mijn ogen is Ghz hetzelfde als megapixels in camera's en smartphones. Er is een bepaald minimum, maar alles daarboven is marketing voor mensen die het niet snappen. Die zien een hoger getal en denken dat dat per definitie beter is dan een lager getal, puur omdat ze zich niet bewust zijn van de 100 andere aspecten die ook invloed hebben op het uiteindelijke resultaat. Met Ghz zie ik dat net zo, het is niet helaas dat die limiet er is want die limiet doet er niet toe. Het is jammer voor de marketing, maar voor de rest van ons heeft het weinig praktische implicaties omdat de focus van het onderzoek wordt gericht op efficientere instructies in plaats van hogere getalletjes.
Een RISC is makkelijker te ontwerpen dan een CISC.
Over de financien,: De EU subsidie van dit projectdeel bedraagt € 80 mln, verdeelt over tientallen ontvangers in 10 landen! Nederland kreeg ruim € 1 ton! Waarschijnlijk voor reisjes van ambtenaren voor de bijeenkomsten van die andere ontvangers.
Drie jaar over het ontwerp: Dat is dan waarschijnlijk reeds nu gedateerd. De 6mm node is een doelstelling van de productie, daar kunnen dus nog de nodige problemen naar voren komen. Zouden andere chipontwerpen ook zo gebeuren?
https://www.european-proc..._Versailles_20181205b.pdf

In deze presentatie spreken ze over een investering van 1 miljard, 50% EU en 50% deelnemende lidstaten, aangevuld met 400 miljoen privé kapitaal.

Als voorbeeldje geven ze Airbus aan als vergelijkbaar project, begonnen in 1969 en tot 2003 nodig gehad om Boeing in te halen.

Rondje EU bashen? Ik denk dat de pandemie en chip tekorten aangetoond hebben dat we bepaalde zaken best ook hier in Europa doen.
EU bashen zou niet zo makkelijk zijn moest die instantie niet bol staan van de bureaucratie. 29 (!!!!!) verschillende entiteiten proberen te laten samenwerken is op voorhand al een teken aan de muur dat het boeltje niet efficiënt zal draaien. Heb je ooit al eens geprobeerd om een meeting te organiseren voor meer dan 5 aparte bedrijven, dan weet je dat het exponentieel moeilijker wordt om dingen gedaan te krijgen telkens er extra partijen bij worden betrokken
Je beschrijft exact waarom de EU respect verdient: ze halen behoorlijk wat resultaat gezien de moeilijkheid van het probleem.

Intern de EU moeten de landen met elkaar concurreren, niet met een gigant als de VSA of China. we zouden compleet overrompelt worden en een pak minder souvereiniteit overhouden moest elk landje apart proberen te concurreren met de hele wereld.
De resultaten van die 'onrealistische' eengemaakte markt zijn best wel positief te noemen, zeker voor de westerse landen. We zouden compleet onder de voet gelopen worden door de VSA en China zonder die markt omdat we dan allemaal elk afzonderlijk meer dan een factor kleiner zijn in de onderhandelingsmachtsverhouding.

[Reactie gewijzigd door Terracotta op 22 juli 2024 23:07]

Feit is dat EU economisch enorm slecht, presteert veel slechter dan alle andere werelddelen in gdp groei gemeten..

Daarbij kijk je alleen naar korte termijn want wat gaat er gebeuren als de geldkraan dicht word gedraaid door de ecb en de rente standen omhoog gaan ? dan blijft er niks over van de eu
Feit is dat de EU economisch stabieler is dan andere regio's zoals de VSA waar de sociale prijs hoog is bij elke tegenslag, dat ze dan sneller stijgen nadien is ook logisch. Kwestie van wat je prioritiseert. Mensen een goede basis geven van waaruit ze kunnen groeien of een elitaire maatschappij waar 87% van de mensen financieel eindigen waar hun ouders eindigden.
Laten we de oorsprong van Silicon Valley niet vergeten. Veel van de technologie die ten grondslag heeft gekregen aan de computer revolutie, internet, AI etc vond zijn oorsprong in militaire R&D projecten.

De Amerikaanse overheid heeft een groter militair budget dan de volgende 10 grootste militaire landen bij elkaar. Heel veel daarvan komt bij bedrijven als Boeing en Lockheed Martin terecht.

China stuurt heel doelgericht op strategische sectoren. Studenten worden naar de beste internationale universiteiten gestuurd, gaan werken bij de beste Westerse bedrijven om te leren hoe de beste technologie in elkaar zit en worden vervolgens teruggehaald om in staatsbedrijven Chinese concurrenten verder te helpen.

En ergens in dit spel proberen de Europese bedrijven in een steeds meer geopende wereldmarkt te concurreren, terwijl Europa juist steeds strenger wordt tav staatssteun.

Het is echter zeer twijfelachtig of de individuele landen het beter zouden hebben gedaan.
Een van de redenen dat de EU niet optimaal presteert is dat we afhankelijk van de Amerikanen, Koreanen en Chinezen zijn voor onze CPUs en software, iets dat 'Brussel' nu blijkbaar probeert te doorbreken. Dat vraagt lange adem. Een serieuze cpu bedenken jij en ik niet op zondagmiddag.
Ik constateer dat jullie compleet voorbijgaan aan de schuldenlasten van landen en ecb.

Daarbij is de argumentatie die jullie jullie aanvoeren is ook nog eens incorrect omdat de enige reden dat ecb het slechtst presteert komt doordat Nederland en Duitsland geen sociale heilstaten zijn zoals probleem landen Spanje, Portugal Frankrijk en Griekenland.

Ipv dat europees geld gebruikt word om te investeren betalen wij de pensioenen van 62 jaar oude Grieken.

Trap niet in die propaganda, luister naar echte economen die onafhankelijk zijn.
De schuldenlast van de VS is geen probleem bedoel je?
Maar nu worden we compleet onder de voet gelopen door de EU. Lood / oud ijzer.
Waar worden we onder de voet gelopen. Zelfs voor Nederland is de EU een economische meerwaarde.
Het probleem daarbovenop is nog eens dat alle lidstaten eisen dat ze een stukje van de taart krijgen. Zie je bij Airbus of ESA ook. Het ergst daarin zijn nog de Fransen, die om allemaal accomodaties vragen terwijl hun economie en kennis al 30 jaar kwakkelt.

Boeing hoeft hun onderdelen niet uit 20 verschillende staten te laten komen (geloof 2 of 3) en SpaceX doet alles intern in Texas of Californië.

Ik zou veel liever zien dat uit efficiëntie oogpunt er koehandel wordt gedreven. ‘Ok, Duitsland krijgt farmacologische- ontwikkeling en productie, maar dan krijgt Frankrijk alles van Airbus en Nederland chip-ontwikkeling en productie’.
ESA en NASA hebben alletwee dat probleem en Boeing en Lockheed Martin moeten niet (meer) onderdoen voor Airbus kwa verdelen van de productie van hun systemen over verschillende landen/staten vanwege politieke redenen.

SpaceX is inderdaad een uitzondering, meer daar ze als relatief kleine startup gigantisch snel gegroeid zijn en ze de verschillende staten tegen elkaar uitspelen.

Waarom koehandel: de technologiegiganten van de verschillende landen kunnen beter tegen elkaar concurreren. Het doel van de EU is net een interne vrije markt met competitie te creëren...
Kun je nagaan hoe moeilijk de USA het heeft, met 52(?) federatie-leden...
Ik ken geeneen Amerikaanse staat waar je met je 62ste je pensioen krijgt, jij wel? #griekenland
Rondje EU bashen? Ik denk dat de pandemie en chip tekorten aangetoond hebben dat we bepaalde zaken best ook hier in Europa doen.
Dat kan ook. We hebben ooit een EU initiatief gehad voor geheugen chips.
Philips heeft toen een proeffabriek voor SRAM gehad in Eindhoven en het DRAM stuk zat bij Siemens.

En er was ook nog een Philips spinoff "Silicon Hive" geheten. Die deden ook heel leuke dingen en zijn om die reden door Intel overgenomen.[
Spijtig dat we in Europa, zodra een bedrijf succesvol begint te worden, we uitverkoop houden naar de VS toe, die het vervolgens misbruiken door het als economisch en geopolitiek wapen in te zetten.
Weet je hoelang China en Rusland al bezig zijn met eigen chipontwerpen? Stuk langer dan 3 jaar al. Je hebt geen chipontwerp in 3 jaar ontworpen die een deuk in een pakje boter kan slaan. Je kunt niet even Intel en AMD gaan evenaren, of maar enigszins in de buurt komen in zo'n korte tijd. Ook AMD en Intel doen er 6 tot 10 jaar over voordat een nieuw chipontwerp in productie komt. De EU zal hier zo'n 10 tot 20 jaar voor uit moeten trekken. Het is een project van zeer lange adem. En dat is iets dat wat voor de EU bijzonder lastig zal zijn met teveel kortetermijndenkers in Europa.
China en Rusland 🧐😄

Weet hoe lang Intel al bezig is om zijn chips op orde te krijgen….
en dat ze met de nieuwe ontwerpen ouderwetse heethoofden in de strijd werpen 😄

https://www.tomshardware....e-benchmarks-release-date
241W, 190W en 150W voor respectievelijk i9, i7 en i5


En dan nog verbaast zijn dat een partij als Apple op een gegeven moment zegt,
beter van niet en de eigen chips de voorkeur geeft.

Binnen 3 jaar een bruikbaar ontwerp neerzetten is extreem snel waar menigeen met een schuin oog naar toe zal kijken.
ARM is begonnen met niche markt en heeft nu de mobile computing markt in handen.
Apple is relatief van nul begonnen met een talentvolle groep (hadden een powerpc computing bedrijf gekocht die dan ARM designs zijn beginnen maken).

Het lijkt dus best een goede move om een relatief onmature markt die gedoemd is om te exploderen zoals automotive van chips te willen voorzien, dat kan voor de cashflow zorgen die nodig is om relevant te worden in andere markten.
Apple is relatief van nul begonnen met een talentvolle groep
Apple is op het moment dat ARM geboren werd met ze in zee gegaan.... Advanced RISC Machines Ltd (nu ARM) was een joint venture met Acorn, Apple en VLSI. Het eerste Apple product met een ARM cpu kwam drie jaar na de oprichting, de Newton.
En wat hebben ze erna mee gedaan? Niet veel. De dienst die hun processoren nu ontwerpt is relatief van nul gestart.
het is niet omdat er dingen in hun kast liggen van 20jaar geleden dat ze al twintig jaar aan die ontwerpen aan het werken zijn.

Ze hebben in 2008 PASemi opgekocht net om hun eigen ARM designs te maken ipv een standaard ARM core. In 2010 hebben ze hun eerste eigen design op de markt gebracht.
Als ze binnen enkele jaren een risc-v kunnen ontwerpen die ook maar in de buurt komt van die 'ouderwetse heethoofden' zou ik zeer onder de indruk zijn.

Apple is al vanaf de jaren 90 bezig met eigen CPU ontwerpen (de A in de AIM groep die de PPC cpus ontwierp, ook mede oprichter van ARM). Dat ze met die A# en M# chips de concurrentie aftroeven is niet iets wat ze eventjes vanuit het niets gedaan hebben in het afgelopen decennium.
Dat talent hebben ze in 2008 gekocht. Ze zijn niet al sinds de jaren 90bezig met hun eigen designs, ze kochten pre-2010 hun cores gewoon bij ARM.
We hadden natuurlijk ARM. En daar draait zo'n beetje de wereld op. Maar ARM is niet meer "van ons" dus is het goed om een alternatief te hebben.
En als je ziet wat voor ellende we hebben doordat "kleine" chips niet leverbaar zijn, dan weet je dat het niet altijd gaat om "de snelste en mooiste".
Maar ook om die simpeler MCU's waarvan er tientallen in elke auto zitten, of die in je slimme peertje en zo aantreft.
80 mln is natuurlijk peanuts voor de eu. In ieder geval is het belangrijk om dit soort initiatieven te organiseren. Niet geschoten is altijd mis.
Waarom zet je zo'n ontzettend negatieve reactie hier neer?
Daar is een heel goede reden voor. Deze persoon is een Wintel adept en ziet het niet graag gebeuren dat er hardware ontwikkeld en gebruikt wordt die niet van deze bedrijven afkomt, ook al is dat vooral in de wereld van supercomputers de realiteit.
“European Processor Initiative”
> heeft ARM cores die sowieso alleen onder licentie gemaakt mogen worden en wellicht in Amerikaanse handen valt.

Als ze niet voor consumenten zijn bedoeld en voor hun succes niet afhankelijk zijn van Windows, waarom zijn ze dan niet bij RISC V gebleven? Dan zit je nooit met buitenlandse afhankelijkheden.
En dan ook nog met productie in Taiwan.

Voelt weinig Europees aan.
Tja, je zal eerst hier een fab moeten bouwen voor het hier kan.
Laten we het stapje voor stapje doen; Rome is niet in één dag gebouwd, de hegemonie van de VS en x86 ook niet, dus het lijkt me niet realistisch om te verwachten dat de EU wel in één klap alles uit de grond stampt. Een moderne fab kost tien miljard (ja, miljard, niet miljoen). Dus laten we even wachten met de bouw daarvan totdat we helder hebben wat het precies moet worden.
Jammer van die "arm cores", dat geeft later weer veel licentie gedoe. Was de techniek niet vergevorderd genoeg om alles op RISC-V te baseren? Dit was ook makkelijker geweest voor daarop ontwikkelde OS-en. Nu wordt het weer zo'n ingewikkelde hybride platform.

[Reactie gewijzigd door janbaarda op 22 juli 2024 23:07]

>Europese chips
>Productie door TSMC

Iets klinkt hier niet helemaal 100% :)
Volgens dezelfde logica zijn Apple's SOC's en processors ook niet Amerikaans. Ontwerp en productie van chips is iets dat compleet onafhankelijk van elkaar kan ontwikkeld worden, dus het houdt steek dat ze nu al processorontwerpen doen terwijl ze nog bezig zijn met productiecapaciteit te bouwen.
Want je verwacht dat ze eerst een fabriek uit de grond stampen en daarna eens gaan kijken hoe die chip er uit moet zien?

Het lijkt me logisch dat het een proces is, je kunt niet in 1x van niks naar volledige controle over de supply chain.
Voor zoveel miljard kunnen ze toch wel een fabriek uit de grond stampen? We hebben zelf ASML
Het is natuurlijk allemaal een goed plan en leuk dat ze wat hebben voor HPC. Maar wanneer komen ze met iets voor de desktop?

Ik realiseer mij dat dit mogelijk niet economisch is. Maar als je echt onafhankelijk wil zijn dan heb je iets nodig dat (bij een ramp/oorlog etc) het wegvallen van intel en AMD kan compenseren. Je grootste markt en is dan de consument en het gewone bedrijfsleven. Als die niet meer door kunnen heb je ook niets aan HPC. Want er is niemand die er mee kan praten vanaf zijn eigen EU computertje.
Dat wilde ik ook in een reactie plaatsen. Misschien gaan ze ervan uit dat mensen hardware van derde partijen gebruiken voor clients, maar het zou goed zijn, als ze op zijn minst een platform voor ontwikkelaars beschikbaar maken.
Desktop (consumenten) processors zijn voor zover ik weet nog niet gepland, maar zullen vast ooit komen.
Consumenten zijn erg geneigd om ofwel de veilige, ofwel de goedkope route te kiezen.
Een nieuwe microcontroller van een onbekend merk zonder reputatie zou ook niet mijn eerste keuze zijn.
Met hpc gebruikers worden afspraken over prestaties gemaakt, en het is best denkbaar dat een groot systeem na een bepaalde tijd nog een upgrade krijgt. Bij consumenten lukt dat niet.
Als consument zul je nog vijf tot tien jaar geduld moeten hebben vrees ik.
Consumenten zijn erg geneigd om ofwel de veilige, ofwel de goedkope route te kiezen.
Daarom stelde ik al dat het niet economisch zou zijn. Echter als je stelt dat we dit doen om onafhankelijk te zijn in het geval van internationale problemen dan zou dat niet een argument moeten zijn. Als je namelijk pas gaat beginnen als er vraag is dan ben je al te laat. Zeker in een crisis.

Dus zelfs als de adoptie laag is dan vind ik nog dat je een ontwerp moet hebben. Van mijn part maken ze er iets RPI achtigs van. Of de nieuwe BBC master. Stop scholen er vol mee. Maar zonder consumenten ontwerp zijn we gewoon nog steeds volledig afhankelijk van anderen op dit gebied.
AuteurAverageNL Nieuwsredacteur @Flippi26 december 2021 12:01
Inderdaad - aanvankelijk stond er 'voltooit de eerste fase van zijn project', maar ik heb die zin later gewijzigd naar de voltooide tijd (en 'voltooit' onverhoopt laten staan). Het is inmiddels aangepast :)

Op dit item kan niet meer gereageerd worden.