Voormalige chipontwerpers van Apple halen 53 miljoen dollar op met nieuw bedrijf

Drie chipontwerpers die jarenlang bij Apple hebben gewerkt aan socs zijn een eigen bedrijf gestart. Het bedrijf heet Nuvia en heeft inmiddels al 53 miljoen dollar aan investeringen binnengehaald. Het bedrijf werkt aan een processor voor servers onder de naam Phoenix.

Nuvia is begin dit jaar opgericht door Gerard Williams III, Manu Gulati en John Bruno. Eerstgenoemde was de hoofdontwerper van Apple-socs vanaf de A7 tot de A12X. Hij werkte negen jaar voor Apple. Gulati en Bruno werkten respectievelijk acht en vijf jaar bij Apple aan socs.

De oprichting van het nieuwe bedrijf was tot nu toe nog niet bekendgemaakt. Nuvia heeft de afgelopen tijd investeerders gezocht. De eerste investeringsronde is afgesloten met een opbrengst van 53 miljoen dollar. Onder andere Dell Technologies Capital investeert in Nuvia.

Het bedrijf zegt tegen Reuters dat met het geld het aantal werknemers wordt uitgebreid. Nu zijn dat er nog zestig, eind dit jaar moeten dat er honderd zijn. Het doel van Nuvia is om efficiënte processors te ontwikkelen voor servers. De chipmakers hebben veel expertise als het aankomt om het ontwerpen van zuinige chips voor smartphones en willen dat doortrekken naar grotere chips voor datacenters. Wanneer Nuvia zijn eerste processor uit wil brengen, is nog niet bekend.

De drie oprichters van Nuvia zijn allemaal prominente chipontwerpers. Gerard Williams III, de ceo van het nieuwe bedrijf, begon zijn carrière in 1995 als stagiair bij Intel. Later werkte hij voor Texas Instruments en ARM, voordat hij bij Apple aan de slag ging. Manu Gulati werkte bij AMD, Broadcom, Apple en Google. Bij de zoekgigant werd hij in 2017 aangenomen als lead soc architect. John Bruno begon bij gpu-maker ATI en werkte later bij AMD aan apu's. Daarna werkte hij vijf jaar bij Apple en een jaar bij het hardwareteam van Google.

Door Julian Huijbregts

Nieuwsredacteur

18-11-2019 • 15:33

51 Linkedin

Reacties (51)

51
50
17
5
0
28
Wijzig sortering
Als dit wat wordt, betekent dat een grote klap voor Intel!
De vraag is of de markt zit te wachten op een nieuwe architectuur.
intel z'n Itanium avontuur is uitgedraaid op een ramp (al gaan ze dat nooit toegeven) omdat x86-64 goedkoper was om te implementeren.
Uitgezonderd specifieke toepassingen zie ik ARM (nog) geen potten breken, Power9 doet het bij mijn weten nu ook niet zo goed.
Ik denk dat het eerder AMD is die met z'n EPYC platform het intel moeilijk maakt.
Het is geen nieuwe architectuur, het bestaat al enige tijd, en Windows en Linux draaien er ook al op.
Over welke architectuur heb je het?
Ik lees in het artikel niets over een nieuwe architectuur. Alleen over een efficiënter chip ontwerp. Het 1 sluit het ander niet uit, dat zeker...

Vergeet niet, het veruit meest trage stuk in een CPU is de onderlinge (koper) draadjes tussen de individuele transistors.Als ze dat alleen al weten te verminderen heb je al heel snel een efficiëntere CPU en blijft de architectuur nog gewoon hetzelfde.

Ze zouden overigens niet de eerste zijn.https://insidehpc.com/2018/05/new-tachyum-prodigy-chip-10x-performance-conventional-processors/
Over welke architectuur heb je het?
De ARM architectuur.

We hebben nu min of meer 2 moderne architecturen:
- Intel x64 (eigenlijk is dat de 64 bits extensies van AMD op de x86 basis van Intel), zit veel in desktops en laptops;
- ARM (zit in bijna alle devices).
Ik lees in het artikel niets over een nieuwe architectuur. Alleen over een efficiënter chip ontwerp. Het 1 sluit het ander niet uit, dat zeker...
Ik verwacht dat ze de ARM architectuur als basis nemen (energiezuinig doet het ook goed in het rekencentrum, koeling is daar een probleem) en deze optimaliseren voor servers. Net zoals Apple met z'n ARM gebaseerde A SoC's voor mobiel heeft gedaan. Een andere optie kan zijn om de x64 instructieset op een ARM-achtig chipontwerp te bouwen. En daar houden de opties niet op. Maar ik verwacht dat het ARM gebaseerd zal zijn.
Vergeet niet, het veruit meest trage stuk in een CPU is de onderlinge (koper) draadjes tussen de individuele transistors.Als ze dat alleen al weten te verminderen heb je al heel snel een efficiëntere CPU en blijft de architectuur nog gewoon hetzelfde.
Door miniaturisatie heb je minder koper, kun je volstaan met lagere voltages, wordt de chip minder warm, heb je minder weerstand op de chip, waardoor het minder energie in warmte omzet, ..., en het cirkeltje is rond. Daar valt inderdaad winst te behalen.

Maar servers hebben vaak een Intel chip aan boord, een Xeon. Deze kunnen warm worden. Een A13 van Apple doet meer berekeningen op een Watt dan een Xeon van Intel, en dat met dezelfde grootte van transistors.
Ze zouden overigens niet de eerste zijn.https://insidehpc.com/2018/05/new-tachyum-prodigy-chip-10x-performance-conventional-processors/
Een "general purpose GPU"... Deze technologie is onmisbaar voor supercomputing, wil je deze beloofde factor 10 winst halen met bv Windows of macOS applicaties, dan moeten die helemaal opnieuw ontworpen worden. Maar dat zou niet eens verkeerd zijn, eigenlijk is het triest dat het onder Windows 10 nog mogelijk is om Windows 3.11 programma's te draaien. Dat lijk een voordeel, maar dat is het niet: Windows is daardoor te log en te groot, het draagt teveel legacy mee.
Door miniaturisatie heb je minder koper, kun je volstaan met lagere voltages, wordt de chip minder warm, heb je minder weerstand op de chip, waardoor het minder energie in warmte omzet, ..., en het cirkeltje is rond. Daar valt inderdaad winst te behalen.
Nee, niet meer. Of meer precies, niet meer zoveel als toen de transistors nog letterlijk 100x zo groot waren. Ze zitten nu behoorlijk tegen de limieten van koper aan en verkleinen geeft relatief gezien steeds meer weerstand door de inefficiëntie van koper op dat niveau.

Een echte oplossing op dat niveau is "Superconductivity" (oftewel, stroom geleiden zonder weerstand.. in een zeer versimpelde notendop). Graphene zou hier best is de toekomst kunnen zijn maar sluit stanene ook zeker niet uit!

Moraal van dit verhaal. Jaren hebben de CPU boeren hun winst kunnen halen door het verkleinen van de chip. Nu zitten ze op de limieten van koper en gaat het niet meer zo makkelijk. Het hele cpu ontwerp herzien om zo weinig mogelijk koper te gebruiken is waar ze nu - denk ik - relatief makkelijk veel winst kunnen halen en geen verdere verkleining nodig is. De volgende stap is waarschijnlijk koper vervangen.
Kan het niet zien.
https://www.prnewswire.co...ingle-chip-300958743.html wel :)

Niet alleen de CPU moet anders. Ook het geheugen moet veeeeeeeeel efficienter worden. Die loopt nu relatief ver achter. Een CPU wacht een zeer groot gedeelte (was het 90%?) van zijn tijd (busy-wait-loop, zie jij als 100% cpu belasting) op data van het geheugen (de bekende latencies).
De markt zit altijd te wachten op meer concurrentie en aangezien er geen nieuwe licenties voor x86-64 (en extensies zoals SSE en AVX) worden vrijgegeven, zul je als chipontwerper wel een andere instructieset moeten implementeren.

Het zou juist te gek voor woorden zijn, als x86-64 de allerlaatste ontwikkeling zou zijn op het gebied van instructiesets. Dat is dus duidelijk niet het geval, zoals ook blijkt uit de opkomst van ARM, RISC-V en de eveneens weer groeiende interesse in POWER en MIPS. Ik heb ook sinds 2016 geen nieuwe apparaten met Intel of AMD chips aangeschaft, maar juist wel ARM en POWER.

Ze draaien allemaal dezelfde Linuxdistributies en werken ook vrijwel hetzelfde. Ik zou zeggen dat de software nu nog beter draait dan 2 jaar geleden, doordat veel meer ontwikkelaars machines met ARM en POWER chips als desktop gebruiken. Bij WIndows ligt dit anders, maar daar liggen andere problemen aan ten grondslag.
Ik heb ook sinds 2016 geen nieuwe apparaten met Intel of AMD chips aangeschaft, maar juist wel ARM en POWER.
Nou, ik wel AMD64. De Ryzen 3000 serie biedt veel waar voor haar geld!
Dit plus het feit dat RISC-V ISA een groot aantal aanhangers heeft (grote namen). Dus naast de gevestigde orde (ARM -risk, x86 etc) heb je nu opensource (o.a. Risc-V) en nu een startup die denkt dat hij iets anders kan brengen dan wat er al is en nog gaat komen. Dan mag je van een goede bloedlijn komen om deze race te winnen.
Het voor en nadeel van Risc-V is dat het compleet opensource is. Hierdoor is het een kwestie van tijd voordat het ge-forked wordt. Dat geeft weer meer kans op een allerlei variaties van instructiesets die met niet compatibel zijn.
Het is wel een voordeel maar hoeft geen nadeel te zijn aangezien het niet opensource hoeft te zijn, maar dat is wat anders. Maar omdat het open is kan software (in neem even telefoons als makkelijk voorbeeld) gewoon geport worden naar de betreffende cpu. En met een qualcomm of exynos zit je vast aan wat de fabrikant ondersteund. Dus al heb je een verschillende fork denk ik A dat de fork waarschijnlijk in een ander vakgebied zit (servers vs mobiel) of B de fork zeer dichtstaat bij de bron en dat een fork waarschijnlijk voor een zeer specifiek geval en door een specifiek bedrijf wordt gemaakt.
ik denk dat je het daar goed mis hebt, ARM is voor wat ik ervan begrijp een relatief eenvoudige architectuur die heel wat power voor heel weinig stroom levert.

Ik zou me bijvoorbeeld heel goed kunnen voorstellen dat een clustertje van 6 rasberry pi's al heel wat meer relatief simpele taken (zoals eenvoudige webservers) kunnen verrichten dan een enkele core i7 terwijl ze ongeveer even veel stroom verbruiken. wanneer je die ARM chips NOG wat meer optimaliseert en je zomaar 32+ cores op een chip zet en meerdere chips op een mainboard dan heb je voor je het weet een webserver(cluster) in een 1u doos met de power van een half rack aan reguliere server harware. pas wanneer je ingewikkeldere taken (zoals databases) en zoek-machine- taken gaat inzetten kom je uit bij andere merken en typen zoals x86, en Power8/9 om dat dergelijke processen veel ingewikkeldere instructies gebruiken.

[Reactie gewijzigd door i-chat op 18 november 2019 17:47]

Of ze worden gekocht door Intel...
Of ze worden gekocht door Intel...
Of door AMD, GOOGLE/ALFABET, Facebook, Microsoft of gewoon weer door Apple.
Wat denk je van de grootste chipfabrikant ter wereld Samsung?
Mwa Samsung heeft al aangegeven te stoppen met zelfontworpen SOC's

https://www.anandtech.com...se-custom-cpu-development

Dus Als Samsung ze koopt gaan ze dus "weer" eigen chips maken en dat is net waar Samsung mee gestopt is. Dus ik zou er niet vanuit gaan dat Samsung hier überhaupt over na denkt.
Ze ontwerpen ze niet zelf, maar stappen over op de ARM-licentie en blijven ze wel maken.

En als een concurrent te groot dreigt te worden is een overname ook door Samsung aannamelijk.
Mwa daar zou ik niet 1-2-3 vanuit gaan. ARM zou paar jaar geleden ook de klap zijn geweest voor intel en de servermarkt overnemen en dat is ook nog steeds niet gebeurt.

Laat Nuvia nu eerst maar eens een Chip ontwikkelen of überhaupt een MVP (Minimum Viable Product) voordat we ons weer te rijk gaan rekenen en dit bedrijf gaan over hypen.

Neemt niet weg dat ik dit juist een goed plan vind en het top vind dat er nog mensen proberen een chip startup te beginnen.
Transmeta Crusoe was ook geen succes.
Leg eens uit?

Voor deze gasten te groot worden, komt er een vijandige overname van Intel. Bedenk even hoe enorm groot en rijk Intel is.
Hoezo vijandig?

Kan ook best zijn dat de hele insteek niet is om intel naar de kroon te steken maar om een paar jaar aan een heel gaaf project te werken (en dit zijn duidelijk chipontwerpers in hart en nieren dus ik ga ervan uit dat ze dit project gaaf vinden) en stinkend rijk te worden doordat intel of een andere partij de boel opkoopt.

Ze zouden de eerste startup niet zijn met zo’n businessplan en ik geef ze geen ongelijk als het zo is.
Leg eens uit?
Intel heeft nu de servermarkt in handen.
Intel heeft alles te verliezen, ze kunnen niks winnen.
Alles is te koop. niet alles is vijandig te koop.
Afhankelijk van hoe ze dit bedrijf opgezet hebben is het misschien niet mogelijk een vijandig bod te doen.

Deze heren hebben met hun werkverleden vast hele goede contacten binnen de grote techbedrijven, maar toch kiezen ze ervoor zelf een bedrijf op te zetten. Kan me voorstellen dat ze dit bewust doen en dus juist niet zomaar overgenomen willen worden door een bedrijf die opeens een andere koers vaart dan ze zelf willen.
Denk niet dat ze het lang overleven zonder dat ze zich echt richten op één specifieke markt of product, vooral niet tegenover de grote jongens.
Dat doen ze toch ook? Efficiënte chips voor servers. Beetje zoals Annapurna labs ook doet.
Zeker waar, maar servers, en daar denk ik nu persoonlijk misschien aan het verkeerde soort server, is in principe het domein van Intel op het moment. En als je al een heel systeem van 1 soort is, waarom veranderen naar een ander, onbewezen, architectuur?

Dus ik hoop echt dat er een sponsor komt die het eerste stapje zet.
nVidia biedt inmiddels de mogelijkheid om te virtualiseren op een GPU. Ook geen Intel voorbehouden rol meer dus.

https://www.nvidia.com/en-us/data-center/vmware/

De prominenten rol van server CPU’s is dus al aan het veranderen. Een energiezuinige SOC die hierin een plek vindt kan dus prima bestaan. Het is sowieso een novel streven om wat aan het energieverbruik van servers en netwerkinfra te doen: al die kattenplaatjes en Tiktok filmpjes kosten een extreme hoeveelheid energie ondertussen.
ARM servers voor bepaalde web diensten zoals HTTP server, hebben denk ik wel een toekomst. Zeker in Kubernetes of ander cloudformation toepassingen.

Stel dat je voor het stroom verbruik van 1 intel server, 50 ARM based machines in de lucht kunt hebben die meer requests per seconden kunnen uitvoeren. Dan is daar zeker een markt voor te vinden.
Stel dat je voor het stroom verbruik van 1 intel server, 50 ARM based machines in de lucht kunt hebben die meer requests per seconden kunnen uitvoeren. Dan is daar zeker een markt voor te vinden.
Maar dan moet je wel een heel sterk voorstellingsvermogen hebben. Ja, dit is het verhaal wat al jaren rond gaat maar de praktijk is nogsteeds dat ARM hier geen deuk in een pakje boter slaat.

Nog sterker; de architectuur van GPUs is vele malen beter geschikt voor dit soort toepassingen. Ik verwacht eerder dat nVidia of AMD hier Intel voorbij zullen streven dan dat ARM dat zal doen.
Prijs/prestatie verhouding is ook een belangrijk argument. Een naar of 2 geleden was ThunderX2 ongeveer half zo duur als een vergelijkbaar Xeon systeem. Ondertussen zitten Intel en AMD ook niet stil dus de concurrentie neemt op diverse toe, wat natuurlijk goed nieuws is voor consumenten en klanten.
Als je een architectuur levert die meer performance per watt levert is daar zeker wel een markt voor. Op steeds meer plekken loop je tegen de beperkingen van de huidige systemen op. Stel je voor dat je DC kunt bouwen dat de helft energie vraagt dan zijn de bouwstops zoals o.a. in Amsterdam nu plaats vinden overbodig. Dan kan je gewoon DCs bouwen daar waar de gebruikers zitten.
Ik zou me wat meer inlezen waarom de Ax cores zo snel zijn, het is niet enkel cache.
Bijvoorbeeld op Andandtech staat interessante info:
https://www.anandtech.com...e-11-pro-and-max-review/2
Dus? Als het zo simpel is, waarom doen anderen dan niet hetzelfde?
Oh ik dacht dat een hele architectuur in combinatie met software was en dat specialisten daar best veel over geschreven hebben. Blijkt t gewoon meer cache te zijn en geen andere ontwerper die dat ooit bedacht heeft.

Bedankt voor deze heldere uitleg. |:(
Zouden dit geen processors worden voor de cloud diensten van Apple, zoals Apple TV, iCloud, Music etc?
Zullen ze nieuwe chiptechnologie moeten gebruiken ivm eventuele patentschendingen bij Apple?
Die specifieke patenten zullen ze vast voor betalen om het wel te gebruiken, zelfde met patenten van andere chip ontwerpers.
Kom T-net, dat is toch een meer Click-bait'y titel dan ik van jullie gewend ben. Pas in de laatste paragraaf wordt duidelijk dat de drie heren niet zozeer bij Apple aan chip ontwerpen hebben gedaan, maar daarvoor ook al. Zoals SemiAccurate het berichtte:
The three founders are John Bruno, Manu Gulati, and Gerard Williams III, and all come with pedigrees from companies who’s chips have changed the game. Previously the founders have worked for Google, Apple, ARM, Broadcom, and AMD on projects that you are quite aware of and probably think well of.
Lang voordat ze bij Apple werkten hebben ze al spreekwoordelijk grond gelegd als het gaat over chips.
Het is toch niet misstaand? De rode draad tussen hun is dat ze allemaal bij apple gewerkt hebben, dat naast het feit dat apple qua omzet het grootste electronica bedrijf ter wereld is, is imo genoeg reden om de titel op deze manier op te stellen.

Vind het wel terecht dat de verdere werk geschiedenis ook genoemd wordt, laat duidelijk zien hoeveel ervaring ze iedergeval hebben.
Het is inderdaad weer een kop met een hoog clickbait gehalte. Als het nu de huidige designtop van Apple was die was opgestapt voor iets nieuws, dan had het nieuwswaarde. Zoals ik het nu lees hebben ze alle 3 toevallig ooit bij Apple gewerkt.

Je zou het ook zo kunnen interpreteren dat Apple zo'n goed bedrijf is dat alle topontwerpers daar ooit gewerkt hebben.
Wat een bijzonder slecht gekozen bedrijfsnaam. Gezien de semi-gerelateerde bedrijfsactiviteiten is denk ik Nvidia merktechnisch verplicht om langs juridische weg hier een stokje voor te steken. Niet slim.
Nuvia = New VIA.

En als je nog weet wie VIA is/was, dan vallen de puzzelstukjes op z'n plek.
Vanuit die hoek bekeken harstikke leuk, maar als ik een mooie naamsgeschiedenis heb voor de naam Popsi en in de sinaasfrisdrankbusiness stap krijg ik desondanks gewoon een juridische brief van Pepsi.

Ook als Nvidia gewoon sympathie zou voelen voor Nuvia hebben ze de plicht om op te treden om de merknaam te verdedigen.
Als VIA nou nooit bestaan had dan zou er heel misschien nog iets te zeggen zijn voor je argument.

Echt maar een heel klein beetje dan, want niemand zal onomstotelijk kunnen aantonen dat Nu-Vie-Ja dusdanig veel lijkt op En-Vie-Die-Ja dat er die eerste meelift op naamsbekendheid van de tweede.

Er zit qua klank toch echt heel wat meer verschil in dan jou voorbeeld Pepsi/Popsi.
Zijn er niet honderden miljoenen nodig om een chip te ontwerpen? Anders snap ik niet waarom een Google en Amazon er niet aan begonnen zijn om hun vele datacenters van zuinige chips te voorzien. Het zijn gasten met een indrukwekkende CV en de A serie chips maken jaren enorm veel indruk met hun zuinigheid en performance, maar volgens mij beginnen zij echt aan een onmogelijke klus.
Ik bedoel, kijk maar naar Apple die een eigen 5G modem willen ontwikkelen terwijl zij de Intel modem divisie hebben overgenomen. Een onmogelijk klus is het niet, de knowhow is er dus en Apple schijnt wel wat stuivers op hun bank te hebben staan, en toch hoor je dat ze heel veel tijd en uiteraard heel veel geld nodig zullen hebben om eentje op de markt te kunnen brengen.
Als het alleen geld was dan was het een ding, maar elk jaar word het weer iets moeilijker om door het patent oerwoud heen te komen. Met Apple niet de minste oorzaak, hebben nogal een handje in het opgooien van wegversperringen.

Ik denk niet dat iets vergelijkbaar als wat Apple met Intrinsity binnen haalde vandaag de dag nog mogelijk is.
Apple laat hen gaan, als 't af is, kopen ze dat bedrijfje terug op - en heeft men een oplossing. Het risico - 0$.
Project Phoenix. Echt zo'n cliché naam. -_-

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee