'Nvidia introduceert in september 2025 een op Arm gebaseerd platform voor pc’s'

Nvidia zou in september 2025 een nieuw chipplatform voor pc willen introduceren, met op Arm gebaseerde cpu’s en gpu’s. Het platform zou volgens DigiTimes op de high-end markt gericht zijn en voor sommige producten zou het bedrijf een samenwerking aangaan met MediaTek.

In de berichtgeving van DigiTimes is volgens Tom’s Hardware te lezen dat er in maart 2026 een commerciële release zal volgen. Het is niet duidelijk of het dan gaat om dezelfde chips, of om een uitbreiding van het platform met chips voor de zakelijke markt. Die markt wordt volgens Tom’s Hardware ook vermeld.

Het nieuwe platform zal uitsluitend op Windows-pc’s gericht zijn en de chips zullen gebaseerd zijn op ontwerpen van Nvidia. Het is niet de eerste keer dat er geruchten de ronde doen over de ontwikkeling van Arm-processors door Nvidia. Eind 2023 schreef persagentschap Reuters dat Nvidia was begonnen met het ontwerpen van Arm-processors die Windows kunnen draaien. AMD was toen naar verluidt hetzelfde aan het doen. Reuters meldde toen ook dat Qualcomm tot 2024 een exclusieve overeenkomst met Microsoft heeft om Arm-socs voor Windows te maken. Nvidia heeft op het moment van schrijven nog niet gereageerd op de geruchten.

Door Jay Stout

Redacteur

04-11-2024 • 14:19

84

Lees meer

Reacties (84)

Sorteer op:

Weergave:

Ik vind het artikel wat onduidelijk. Windows kan al jaren op ARM processoren draaien. De enige vereisten zijn 64 bit, minimaal dual core, 1 GHz en op de lijst van compatible CPUs van Microsoft. Daarnaast ontwerpt nVidia al jaren ARM processoren voor een platform, namelijk hun Tegra-lijn, waarvan de Tegra X1 de bekendste is (Nintendo Switch en Shield TV). Het is allemaal niet nieuw. Windows draait gewoon op hun Tegra platform, zelfs op de oude Tegra X1 van de Nintendo Switch (niet snel, maar dat is niet mijn punt)

https://www.notebookcheck...arely-works.838049.0.html

Het is niet dat ze helemaal vanaf nul moeten beginnen ofzo. Wat mis ik hier?
Dit worden nieuwe cpu's en gpu's, wat tezamen een platform genoemd wordt. Dus het is allemaal wel nieuw, in principe. De architectuur natuurlijk niet, het OS niet, maar de chips wel.
Als ik het goed begrijp wordt de volgende iteratie van hun Tegra platform, wat misschien onder een nieuwe naam wordt uitgebracht en bedoeld is voor PCs, gezien als "nieuw"? Want anders is er sprake van contradictio in terminis, snap je? Ze hebben namelijk al een bestaand platform dat Windows kan draaien en niet eens alleen in theorie.

Ik heb tijdens mijn studie dingen moeten afleren, zoals iteraties zien als nieuw als het toch (grotendeels) hetzelfde is gebleven, maar dan meer, sneller en groter. Juist vooral wanneer het aankomt op architectuur en netwerken. Ik zal er wel te diep inzitten, denk ik.
Dus als je goed begrijp, dan begaat AMD volgens jou in de link hieronder dezelfde fout? Immers, wat ze presenteren is nog altijd het bestaande x86-based spul.

https://www.amd.com/en/pa...cket-am5-change-game.html
Fout zou ik het niet willen noemen, maar volgens een docent die ik gehad heb zou je flink gepakt zijn door de marketing afdeling van AMD. De realiteit is bijvoorbeeld met de x86 processoren van nu dat de architectuur maar voor 30 procent verschilt ten opzichte van de Intel 8086. Als je daar enigszins moeite mee hebt, dan hebben ze je juist te pakken. Dan hebben ze je.
Echt nieuw is bijna altijd vervelend, dan kan je namelijk (vrijwel) niets hergebruiken en is je ervaring ineens ook minder waard! Stel je voor dat Lego elke 10 jaar met een nieuw verbindingssysteem zou komen die echt niet past op de huidige steentjes... Ze hebben het ooit geprobeerd (ZNAP), bijna failliet toen.
Als grootste (duurste) bedrijf ter wereld wil Nvidia nu wellicht ook cpu dominantie. Dit kan het begin van het einde van Intel en Amd betekenen.
Er zijn twee redenen waarom je zo zou kunnen redeneren:
  • Nvidia heeft enorm veel geld om ertegenaan te gooien en de naamsbekendheid om mensen te misleiden Nvidia CPU's te kopen (hype).
  • De algemene mentaliteit bestaat dat ARM beter is dan x86.
Echter is het niet gemakkelijk om een CPU te ontwikkelen als GPU producent (en andersom). Daar is Intel ook achter gekomen met hun lange geschiedenis met GPU's. De enige reden waarom AMD (CPU producent) GPU's maakt is omdat ze lang geleden ATI (GPU producent) hebben overgenomen, en zelfs dat ging bijna mis.

Maar Intel en AMD voelen de hete adem heus wel. Ook al is het niet per sé waar, de "narrative" is dat ARM beter is dan x86, dus daarom zijn ze ook gaan samenwerken om het te harmoniseren.

[Reactie gewijzigd door Memori op 4 november 2024 14:52]

x86 is van 1978, ARM van 1983, ze bestaan al zo ontzettend lang naast elkaar dat het inmiddels wel duidelijk is dat het niet de instructieset is die de performance of verbruik bepaalt.
Kleine correctie; de originele ARM instructieset dateert van 1985 met de komst van ARM1, ontwikkeld door het Britse Acorn Computers Ltd. Met de komst van ARM2 werd deze in hun eigen Archimedes homecomputer benut, dat draaide op het eigen Arthur (later RISC OS) besturingssysteem. Zodoende introduceerde Acorn in 1987 's werelds eerste 32-bits personal computer op basis van RISC architectuur.

Sindsdien is de ARM instructieset drastisch gemoderniseerd, waarbij deze veel minder rekening hoefde te houden met ondersteuning van oude instructies, dat met de x86 architectuur meer het geval is. Historisch heeft de ARM architectuur altijd hogere prestaties bij (veel) lager energieverbruik kunnen leveren dan de x86 architectuur. Dat verklaart met name het immense succes bij draagbare apparatuur en ingebedde toepassingen. Apple verkoos daarom al ARM6 voor hun Newton PDA in 1993.
Dat is alleen niet aan de instructieset, maar aan de processor architectuur die ermee is gemaakt. Je kan zuinige en onzuinige RISC chips maken, net zoals je zuinige en onzuinige x86 chips kan maken. De ISD is maar zo'n klein stukje silicon, de impact op het stroomverbruik is ontzettend klein.
Historisch heeft de ARM architectuur altijd hogere prestaties bij (veel) lager energieverbruik kunnen leveren dan de x86 architectuur.
Maar kan je op basis hiervan concluderen dat een 'perfecte' implementatie van ARM altijd per definitie efficiënter zal zijn dan een 'perfecte' implementatie van x86?

Deze vraag loop al jaren mee rond en ik lees nooit een volledig overtuigende conclusie. Er moet toch een antwoord bestaan op deze vraag.
Kijk dan naar cloud providers zoals Amazon. Ruim 20% van hun infrastructuur draait nu op ARM en als jij kiest voor ARM krijg je bij hun meer snelheid voor minder dollars.

Ze hebben ook gedocumenteerd voor welk type workload ARM (Graviton bij AWS) efficiënter is:
https://aws.amazon.com/ec...filter-workload-tags=*all

Ze hebben naar hun eigen ARM CPU's ook een beetje Qualcomm:
https://aws.amazon.com/ec...filter-workload-tags=*all

Meer details over ARM64:
https://aws.amazon.com/ec2/graviton/

Ik gebruik het nu al jaren zowel zakelijk (honderdduizenden instances) als privé (tot iets meer dan duizend tegelijk).

[Reactie gewijzigd door djwice op 4 november 2024 21:45]

zij het dat arm haar instructies kan veranderen zonder dat ze backward compatibiliteit hoeven te garanderen afgelopen jaren.
dus ARM kan wel uit 1983 bestaan maar dat is die instructie set niet.
Idem met x86, dat zijn inmiddels ook allang niet meer enkel de instructies uit 1978. De hele structuur is allang volledig op de schop gegaan, micro-ops etc.
Maar niet zoals ARM die geen compatible hoeft te zijn.
Wereld van verschil tussen die 2.
X86 kijg je extenties.
Arm voor massa productie IOT ding kan instructie delen schrappen zelf FPU of SIMD
Dat zijn vaak stage 1 2 6 MCU MPU architecturen die fractie hebben van ARM instructie set.
Bij x86 is embeded nog altijd full AMD64 intel of AMD CPU.
Bij ARM MCU MPU CPU waar deel van de intructie zet hebt.
STM32 core zal hoop missen wat X-elite of M-soc core heeft. Veel minder stages veel oudere node en veel lagere klok heel kleine die enkele watt.
Niet dus, en da's precies het probleem.
Je kan alle x86 chips nog steeds gebruiken om stokoude software te draaien.
Je hebt natuurlijk driver problemen, maar de CPU zelf kan het... Waarom? Wie weet
Denk maar aan de MMX instructies op de Pentium processoren. Special voor multimedia (aldus Intel).
Wel natuurlijk met de kanttekening dat Nvidia al jaren cpu's maakt, denk aan de SoC in de shield die al jaren lang zeer populair is, de SoC voor de Switch, diverse automotive systemen, de Grace chips e.d. en noem maar op. Het is dus niet zo dat ze pas net instappen op de cpu markt.
NVIDIA voelt ook de hete adem van ARM.
Als Apple het aantal GPU cores verdubbeld in hun M5 is er geen reden meer voor data science om nog een Nvidia te kopen.
De reden dat gpu moeizaam is om in te stappen is dat met de tijd nv en amd driver veel meer is dan os api te koppelen tussen app en hardware. Maar dat exe opgevangen worden shsder code na detectie game het compileerd wordt. En nv begon met langs gaan bij dev om hun sdk framework te slijten. Amd moest volgen.
Dit speelde tijdens de producties van vele games. Die window of opertunity is er niet meer voor intel. Dus ouwe leem dx9 dx11 moeten ze zelf uitvogelen voor games van studio die niet meer bestaan. Naast dat ze ook de software stack boven op drivers moeten uitbouwen.
Cpu daarin tegen gaat intel niet langs de app makers om een framework door de strot te duwen. En daarmee is cpu merk introduceren een barrière minder.
Nu zal windows voor die arm gen dan ook moeten ondersteunen. Dus NV moet langs MS. Voor cpu support port.
Intel ligt op zijn kont,daar gaat dus niets vanuit.
Amd is een serieuze concurrent en zijn lekker bezig.
Hoe kom je bij misleiden , je koopt het op performance das voor iedereen duidelijk.
En of het makkelijk is zulen we maar aan nv overlaten denk ik.
Dan moeten ze wel genoeg CPUs kunnen maken om dominant te zijn. En ga je er bij voorbaat vanuit dat Intel en AMD niet in staat zijn daar iets tegen te doen.
Het succes van ARM is voornamelijk dat het 'bewijs' geleverd is dat een snelle CPU niet per se x86 hoeft te zijn en dat het niet handig is je volledig aan een architectuur vast te klampen. Maar dat betekent logisch gezien ook dat het net zo makkelijk is terug te switchen naar x86 als er processoren beschikbaar komen die beter aan de eisen voldoen...
Dat bewijs dat non-x86 chips ook snel kunnen zijn was er natuurlijk altijd al, POWER en SPARC hebben decennia lang geconcurreerd in de server markt.
Zo snel waren die twee helemaal niet, ze hadden alleen ondersteuning voor die tijd gigantische hoeveelheden geheugen en een fatsoenlijk OS. Dat was in de tijd dat desktops nog Windows 9x draaiden.
Toen zijn ze begonnen, maar POWER en SPARC zijn nog tot vrij recent competitief geweest hoor, allang niet meer in de jaren 90.
Dat ze doorontwikkeld zijn betekent niet dat het levensvatbare alternatieven zijn, hooguit dat je oude software met nieuwere hardware nog een tijdje door kan laten draaien om de levensduur wat op te rekken.
Power was bij G5 al niet meer competitief, Sparc nog net bij de Ultra 2. Niemand die later dan 2005 dergelijke CPU's aanschafte deed dat om meer performance voor minder geld te kopen.
De neergang kwam pas later hoor, de SPARC T5 was bv een beest van een chip. Maar: te duur.

Maar idd, uiteindelijk zijn alle RISC architecturen uit de servermarkt verdwenen (nVidia heeft redelijk recent nog geprobeerd om het POWER7/8 ecosysteem vlot te trekken, zonder veel succes), we zien nu pas na tien jaar met min of meer mislukte pogingen met low end serverchips weer succesvolle pogingen om met ARM langzaamaan uit de low end niche door te breken in het high-performance server segment van Intel en AMD.

Maar er is op zich geen reden waarom een ARM chip niet snel zou kunnen zijn, Apple laat dat al zien, en met het budget van nVidia moet het hen ook kunnen lukken.
De neergang kwam pas later hoor, de SPARC T5 was bv een beest van een chip. Maar: te duur.
Daar zit toch het hele probleem? Er waren destijds al x86 chips die veel meer performance voor minder geld leverden. Dat bedoel ik met 'niet competetief'.
Itanium IA64 Epic architectuur was in de heavy-tin markt de underdog en goedkopere oplossing dan veel zwaardere chips. Itanium heeft die markt opengebroken.
Toen kwam AMD64 wat groot legacy voordeel heeft en dat heeft itanium weer genekt.
Ook omdat MS halt heeft geroepen om een aparte intel x86-64 te ondersteunen.

Ik vermoed ook voor nvidia cpu succes en windows support zal nv cpu de qualcom instructie wat x-elite set moeten ondersteunen minimaal. Optioneel extra extenties daar boven op. Dan is cpu driver voldoende. Wijkt het af dat MS een port moet maken. Krijg je x86-64 vs AMD64 probleem. MS heeft geen zin in onnodige ports.
Je krijgt dus ARM instructie set familie voor windows. Waar MS in mee wil gaan.
Goed zijn in het ene betekent niet meteen winst in het andere.
Wie zegt dat ze het ontwerp helemaal alleen maken? Als ik NVDIA was zou ik of een partnerschap aangaan met een bestaande designer, de kennis inkopen (outsourced) of de mensen kopen.
Als er ooit een goed moment was om de dominantie van Intel aan te vallen, is het nu wel. Nvidia heeft bakken geld te besteden, Intel komt maar langzaam uit zn winterslaap en Microsoft heeft Windows alvast ARM-compatible gemaakt. Beter wordt het niet.
Ik denk eerder dat Qualcomm hun concurrent is dan Intel en AMD in deze markt.
Ze zijn allemaal concurrenten. Arm is niet beter dan x86. Het hangt van toepassing af en of fie huidige incarnatie goede fit is. Arm architectuur heeft zeer sterke zuinigheid achtergrond en uit die segmenten komen de historische arm cpu families.
X86 was er een lange prestige strijd waar game performance grote rol speelt. Games leunen sterk op single tread performance en deze arms race heeft geleid tot 400watt piek power draw cpu voor client markt.
Dat houd niet in dat in 2027 amd en of intel licht zien dense transistoren toepassen en daarmee big chip maken ipv hoge klokken grote core met hoge density dus lage kloks enorme ipc. Dat is waar arm nu is big dens high ipc low kloks
Ondertussen zullen dev tools arm en x86 release build verzorgen. Dat zal met de tijd ook beter uitgewerkt worden.
Tja dan zal 1 van de 4 de kroon pakken. Kan ook zijn door de enorme verschillen dat sterk toepassing afhankelijk kan zijn
Ik zeg ook niet dat ze beter of slechter zijn. Het is een andere markt. Qualcomm is een grotere concurrent voor Nvidia dan Intel of AMD in deze markt.

Ze zullen hier dus ook het meest op concentreren. Later zijn die andere twee aan de beurt, als het goed gaat.

Al met al ben ik er niet zo blij mee, Nvidia is al groot genoeg. Ik had liever mediatek gezien, maar die zullen ook wel met iets komen.
Misschien kunnen ze er eentje inbouwen in een nieuwe Nvidia Shield die momenteel nog op de oude Nvidia Tegra draait (ook ARM)

Wikipedia: Tegra (SoC)
Ik bedacht hetzelfde alleen dan voor de nieuwe generatie vd switch
De vraag is waarom zou Nvidia dat nou willen doen. Anno 2024 zie ik weinig mediaspelers die net zo snel of sneller zijn dan de nog altijd heel vlotte Nvidia Shield TV (Pro). Leuk zo'n snellere chip maar wat wil je er mee gaan doen in een mediaspeler? Nog sneller je Netlfix filmpje opstarten of je rips bekijken met Kodi? De Tegra X1+ hoeft daar niet eens voor te zweten. De Apple TV wordt regelmatig voorzien van snellere chips zonder dat je echt veel verschil merkt met eerdere generaties.

Ik denk dat Nintendo eerst alle nieuwe Tegra chips voor zijn nieuwe Nintendo Switch wilt hebben voordat er genoeg chips over zijn om ook de Shield te refreshen.
De vraag is waarom zou Nvidia dat nou willen doen.
Dat is een goede vraag, maar een Tweaker mag dromen toch? :P

Ik was in de veronderstelling dat Nvidia in de golf van de A.I. hype volle bak op de GPU's / A.I. chips ging. Dat ze ook nog oog hebben voor een 'general purpose' CPU maakt me hoopvol.
Leuk zo'n snellere chip maar wat wil je er mee gaan doen in een mediaspeler? Nog sneller je Netlfix filmpje opstarten of je rips bekijken met Kodi? De Tegra X1+ hoeft daar niet eens voor te zweten.
Ik heb momenteel de non-pro Shield (tube) en met matig presterende apps als NPO-plus of Disney+ moet hij toch af en toe ff flink nadenken.
Dat is waar. De tube Shield is een matige mediaspeler. Heeft minder geheugen (2GB) en draait alleen 32bit apps. De Pro is 64bit en heeft 3GB RAM. De tube Shield gebruik ik voor de slaapkamer tv en daar hoor ik de fan regelmatig zoemen als ik een tv stream bekijk met Canal+. Dit heb je allemaal niet met de Pro versie die ik in de woonkamer gebruik. Disney+ is sowieso wat logger dan een Netflix of YouTube app.
Omdat de huidige Shield eigenaren alsnog willen upgraden naar een snellere Shield.
Zo een ingewikkeld apparaat is het nou ook weer niet. Ze hebben al de moeite genomen om de huidige Shield 3 keer met minimale wijzigingen en zelfs in tube vorm uitgebracht.
Ik heb alle Shields gehad, behalve de 500GB versie. In het begin kreeg je ook nog een game controller erbij. De huidige Pro (en de tube), heb ze ook beide, voldoet in alles. De enige reden dat ik zou willen upgraden is YouTube HDR, als de nieuwe Shield dit nu wel zou ondersteunen. Voor YouTube HDR switch ik steeds over naar de Google TV OS op mijn Sony X95L. En dat gaat tergend langzaam. De Shield vliegt overal doorheen. Voor de huidige maatstaven van een degelijke mediaspeler is ie echt uitontwikkeld.
Het is super vervelend sinds ze die ads tonen op het home scherm waardoor de boel traag is geworden.
Ik heb hier de Shield 2017 al 6 jaar
windows of steamdeck software op draaien en als console gebruiken
En/of gpu/npu gebruiken voor AI assistant in je huis/auto.

[Reactie gewijzigd door 1Mark op 4 november 2024 15:49]

Misschien is een Raspberry Pi daar beter geschikt voor. Maar, een Shield TV voor in de auto? Ik bedoel, zij hebben tegenwoordig beeldschermen in auto's maar voor de rest, ik snap het niet echt.
Shield Pro ondersteunt geen HDR10+ of AV1, zijn niet de allerbelangrijkste dingen, maar zou wel fijn zijn om te hebben
De meeste streamingdiensten hebben gekozen voor HDR10 en Dolby Vision. HDR10+ is waarschijnlijk met een Shield update toe te voegen. Hardware decoding voor AV1 zou fijn zijn, YouTube HDR is een gemis. Nvidia maakt de Shield niet alleen voor hobbyisten en Tweakers. Veel mensen zullen niet weten wat AV1 is. Dolby Vision wordt breed ondersteund en dat heeft Nvidia met de laatste hardware refresh toegevoegd. Ook misschien de licentiekosten van Dolby Vision door te voeren naar de klant. Een nieuwe Shield zal meer moeten bieden om onder de aandacht te komen van nieuwe klanten of mensen die zouden willen upgraden.
Productie wordt niet door nVidia gedaa. Die besteden dat ook uit.
Ontwerp wordt ingeleverd en uitgevoerd met een productie partner.
Ze kunnen bij nVidia 20 processoren tegelijk ontwikkelen.
Nvidia zal vast productielijnen inhuren bij TMSC om de chip (waarschijnlijk T239) te laten bakken en die zal Nintendo bij de eerste batches voor zichzelf opeisen. Nintendo Switch loopt op z’n eind, de Shield nog niet. TMSC is heel groot maar heeft ook grote klanten zoals Apple.
Ik zou niet echt een krachtiger Shield TV moeten hebben, maar één die AV1 kan afspelen zou anno 2024 wel mogen. HDR10+ zou ook leuk zijn voor mensen met een Samsung TV.
Heb niet het idee dat Nvidia nog interesse heeft in de Shield. Kunt beter een Apple TV halen denk ik vandaag de dag, tenzij je heel erg afhankelijk bent van een bepaalde Android app.
Er is op dit moment nog geen alternatief voor de Shield als je gebruik wilt maken van HD Audio Passthrough (bitstreaming). Geen enkele andere mediaspeler kan dit. En een film kijken met DTS:X of 7.1 Dolby Atmos via mijn versterker klinkt toch wel erg mooi.

En natuurlijk kun je het argument aanvoeren dat dit overbodig is en dat je het verschil niet hoort, dat zal voor sommigen of zelfs velen ongetwijfeld waar zijn. Maar als je dit graag wil is de Shield uit 2019 nog steeds de enige die dit kan.
Klopt, is ook jammer dat Nvidia er niets meer mee lijkt te doen verder.
als je gebruik wilt maken van HD Audio Passthrough (bitstreaming). Geen enkele andere mediaspeler kan dit
Dune en Zidoo kunnen dit ook. Dat zijn dan wel apparaten die vooral voor local content bedoeld zijn en niet voor streaming diensten, maar die geven zulke formaten toch al niet door dus dat is niet echt een beperking.
Kan de apple TV dit ook niet?
Afspelen via Plex en direct aansluiten op een versterker?

[Reactie gewijzigd door Sandburger op 4 november 2024 16:36]

Ja en nee, Plex zal de audio dan transcoderen en daarmee verlies je dynamiek en kanalen. Maximaal 5.1 kan afgespeeld worden en DTS wordt geheel niet onderteund (meen ik, geldt voor zeer veel apparaten). Dus ja je hebt geluid, nee je hebt geen Audio Passthrough en moet inleveren op kwaliteit.
AppleTV ondersteunt geen DTS:X, ook niet als passthrough als je iets via (bijvoorbeeld) Plex afspeelt.

De Dolby-formaten, inclusief 7.1 en Atmos, worden wel ondersteund.
Bedankt!
Ik gebruik vooral Atmos en ga naar 7.1, blij om te horen dat de Apple TV dit wel doet.

De Shield ontwikkeling staat nogal stil helaas.
Niet waar. Neem een kijkje bij Zidoo. Ik heb de Z9X Pro en passthrough van HD audio formaten is absoluut geen probleem. Verder is hun op Kodi-gebaseerde Media Center veel beter *en* veel sneller dan Kodi zelf die op mijn tube Shield draait. Ook DoVi, HLG, HDR10 en HDR10+ is geen probleem voor de Zidoo spelers!
Interessant product echter minder compleet dan de shield die wel alle apps voor Google TV kan installeren terwijl je bij zidoo zo te zien geen netflix app met 4k hdr kan gebruiken.

De shield is de beste allrounder voor mensen die ook betaald willen streamen volgens mij
Je sprak alleen over HD audio passthrough. Nu kom je met streaming Netflix & co. Mijn antwoord was ook op jouw "alleen de Shield kan dat, niemand anders".
Klopt, sorry, ik ging door de suggesties voor alternatieven "down the rabbit hole" voor een Shield opvolger die 100% zou voldoen voor mijn eisen dus ik liet mij meeslepen. Bedankt voor de suggesties in ieder geval.
Een beetje competitie in handheld land zou niet gek zijn. De nieuwe series van AMD brengen nauwelijks real life verbeteringen tov de Z1E en 7840U, en Intel kan al helemaal niet meekomen.
zouden ze (in opdracht van MS) een Apple MX killer bouwen?
Nvidia doet helemaal niets in opdracht van niemand. Daar zijn ze veel te rijk voor. Ze doen dit puur omdat ze er winst in zien.
nou nou, als jij een dikke zak geld op tafel legt neemt Nvidia graag een opdracht aan hoor, kan het mis hebben. Denk wel eerder dat het een samenwerking zal zijn, vandaar het gebruik van "()" en een "?" op het eind :) Lijkt mij erg waarschijnlijk wanneer Nvidia een High end Chip ontwerpt, en Microsoft nauw meedenkt / kijkt en de OS optimalisatie doet, dat er een toekomst is waar de x86 zijn dominante positie verliest.
Maar vele grote bedrijfstoepassingen zijn niet klaar voor Arm. Die draaien allemaal nog x86/x64. Als ze dat wel gaan doen, dan wordt het echt moeilijk voor Intel. Ze hebben al een package met een 144 core CPU plus 2xB200 chip. En zien nu waarschijnlijk dat om die andere loads als puur AI te laten draaien, ze meer support nodig hebben voor de arm-CPU.
Dus beginnen ze op de desktop.
Dat wordt nu al aan gedacht met de translation layer die in Windows (for ARM) zit. Daar kun je dan gewoon x86 software op draaien bijna zonder performanceverlies. Ik dacht dat alleen x64 nog niet ondersteund was, maar misschien inmiddels al wel.

Daarbij is het voor veel grote bedrijfstoepassingen (maar ook consumentensoftware, ongetwijfeld) een kip-ei verhaal. Eerst moet de hardware er zijn, en dan gaan ze er eens tijd instoppen. Maar waarom zou je een ARM chip gaan gebruiken als er geen software voor is? Dat voordeel is er nu in de vorm van energieverbruik, mits dat boeiend is voor de toepassing.

Ik begrijp trouwens niet zo goed waarom je AI erbij haalt. Het gaat om de CPU architectuur, wat los staat van een AI-accelerator (of het gebrek daaraan).
Goed nieuws voor ARM dat de laatste tijd z'n piek wel leek bereikt te hebben. Zeker met energiezuinige intel chips is het bv bij een miniPC niet meer zo voor de handliggend om voor ARM te gaan.
Eigenlijk bestaat de Nvidia-ARM-PC eigenlijk al lang met de Shield die toen deze uitkwam behoorlijk krachtig was. Dus ik hoop er op dat Nvidia weer met iets vooruitstrevends komt!

[Reactie gewijzigd door AtariXLfanboy op 4 november 2024 23:39]

Ik zou me zorgen maken als ik Intel/Amd was :)
Dat doen ze denk ik al sinds Apple de M1 processors lanceerde. Ze hebben denk ik niet voor niets de x86 ecosystem advisary group opgericht. Het is goed om de ‘standaard’ meer te harmoniseren maar het hoofddoel lijkt me dat ze zo samen sterker staan.
Het scheelt dat iets goedkoops op de markt zetten een onbekend fenomeen is geworden bij Nvidia *kuch* GPU prijzen...
Mochten ze hier wel in slagen betere performance neer te zetten dan intel en AMD, dan gaan we ook Weer nieuwe prijs records zien..
Bijna driekwart van de desktopmarkt is Windows. Ik denk dat ze een prima keus maken.
Nog wel ja, maar wordt steeds minder, en support wil je wel zo breed mogelijk houden.
LOL, waar haal je die info vandaan dan?
Ik ben zeer benieuwd naar die cijfers.
show me;
links graag,
of bronnen.

Jij beweerd iets, dan moet het niet zo zijn dat ik zelf moet gaan zoeken of dat wel klopt.
Meestal onderbouw je je eigen stelling (of mening).


Bedoel je zoiets, waar je zelfs ziet dat Windows oploopt tussen aug 24 en sept 24:
https://gs.statcounter.com/os-market-share

En dat is dan nog met tablets en mobile erbij;
Alleen desktop krijg je dit soort aantallen:
https://gs.statcounter.com/os-market-share/desktop/worldwide

[Reactie gewijzigd door TomPé op 4 november 2024 16:53]

Groei Linux =/= Afnemen Windows.
Het lijkt erop dat je expliciet hebt gezocht naar bronnen over groei van Linux. Kan je ergens uit harde cijfers laten zien dat Windows afneemt?

Ik denk dat TomPe zo reageerde omdat het zo een dooddoener is als iemand zegt: "maar goed je kan de statistieken overal bekijken.."
Dat klinkt een beetje als die conspiracy theories waarbij iemand zegt dat je het bewijs overal op internet kan vinden, zonder een legitieme bron te laten zien waar dat ook daadwerkelijk staat.
Spijt me. Maar het is al jaren redelijk gelijkelijk verdeeld tussen Windows, MacOS en dan blijven de kruimels over voor Linux en de rest. Zelfs MacOs komt niet veel verder dan een 15 procent en topt af en toe richting de 20 procent. Niet dat ik dit fijn vindt, maar dat is een andere discussie.
Precies, hier de statcounter data van 2020 tot nu laat toch een redelijk stabiel markaandeel van Windows zien; https://gs.statcounter.co...de/#monthly-202001-202410.

De dip in windows marktaandeel is bijna omgekeerd evenredig met 'other'; het lijkt haast wel een analyse fout dus ik denk dat het echte marktaandeel van Windows hoger is.

Waarom zou je een nieuwe chip ontwikkelen voor 5% van de markt, als je met net zoveel moeite een markt van 75% kan bedienen. De markt is bovendien niet nieuw voor ze (GPUs) en de potentie van de combinatie van een CPU + GPU platform (zoals AMD) is niet te versmaden - ze zullen hiermee niet alleen een nieuwe CPU markt aanboren maar middels cross selling ook hun GPU marktaandeel. Het is jammer dat ze net te laat zijn voor de nieuwe gen PS en XBOX :)

Op dit item kan niet meer gereageerd worden.