Door Tomas Hochstenbach

Redacteur processors

Deze generatie wordt alles of niets

Intel Core Ultra 200 'Arrow Lake' Preview

10-10-2024 • 17:00

131

Singlepage-opmaak

Voorlopige conclusie

In technisch opzicht is Arrow Lake zonder twijfel Intels grootste stap in de desktopwereld sinds het de 12th Gen Core-processors uitbracht in 2021. De introductie van een processor die bestaat uit allerlei verschillende tiles lijkt laat – AMD gebruikt natuurlijk al veel langer chiplets – maar is gelijk wel een stuk geavanceerder, met meer en diversere 'sub-chips'. Alle tiles met actieve logica komen bovendien uit de fabrieken van TSMC, dus van Intels voortwoekerende Intel Core Ultra 200 Arrow Lakeprocesproblemen heeft Arrow Lake geen last meer. Met al dit technisch vernuft moet Intel een antwoord kunnen geven op AMD; er zijn geen excuses meer.

Het is opvallend hoe Intel focust op energiegebruik in zijn eerste benchmarkcijfers. Het prestatiebeeld lijkt ten opzichte van de 14th Gen Core-cpu's weinig te veranderen, zeker in games. Wel moeten de Core Ultra 200-chips aanzienlijk minder stroom verbruiken en daardoor ook minder hitte opwekken. Misschien is dat wel precies wat Intels processors nodig hadden.

Ook het platform is met alle vernieuwingen in de soc- en i/o-tiles weer helemaal bij de tijd. PCIe 5.0 is er nu zowel voor de videokaart als voor een ssd, zonder dat laatstgenoemde lanes van die eerste afsnoept, en met de integratie van Thunderbolt 4 kan er ook met externe apparaten veel sneller worden gecommuniceerd. Met snellere officiële geheugenondersteuning en het toevoegen van een npu loopt Intel zelfs wat voor op AMD, maar voor die laatste kun je je afvragen hoe nuttig hij nu al is, zeker aangezien de npu nog te langzaam is om in aanmerking te komen voor Microsofts Copilot+-functies.

Maar zolang we de Core Ultra 200-processors niet zelf kunnen testen, blijven er nog heel wat vragen open liggen. Wordt het door Intel geschetste prestatiebeeld, van 'on par' zijn met de 14th Gen Core en AMD, ook in onafhankelijke tests bewaarheid? Is het energiegebruik inderdaad zo veel lager, en wat doet de nieuwe tileopbouw bijvoorbeeld met het idlevebruik? Hoe presteert de igpu, wat heb je aan de npu en natuurlijk het belangrijkste: doe je aan een AMD Ryzen 9000-processor of een Intel Core Ultra 200-chip de beste koop? Wordt het alles, of toch niets? Het zijn allemaal vragen die we op 24 oktober, de releasedatum van Intels nieuwe desktopprocessors, kunnen gaan beantwoorden. En zelfs daarmee is de spanning in de processormarkt voor dit jaar nog niet voorbij, want het kan natuurlijk niet anders dat Intels processorgeweld ook weer een reactie gaat uitlokken van de tegenpartij ...

Lees meer

Reacties (131)

131
128
50
4
0
50
Wijzig sortering
De computechiplet met de cpu-cores wordt geproduceerd op TSMC's nieuwste N3B-proces, de gpu-tile op TSMC N5P, en de soc- en i/o-tiles op TSMC N6.
Dit is wel een bizarre overgang. Op het desktopplatform gaan we van chips die 100% in-house in eigen fabrieken werden geproduceerd, naar chips die 100% extern worden geproduceerd.

Aan de ene kant laat dit zien dat Intel nu niet meer voor hun producten afhankelijk is van één fab, en dat hun splitsing tussen product en fab werkt, maar tegelijk laat het zien hoe slecht Intels fabs er aan toe zijn. Als ze al geen eens een "interne" klant binnen kunnen halen, laat staat hoe ze externe klanten aan gaan trekken.

Ik hoop heel erg dat Intel hun fabs op orde krijgt met 18A en 14A, want we hebben concurrentie en redundantie hard nodig. Zowel om prijzen laag te houden en monopolies te voorkomen, als om een backup te hebben voor als er onverhoopt iets met Taiwan gebeurd (hoeft geen eens een oorlog te zijn, is ook genoeg kans op natuurrampen).

Tot die tijd ben ik heel benieuwd hoe deze TSMC-mix presteert. De E-cores lijken zeer veel belovend, wellicht wordt het daadwerkelijk de moeite waard om daar een hoop van in je desktopsysteem te hebben zitten.

Ik ben ook wel benieuwd of AMD nog met een soortgelijk product uit komt. Als ze in hun high-end chips één die met 8 Zen5 cores vervangen door een met 16 Zen5c cores heb je volgens mij ook een hele interessante chip te pakken.
Het gaat om een 13Tops-npu op basis van Intels NPU3-architectuur, die eerder werd gebruikt in de Meteor Lake-laptop-cpu's en dus een generatie ouder is dan de NPU4-chip in de recent uitgebrachte Lunar Lakes.
Wel maakt de igpu nog altijd gebruik van de eerste generatie Xe-architectuur, en niet de Xe2-architectuur die we voor het eerst tegenkwamen in Lunar Lake en ook de basis moet vormen voor een nieuwe generatie losse Arc-videokaarten.
Het klinkt zo wel alsof deze chip ergens flink vertraging heeft opgelopen. Alles lijkt een generatie oud, zelfs het productieproces: TSMC N3B was het eerste N3 process van TSMC, waar onder andere de Apple M3 serie en A17 Pro op werden geproduceerd. De A18 (Pro) en M4 maken gebruik van N3E, wat lagere kosten en hogere yields moet hebben.

[Reactie gewijzigd door Balance op 10 oktober 2024 19:19]

Intel is nu zó matig dat AMD daardoor vrijwel automatisch het Intelstokje overneemt - zo weinig mogelijk innoveren met zo maximaal mogelijk profiteren.
Maar zijn ze wel zo matig op basis van wat we hier lezen? Was niet het grootste punt van kritiek het stroomverbruik op dekstop? Als de slides kloppen wordt dezelfde load straks met 165W minder uitgevoerd. We hebben Nvidia hetzelfde zien doen met de 4xxx serie; weinig spannende performance gains maar wel met een enorm lager verbruik. AMD heeft met de 9xxx cpu serie eigenlijk ook iets vergelijkbaars gedaan, de TDP's gingen omlaag en de prestaties bleven gelijk. Het is niet dat er niet geïnnoveerd wordt, in tegendeel zelfs. We zien echter dat prestatie wordt omgeruild voor een lager stroomverbruik, bij alle 3 de grote merken.

[Reactie gewijzigd door sdk1985 op 13 oktober 2024 11:36]

Eerst maar even de benchmarks afwachten van onafhankelijke media. Want als we performance inleveren tov 14th gen, dan is AMD wel aan het weglopen op zowel performance als efficiency.
AMD gaat hoe dan ook terrein verliezen op gebied van power efficiency. Dat kan niet anders op basis van deze slides. Of Intel er voorbij gaat is een andere vraag. Op load waarschijnlijk niet. Idle is Intel reeds zuiniger.
De TDP van de ultra's blijven gelijk, 250W/159W voor de ultra 9 en 5 respectievelijk met een max temp van 105gr. De reductie schijnt alleen te kunnen optreden bij een "normale" workload (wat dat ook mag wezen) met een potentiële maximale drop van 40%. Lekker vaag weer en dat doet mij vermoeden dat het niet zo goed gesteld is qua power consumptie.
Onder load is AMD mijlen verder qua zowel temperatuur als verbruik. Voor gamers komt er straks ook nog de 9000x3d uit die naar verwachting nog eens 11% sneller is op dezelfde socket. Op de laptop markt zal Intel nog wel even domineren vermoed ik.

Het zijn hoe dan ook leuke tijden :)
Voor dit soort cynisme in koningswater kwaliteit komt men dus naar de Tweakers reacties :D //offtopic

Vermoedelijk heb je nog gelijk ook. Alleen zoals Intel graag benadrukt, vooralsnog zijn ze de enigen die de schaalgrootte hebben om al hun klanten te bedienen. Dát stokje kan AMD nog niet overnemen.
Ze hebben zelfs stilstand en overschot 8-)
Inderdaad, AMD is nu ook hard aan het chillen. Maarja, dat is dus het systeem van kapitalisme. Je hebt minimaal 4 tot 5 spelers nodig voor gezonde concurrentie en op desktop CPU's heb je er maar 2. Intel en AMD hebben dus een duopolie.
Het zijn nog steeds allebei vingers van Silicon Valley. Volgens mij is de hele monolitische opzet al lang niet meer nodig. Ipv een upgraded 15th gen die, probeer eens 4x4 bestande 14th gen plakken met ideale interconnect bussen. Dan kan die 15 het voorlopig vergeten. Helaas zijn ze allebei niet gek.
Ik snap niet precies wat jij bedoelt. Er zijn gewoonweg maar 2 bedrijven die CPU's voor de desktop maken, of 3 als je Qualcomm zijn ARM CPU voor de desktop mocht geloven dat dit concurrentie is.

Dat is veels te weinig voor echte goede concurrentie.
Wat ik min of meer bedoel is het wegwerp-gehalte van zowel Intel als AMD uit een centraal beleid komt. Straks gaan weer miljoenen een Arrow Lake kopen terwijl je met 2 keer Raptor Lake naast elkaar die nog heel lang blijft overtreffen in rekenkracht. M.a.w. daar kan het niet om gaan. En games hangen grotendeels aan de videokaart, dus daar ook niet echt om...

Quallcom maakt voor zover ik weet geen kale consumenten-chipsets, en ARM zit in prestatie nog altijd mijlen onder CISC hardware. Dat is geen echte competitie. Ik zou zelf interesse kunnen krijgen als ze met een PC-achtige standaard komen. Er moet wel een normale open bootsequence op zitten dan. Niet een verplichte kernel zoals telefoons.

[Reactie gewijzigd door blorf op 11 oktober 2024 13:35]

Ja je hebt gelijk dat de gemiddelde consument niet de nieuwste hardware nodig heeft, echter vind ik videokaarten nu veels te duur worden en door concurrentie was dit nog zo hard gestegen.
Een RTX 3060 Ti kost 250 euro op marktplaats en kan zon beetje alle games op 1080p high settings aan.
Of een nieuwe RTX 4060 voor 289 voor vergelijkbare prestaties.
Het is al heel lang niet meer zo goedkoop geweest.
Dat RTX 3060 Ti op marktplaats €250 is dat klopt wel maar mensen kopen niet, iedereen is gericht nu hele dag op de kop tikken voor 200euro en mensen willen liever RTX 3070 voor 250euro op de kop tikken, iedereen heeft geld maar toch willen ze op de kop tikken. Heb laatst een koper zien afhaken voor zijn project alleen maar omdat hij niet 10euro extra wilt betalen is zijn project van 1000euro stil gelegd. Iedereen is zooooooooo KOPPIG en gierig. Alleen maar voor 10euro extra hele project 1000euro stil gelegd. Triest.

[Reactie gewijzigd door cem. op 14 oktober 2024 09:14]

Jammer juist dat die koppigheid en prijsbewustheid alleen in 2e hands en budget nog leeft. Als kopers in het nieuw/hogere segment wat kritischer zouden zijn waren die prijzen misschien ook nog een beetje normaal.

En jij mag natuurlijk wel oordelen over een ander zijn aankoop keuzes, maar dat siert je niet.
Weet niet precies wat je verstaat onder desktop, maar de Mac Pro/Studio/Mini zijn gewoon Apple Silicon chips, sinds 2020.

Heb je iets van marktaandeel cijfers om aan te tonen dat de pc desktop markt min of meer een duopolie is?
Maar Apple silicon concurreert niet op dezelfde markt, omdat ze hun chips niet verkopen als losse producten ;)
En aangezien Qualcomm geen desktop cpus maakt, is het volgens mij zelfs een zuivere markt duopoly op de markt van desktop cpu/servers

[Reactie gewijzigd door WouterL op 11 oktober 2024 18:17]

@WouterL heeft her hier goed verwoord:
Maar Apple silicon concurreert niet op dezelfde markt, omdat ze hun chips niet verkopen als losse producten
Zij verkopen hun CPU dus niet los en zijn daardoor geen speler op de markt van CPU bedrijven. Apple verkoop een compleet pakket aan de eindgebruiker.
De winsten liggen niet bij de consument maar in server land. Grote OEM die massa volume willen verkopen aan consumenten blijven toch altijd Intel kopen. En hoezo geen vernieuwing? Vanwaar komt de X3D architectuur? Volgens geruchten zal de dual CCD het zelfs op beide hebben.

In server land is net Turing release geweest met 128 Cores en 192 c-cores.
Matig? Op basis waarvan stel je dat?
Geloof me me er is geneoeg innovatie in intel vergeet niet dat amd sneller is met alleen games.
De overal performance zal intel de winnaar zijn met een betere en lagere wattages en dus ook voor laptops zuinigere processoren.bovendie zitten er verschillende die packages op en dat is ook voor het eerst.Misschien heeft dat ook veel voordeel.

[Reactie gewijzigd door rjmno1 op 12 oktober 2024 14:21]

Intel en AMD hebben veel last van hun x86 legacy. Heel de industrie draait er op. ARM based chips kan bij wijze van spreken iedereen produceren en verbruiken minder met meer rekenkracht. Enkele speciale cases daargelaten. AMD en Intel hebben enkel x86 in eigen beheer. Geen concurrent kan X86 CPU’s bouwen zonder langs intel te passeren voor een licentie.

ARM is voor veel zaken beter, het bewijs is er: Apple kan met TSMC veel betere chips maken dan intel en AMD. Intel en AMD kunnen enkel X86 zuiniger maken. Dat kan enkel door X86 samen te ontwikkelen want het is hun enige uitweg om te voorkomen dat windows PC’s voor goed overschakelen op ARM en AMD en Intel hun exclusiviteit verliezen. Intel zal dus genoodzaakt zijn om IP af te staan aan AMD. Want de positie van Intel enkel wankeler maakt omdat ze afhankelijker worden van AMD en tegelijk moeten toezien dat ARM chips hun intrede doen in de desktop/laptop markt.

Voor de helderheid: Ik zeg niet dat X86 dood is. Ik zeg wel dat door de marktevolutie de waarde van Intel zal dalen, de waarde van AMD zal stijgen tegenover Intel en beide merken het speelveld zullen moeten delen met ARM-based chipbouwers.
Ik ben totaal niet geinterreseerd als consument in dit hele e-core concept, heb er tot nu toe alleen maar last van gehad. "Je applicattie loopt vast tenzij ik hem op de voorgrond draai". "Heb je e-cores?" "Ja, die heb ik." want een AVX2 intensieve applicatie die als server functioneert op je e-cores parkeren is natuurlijk enkel vervelend voor een gebruiker. Windows ging / gaat hier totaal niet goed mee om.

Geloof het dus totaal niet dat hyperthreading nu is verdwenen door de e-cores als de vorige generatie allebij had. Ik denk dat ze hyperthreading niet stabiel hebben gekregen.

Maar goed persoonlijk lijstje dan maar:
- VM's, 8 cores dus das al niet lekker voor test labs. Ik ga geen VM op een e-core draaien. Minimaal 2 cores per VM en het wordt krap / traag ten opzichte van de 24 threads die ik nu heb bij AMD.
- AI, zie bovenstaand probleem. Dat werkt voor geen meter op e-cores dus 8 cores geen threads. Leun je nog meer op je GPU.
- Gameservers, moet je pinnen op 1 van de 8 cores anders presteerd het niet dus hopelijk heeft de game niet te veel cores nodig.
- Browsen, hehe dit kan op een e-core maar waarom zou ik op een desktop?
- Gamen, min of meer ideale scenario voor deze setup maar maak het niet te bond. Ik VR game soms met AI personages die ook lokaal draaien. Dan wordt het weer krap.

Bij een telefoon / laptop kan ik wel begrijpen dat big / little nut heeft. Maar dit is toch gewoon het oprikken van je corecount om nog een beetje mee te kunnen komen bij leken?
Leuk die game benchmarks naast een 9950X, zet hem eens naast een 7800X3D ;)
Dan is het energie verbruik ook ineens niet meer zo indrukwekkend. De 7800X3D is de zuinigste game CPU. Laat staan wanneer de gemiddelde tweaker de CPU ook nog undervolt om deze koeler en nog veel sneller te laten lopen.

[Reactie gewijzigd door Seth_Chaos op 10 oktober 2024 17:31]

Een zogenaamde Battle of the Titans tussen de AMD Ryzen 9 9950X en de Intel Core Ultra 9 285K levert een soortgelijk plaatje op, met gemiddeld praktisch gelijke prestaties. Effectief geeft Intel daarmee toe dat de fabrikant het niet wint van AMD's snelste gamingprocessor, wat nog altijd de Ryzen 7 7800X3D is. Desgevraagd zegt Intel te verwachten gemiddeld ongeveer 5 procent langzamer te zijn dan de 7800X3D.
Tegen dat de paperintel launch beschikbaar is hebben we wel data van de 9800X3D
Nog los van het feit dat de 7800X3D zeer binnenkort vervangen gaat worden door een beter model.
Ik hoop uiteindelijk op goede gamingprestaties; de 5-, 7- en 9-lijn van Intel is redelijk high-end, en betere gaming performance is uiteindelijk toch voor veel consumenten in het high-end segment de belangrijkste reden om te upgraden naar een nieuwe CPU

[Reactie gewijzigd door DLSS op 10 oktober 2024 17:09]

Je kan met een 11gen+ i7 al erg makkelijk boven de 60fps gamen. Ik krijg nou niet echt het idee dat ik moet upgraden de laatste jaren. Helpt als je een beetje stevige videokaart hebt.
Ja, klopt, bij de meeste games wel (hoewel niet bij allemaal). Een groot voordeel van snellere CPU's is dat ze een hogere minimale framerate kunnen bieden. Dat zorgt voor minder stotteren en een soepelere speelervaring, zelfs als de gemiddelde framerate boven de 60 fps niet uitmaakt wanneer je een 60Hz-monitor hebt.

Daarnaast is er natuurlijk ook een deel van het high-end segment dat graag gebruikmaakt van high-refresh-rate monitoren met 120Hz of meer.

[Reactie gewijzigd door DLSS op 10 oktober 2024 21:08]

Denk dat je meer last hebt van hogere frametimes dan van stotteren met een tragere cpu
Dat kan inderdaad een probleem zijn bij een wat tragere CPU. Ik denk dat je misschien onevenredige frametimes bedoelt. Een hoge gemiddelde frametime correspondeert met een laag gemiddeld fps.

Bij het analyseren van frametimes worden vaak percentielwaarden gebruikt, meestal het 99e en 99,9e percentiel. Dat geeft aan hoe consistent de prestaties zijn over een langere periode. Snellere CPU's hebben vaak een betere score op het 99e en 99,9e percentiel, wat zorgt voor een soepelere ervaring en minder stotters

Als je daar eenmaal op gaat letten, kun je het niet meer 'unseen'. Persoonlijk ben ik er erg gevoelig voor geworden. Op mijn Intel i7 8700K had ik er meer last van dan op mijn AMD 7800X3D
Meeste games zijn GPU limited. Als je maar een redelijke 6 core CPU op 4500-5000mhz van de laatste 5 jaar hebt, dan heb je meestal al veruit genoeg om de dikke GPU continu te voeden.
Eindelijk goede gameprestaties? Een 14900K die niet voldoet op gamegebied is wel een erg vreemde game ervaring. Zeker met dat men in dat segment en met dat mensen ook een dikke GPU draaien, veruit de meeste games GPU limited zijn. Een 13600K of 7700X is dan al voldoende.
Niet 'eindelijk', maar uiteindelijk haha.

Persoonlijk heb ik graag een snelle CPU om de minimale framerate te verhogen (minder stotteren) en niet zozeer voor de gemiddelde framerate (waarmee je in principe al uit de voeten kunt met een oude i5). Dan is er ook nog een groot deel van de markt dat graag 120 fps of meer wil voor hun high-refresh-rate monitoren. Daar geldt: sneller is altijd beter
Benchmarks moet je niet serieus nemen! Beter afwachten op onafhankelijke reviews.
Wat betreft gaming prestaties zal Intel, AMD 7000X3D series niet matchen.
Zou goed kunnen, maar je zegt eerst reviews afwachten en dan geef je al een conclusie ;)
Je gaat niet je product slechter presenteren dan dat het is natuurlijk :) Maar mogelijk wel beter, dus die korrel zout werkt maar 1 kant op.

Je hoeft dus niet meer prestatie te verwachten dat Intel zelf aangeeft, hooguit minder (want marketing/cherry picking), en met geluk halen ze het geschetste beeld exact.

Ze zeggen zelf al dat ie met gaming vergelijkbaar is met de Intel Core i9-14900K en die doet toch ook echt onder voor de 7800X3D.

Zie gaming prestatie score hier:
review: AMD Ryzen 9 9900X en 9950X - Zo kan de snelste cpu toch teleurstellen

[Reactie gewijzigd door watercoolertje op 10 oktober 2024 18:02]

Maar waarom kijkt iedereen naar de gamingprestaties van de 285K, ken maar weinig die nu een i9 hebben omdat ze zo fanatiek gamen. Bespaar op de CPU en neem een GPU een klasse hoger.

Tenzij je natuurlijk al een 4090 hebt, dan kan je niet veel meer tot 2025.
Omdat Intel (en ook AMD) hun top product altijd als "best" gaming CPU probeert neer te zetten, ook omdat het een grote afzetmarkt is. AMD heeft daarin gefaald met de nieuwe 9900/9950X, die presteren bij lange na niet zo goed als een 7800X3D bv, dus de getoonde gaming benchmarks van Intel zeggen dus ook vrij weinig. Terwijl ze wel aangeven gemiddeld even goed of "beter" te zijn dan de 9950X.
Veel (rijke) enthousiast gamers hebben toch en een 4090 en een top CPU (AMD of Intel) in de computer zitten, omdat het kan. Ik ken genoeg mensen (geen scholieren, wel mensen met baan) die zo'n setup draaien.
Er zijn zat games die baat hebben bij een top end CPU, bv simulation/4X, etc.als je daar met een (proverbial) celeron dual core + 4090 aan komt heb je een probleem.

Niet alles is 13 in een dozijn shooter/veredelde graphics tech demo...
Al he kijkt naar wat 12th 13th dus alderkake raptorkake. Is voorbij gezonde data sheet Marge zwaar oc’ed spul om enigszins game kroon aan te vallen.
Viel men toen om piledriver 9 series 250 tdp.
De ALRL kunnen 400W pieken
Zodanig dat ze korte lifespan hebben.

Blindstaren op sku lijn, die eigen te ver geklokt is , is disqualified.
Ik vind het juist de goede richting voor intel, dat men nu even inboet , zodat volgen gen geen fab oc kreng wordt. En ipv dat voor flinke ipc gaan ipv fab overklok.
Apple silicon m4 laat zien wat mogelijk is de single threaded kroon met degelijke voorsprong
Met lage kloks
Ik ben benieuwd wat novalake en panther lake gaan doen.
Raptor lake is net als netburst prescott een deadend.

Het kon nog meekomen met insane boosten .
Als ze op basis door zouden gaan T- rex 7Ghz 600watt piek. En affakkelende PC.
Gisteren gaf Intel zelf toe dat 15e gen langzamer zal zijn dan 14e gen in gaming. xD
Benchmarks moet je niet serieus nemen! Beter afwachten op onafhankelijke reviews.
Wat betreft gaming prestaties zal Intel, AMD 7000X3D series niet matchen.
Reviews moet je niet serieus nemen! Beter afwachten op meer, objectieve benchmarks.
Maar zolang we de Core Ultra 200-processors niet zelf kunnen testen, blijven er nog heel wat vragen open liggen.
Het artikel vergeet eigenlijk de belangrijkste vraag: gaat al dat vernuft geen kwaliteitsproblemen opleveren?
Dat kan je bij de introductie van elke generatie wel zeggen. Ja, soms heb je kinderziektes maar hoe moeten ze de vraag beantwoorden als je zelf quote dat ze 'm niet al hebben getest?

Het artikel is verder bijzonder informatief over de gegevens die t.net van de Core Ultra 200 hebben dus ik vind de vraag zelfs overbodig.
Het zijn 100,,% prefab Intel marketing slides...
Kwaliteit en levenduur licht aan dit. De alderlake familie aan architecturen schallen heel gretig kwa klok. Doet je denken aan die Netburst P4 klokt ook lekker.
Zen1 klokt niet lekker door dus het houd op. Waar je bij intel voeding spanning kan ophogen tot traces degraderen.
De kwaliteit hangt nu af hoe gretig deze nextgen kan klokken en of mobo firma daar wild mee omgaan. Ook belangrijk hoe agressief laat intel deze gen boosten. Kan zien of die bij cinebench weer richting de 400watt pieken.
Dan wat OC mobo doen
Wat highend mobo doen
Wat no nonsens mobo doen
En instap mobo kwa power limieten gaan doen.
Ik weet doorgaans wel het één en ander van x86, maar van NPU's heb ik nog weinig kaas van gegeten.
13Tops is te weinig om gebruik te kunnen maken van Microsofts Copilot+-features, maar andere programma's die npu's kunnen aanspreken, kunnen er wel gebruik van maken.
Wat voor andere programma's hebben specifiek baat bij het aanspreken van de NPU ipv de CPU? Er is niet heel veel te vinden in wat voor specifieke taken een NPU beter kan naast de reguliere AI toepassingen.
Alleen AI gerelateerde programma's. Het gaat uiteindelijk vooral om decision making wat er in een NPU plaatsvind.

13 TOPS zijn dus de hoeveelheid operaties per seconde. Dus 13 TOPS is 13 trillion (12 nullen) operations die een NPU kan doen. NPUs doen dus vooral parallel calculations. Dus in dit geval 13 biljoen parallelle berekeningen per seconde. Dus hoe meer berekeningen des te sneller het een beslissing kan nemen dus grotere modellen kan draaien.

Verder zijn er weinig tot geen toepassingen die de NPU kunnen benutten.
Dat soort berekeningen kan je toch ook prima op een GPU uitvoeren? Ik begrijp de keuze voor een totaal andere unit niet echt, software ontwikkelen die er gebruik van kan maken is voorlopig nauwelijks interesant, aangezien de meeste PCs zo'n ding niet hebben, terwijl het alternatief overal aanwezig is.
Dit is het welbekende kip-ei verhaal uiteraard. Het is dus goed dat de CPUs nu voorzien worden van een npu zodat de GPU kan blijven doen waar de GPU voor bedoeld is. Over een aantal jaren zullen de computers dus over het algemeen wel de NPU aan boord hebben waardoor het interessanter wordt om die te gebruiken.

Je moet ergens beginnen
Uiteraard maar als je GPU het meervoudige aan energie verbruikt in tegenstelling tot een NPU dan is de NPU dus de logischere keuze.

En dat is t hele idee. Als een GPU deze berekeningen elke minuut moet doen dan zal die 10x zoveel verbruiken als een NPU.
Compute shader core is geoptimaliseerd in hardware voor grafische berekeningen
Een npu voor ai compute.
Beide zijn zeer parallel. En er is wat overlap.
Wat ai niet nodig heeft vreet in gpu vermogen en dat maakt dedicated chip voor die taak meest efficient en performant.
Naast dat implementatie bij die task beter aansluit
Dus als MS Copilot niks wordt ( Ikzelf zie meer bezwaren als voordelen) dan heb je dus weinig tot niks aan die NPU. tenminste, dat is wat ik er van begrijp.

Wel grappig om te zien dat parallel nu op die manier weer terug komt.
Nouja je kan ook andere modellen van CoPilot draaien als je daarvoor kiest. Maar NPUs worden specifiek voor dit soort taken ontworpen. Dus ik verwacht niet dat we ze snel kunnen repurposen.
Ik vraag me af wie op Copilot zit te wachten. Het lijkt me meer een marketing kreet dan toegevoegde waarde. Maar ik ben er misschien niet bekend genoeg mee. Maar MS kennende is het vaak Windows dressing
Ik denk iedereen.

Hoe het eruit gaat zien verschilt natuurlijk per applicatie. Maar als je bv Word pakt: zie het als een uitgebreide auto-complete en taal-checker. Suggesties over woordvolgorde, leesbaarheid e.d. Het maken van samenvattingen.

Voorlopig alles dat ChatGPT kan, maar dan geïntegreerd in de Microsoft Applicaties.
AI verdiept de correctie op meer dan Gramatica.
Zoals tonatie. Als reply opzet die meer aanvallend is omzetten naar meer de- escalerende variant. Meer diplomatic. Dan recht to aan bot. Het gaat veel verder dan spelling controle.
Zelfs bij AMDs krachtigere NPU is het heel specifieke randgeval software zoeken totdat Microsoft hun poging om Qualcomm te pushen loslaat en co-pilot+ op andere chips laat draaien.

Waar deze erg zwakke NPU goed voor moet zijn is mij een raadsel. Om AI op het doosje te zetten en om de aandeelhouders te laten weten dat hun laatste chip AI dingen doet?
De werkelijk toegevoegde waarde lijkt zo goed als niks te zijn. Dikke kans dat als Intel zelf er niet een stukje software voor schrijft dat het een stukje silicoon is dat bij de meeste gebruikers onbenut blijft.
Tops is de rauwe performance maar er zijn nogal wat soorten AI compute en daar heeft implementatie van npu grote invloed op
Typisch (of slim) dat Intel de gamebenchmarks doet tov. een 9950X ipv een 7800X3D.
Een 7800X3D is puur gemaakt voor gaming, overall is het zelfs een redelijk slechte processor, vergeleken met wat je allemaal voor de rest kan kopen bij Intel en AMD. Het is juist goed dat een overall Intel CPU niet tegenover een puur gaming geoptimalizeerde AMD CPU zet, maar tegen een overall AMD processor.
Eh... 8)7 de 7800X3D mag dan niet de snelste CPU voor andere workloads (buiten gaming) zijn, maar het is wel de meest efficiënte CPU's ooit. En de snelste in gaming:
YouTube: The Intel Problem: CPU Efficiency & Power Consumption

Ja de 7950X3D bv is sneller in die andere workloads maar verbruikt weer veel meer stroom.

[Reactie gewijzigd door ArcticWolf op 10 oktober 2024 21:09]

Punt is dat bij deze generaties zuinigheid naar voren geschoven wordt.
Want je kan niks anders met die 8 core? En die 8 core zijn dan dermate traag dat je systeem merkbaar trager gaat zijn?

Al eens gedacht dat je feedback op den duur te erg wordt en geloofwaardigheid 0 is?
Ondat men graag cijferneukt
Maar ivm chiplets en Numa topologie geld meer voor caches en hoge latency.
Is sku lijn zeer afhankelijk van toepassing.
Bij intel is elke tier hoger beter
Bij AMD 1 of 2 chiplet optioneel extra cache gooien dat overhoop.
omdat je een sloot e-cores extra krijgt is niet by default beter....
Typisch weer dat jouw reactie naar beneden wordt gemod. Terwijl het feitelijk waar is.
Ik denk dat het nu wel voorbij is voor Intel helemaal met de degrade, krom trekken van het IHS en het verbruik issue dat de 9800x3d toch wel gaat knallen.

Ik heb hier een 14700kf met een 240-aio die doodleuk de 85 graden aantikt (en na vele uren richting de 90 gaat) met een AVX game, het is te belachelijk voor woorden. Undervolt of zelfs een temp lock is aan te raden....
Hoezo voorbij? Dit lijkt me toch een goede stap voor intel? Zuiniger bij vergelijkbare prestaties. Volgens mij gaan intel's nieuwe CPU's heel goed verkopen, hoogstwaarschijnlijk vele malen beter dan de huidige cpu's van AMD.
Ja intel heeft inderdaad wat problemen gehad de afgelopen tijd, maar dat komt ook wel weer goed. Dat jij niet gelukkig bent met de temperaturen van je huidige CPU kan ik me goed voorstellen, maar daardoor is intel nu niet ineens voorbij hoor. Problemen zijn er om opgelost te worden. Deze nieuwe lineup biedt perspectief wat mij betreft.
Er gaan geruchten dat de processors slomer gaan zijn dan een 14900k in games, geen HT en daarbij is het verbruik nog steeds te hoog. En je hebt een compleet nieuwe platform nodig...

De degrade heeft ook niet geholpen. Ook al komt het nu van TSMC af de niet wetende blijven dit maar herhalen.

Laat de 9800x3d maar komen. Ik ben nu wel klaar met Intel, en dat van een Intel fanboy.
Hopelijk wordt de enorm verbeterde efficiëntie ook echt gehaald. Intel heeft daarmee een veel betere basis om de concurrentie aan te gaan voor de toekomst, en voor de klant is het fijn dat men geen industriële koeling meer nodig heeft :)

Op dit item kan niet meer gereageerd worden.