WSJ: Broadcom heeft interesse om Intels chipontwerptak over te nemen

Broadcom overweegt een overname van Intels chipontwerptak. Dat schrijft The Wall Street Journal op basis van eigen bronnen. Broadcom zou de chipproductieafdeling van Intel echter niet willen overnemen.

Broadcom zou informele gesprekken voeren met adviseurs over een eventueel bod op Intels chipontwerp- en marketingafdelingen, schrijft The Wall Street Journal. Volgens de krant wil het bedrijf alleen een bod uitbrengen als er een partner wordt gevonden voor de chipproductietak van Intel, waarmee het bedrijf in feite in tweeën zou worden gesplitst. De WSJ benadrukt dat Broadcom Intel nog niet heeft benaderd en dat er nog geen besluit is genomen.

De krant onderschrijft daarnaast een eerder artikel van Bloomberg, waarin werd gesteld dat TSMC de chipfabrieken van Intel wil runnen. Volgens bronnen van het persbureau en van de WSJ zou de Amerikaanse overheid deze samenwerking hebben voorgesteld. Een woordvoerder van het Witte Huis liet vrijdag echter aan Reuters weten dat de regering een deal waarbij een buitenlands bedrijf Intels fabrieken runt, 'waarschijnlijk' niet zal goedkeuren.

Intel is een belangrijk bedrijf voor de regering-Trump, omdat het het enige Amerikaanse bedrijf is dat geavanceerde chips kan produceren. De chipfabrikant zit echter in financieel zwaar weer, onder meer door toenemende concurrentie vanuit bedrijven als TSMC en AMD. Intel Foundry, de chipproductietak van het bedrijf, draaide vorig jaar een verlies van 13,4 miljard dollar.

Onlangs ging het gerucht dat Qualcomm interesse zou hebben in een overname van Intel, maar het bedrijf zag daar uiteindelijk vanaf omdat een overname 'te complex' zou zijn. Overigens probeerde Broadcom in 2018 om Qualcomm over te nemen, maar dat werd destijds tegengehouden door Donald Trump.

Door Kevin Krikhaar

Redacteur

16-02-2025 • 11:20

99

Lees meer

Reacties (96)

96
96
43
0
0
23
Wijzig sortering
Was VMWARE kapot maken niet voldoende? :-(
Ze hebben het helemaal niet kapot gemaakt. Dat vele kleine klanten zijn verdwenen door het vereencoudigen van het product aanbod is niet hetzelfde als kapot maken. Want er zijn aan de andere kant ook vele klanten die vandaag net beter af zijn. Zo betaalt de firma waar ik werk vandaag ineens een stuk minder aan licentiekosten en zijn wijzigingen die VMware zelf had aangebracht voor de overname, die nadelig waren, teruggedraaid.
Ik weet niet waar jij werkt maar het grotere MKB (en overheid) is hard op zoek, vind, en implementeert ieder alternatief voor VMware. Ik ken niemand die niet naar alternatieven aan het kijken, plannen is of deze al implementeert.

Kijk mijn voet. Daar ga ik 'ns in schieten!

[Reactie gewijzigd door redniels op 16 februari 2025 11:50]

Misschien dat ze de overhead hebben bekeken en beslist hebben dat die hoop kleine klanten veel minder opbrengt dan de grote klanten. Als klant moet je je afvragen hoe belangrijk jouw business is voor je leverancier en dat kan vaak een heel ontnuchterende ervaring zijn. In jouw eigen sector kan je misschien de grootste en belangrijkste speler zijn, maar dat wil daarom niet zeggen dat je dat ook dezelfde invloed hebt als afnemer van andere diensten, zelfs al kosten die jou erg veel.
Dit is zeker iets waar Broadcom naar gekeken heeft, daar zijn zij verschrikkelijk goed in.

Het probleem is alleen dat Broadcom wel degelijk producten kapot maakt.
Ze kleden namelijk alles uit tot op het bot. Ondersteuning van klanten, nieuwe ontwikkelingen, kwaliteit.
Het gaat allemaal gestaag achteruit.
Dat is namelijk de modus operandi van dit bedrijf. Kosten richting nul voor zo ver het kan. Klanten zijn niet belangrijk, alleen de omzet.
En zodra de omzet onder een bepaald niveau valt, zal het product worden geschrapt, en wordt het volgende bedrijf opgekocht om het kunstje te herhalen.
Dit is een kunstje dat is ontwikkeld door Computer Associaties, te tak waaronder deze doodbloed constructie tot ware kunstvorm is verheven. CA doet dit kunstje al meer dan 40 jaar.
Alles wat onder de CA tak terecht komt gaat de weg van de dodo.
En Broadcom zelf is niet heel veel beter.
ik wil ze niet verdedigen, maar als investeerders geen kans zien om hun winst te maximaliseren, dan zullen ze niet in een bedrijf (blijven) investeren.
Het probleem is dat er instellingen zijn die geld blijven bijmaken en dat komt voor het grootste gedeelte niet bij kleine bedrijven en consumenten terecht, maar in deze globale investeringsvehikels en megacorporaties. De globale economie is een bubbel die alsmaar groter wordt opgepompt en eigenlijk al heel lang gebarsten zou moeten zijn, terwijl de schuldgraad alsmaar blijft toenemen wordt het leven voor quasi iedereen alsmaar duurder.
In China beginnen we al een tijdje de keerzijde daarvan te zien en begint er her en der zwarte sneeuw te vallen, iets dat hier een paar decennia geleden ook is gebeurd en opnieuw zal gebeuren bij het volgende lagenkostenland totdat automatisatie ervoor zorgt dat er enkel nog maar armen zijn die niet meer kunnen consumeren.
Dat is het punt, dit is de "ultieme" vorm van kortstondige winstmaximalisatie ten koste van alles, de aandeelhouders zijn hier meer dan tevreden over.
Investeerders die alleen oog hebben voor winst is nooit goed op lange termijn voor een bedrijf..
da's het nadeel van beursgenoteerd te zijn als bedrijf: je kies je eigen aandeelhouders niet.
ik wil ze niet verdedigen, maar als investeerders geen kans zien om hun winst
Op de korte termijn.
te maximaliseren, dan zullen ze niet in een bedrijf (blijven) investeren.
Zie het artikel wat ik hier wel vaker aanhaal:
The Dumbest Idea In The World: Maximizing Shareholder Value
en de follow up
Making Sense Of Shareholder Value: 'The World's Dumbest Idea'
Misschien dat ze de overhead hebben bekeken en beslist hebben dat die hoop kleine klanten veel minder opbrengt dan de grote klanten.
Ongetwijfeld zit er meer marge op grote klanten maar kleine klanten van vandaag zijn de grote klanten van de toekomst. Tevens zullen er minder vmware specialisten in de markt zijn en dat maakt het vinden van personeel weer lastiger.

Op korte termijn zullen ze ongetwijfeld meer winst maken maar op de langere termijn is dit een doodlopende strategie.
Ik denk dat zowel de alternatieven maar vooral public cloud de grote winnaars zullen zijn...
daarom dat ik ze ook niet wil verdedigen ;)
Was laatst nog op een event waar ze uitleg hebben gegeven. Conclusie, je moet het licentie model begrijpen en gericht om licenties vragen.

Naar alternatieven kijken gebeurd al heel lang. En terecht... Maar eigenlijk gaat het vooral om de partijen die naar de alternatieven overstappen
Wij zijn ook aan het kijken naar alternatieven, we kwamen ooit van proxmox, de kans is aanwezig dat weer teruggaan.

We zijn alleen gewend geraakt aan vSAN en Ceph is te complex.
Ik denk ook dat ze bood van containers hebben gemist.

Tuurlijk ben ik blij dat ze nooit Docker hebben overgenomen, maar dat was voor hun echt ideaal geweest.
Dat betwijfel ik gezien ze een antal grote klanten hebben die daar gebruik van maken; ik denk dat je bedoeld dat het niet breed beschikbaar is voor alle vSphere klanten, dat is in ieder geval hoe ik er tegaan aan kijk. Dat vind ik zelf al van een product als NSX, dat zou wat mij betreft een standaard onderdeel moeten zijn met het oog op microsegmentatie.

VMware heeft met het Tanzu platform een volledige container service op het vSphere platform en kan daarbij volledig gebruik maken van vSAN, NSX en alle andere componenten.
https://blogs.vmware.com/...ng-vmware-tanzu-platform/
Wij ook. We hebben nog 1x onze vSphere voor 3 jaar verlengd en zijn nu heel hard aan het timmeren aan Proxmox/PVE + Ceph POC met oude hardware. Dat verlost ons ook meteen van dure SAN appliances.

We hebben nu ook wel een simpele en kleine setup (3 hosts + 1 san bak).
Misschien een beetje kort door de bocht... dat er optimalisatie zal gebeuren van gebruik, dat zal zeker zo zijn. Als je denkt dat de alternatieven gewoon gratis zijn dan vergeet je het maar. Dat er voor alles ook een 1 op 1 allternatief is vergeet je ook maar. Uiteindelijk krijg je nog steeds veel SW voor functionaliteit. Alleen is het wat duurder geworden. Bij die alternatieven kom je dan op een groter aantal platformen uit, de kennis is beperkter of niet beschikbaar op de markt, de migratie kost veel geld.maw. bekijk eens juist het kosten/baten plan.

Er zal zeker een massa zijn zoals @bucovaina89 maarja, als je al spreekt over SAN bak - 3 hosts en dure SAN appliances, je smijt het gewoon op een kleine vSAN en je was al af van je dure "SAN". Jouw vlek was vroeger gewoon de massa waar meer miserie in support was dan iets anders, dat ze daar geen interesse meer in hebben snap ik volkomen, dat is enkel partner werk. Trouwens als je denkt dat je niks werk hebt aan proxmox, Ceph en alle gerelateerde poducten veel succes. De licentie kost zal wel wat lager liggen, de support en patch cycles daarentegen zeker niet zo simpel.

[Reactie gewijzigd door d3x op 17 februari 2025 08:29]

Jij bent dan echt de enige die er zo tegenaan kijkt.
Heeft hij wel vaker last van.
Dat ze geen perpetual licenties meer aanbieden kan ik nog wel begrijpen. Maar in bijna alle gevallen worden de kosten toch aanzienlijk hoger.

Het hangt waarschijnlijk af van de opties, maar er zijn extreme voorbeelden zoals hier. Een partij met 20.000 VM's, lijkt met toch geen kleintje, stopt over op een andere hypervisor.

Andere voorbeelden.

Daarnaast het gebrek aan communicatie wat er nu allemaal zou gaan gebeuren. Totaal geen duidelijkheid over welke distributeuren nu wel of niet licenties konden gaan aanbieden. Inloggen op hun portal om daar licenties die je hebt te checken of te downloaden werkt na een jaar bij veel mensen nog steeds niet omdat ze het account niet gekoppeld krijgen aan de juiste klant.

In ons concrete voorbeeld (iets minder dan 1000 VM's) valt het gelukkig ook mee, voorheen een SPLA model op basis van geheugen gebruik, nu op basis van cores in het cluster. Schade bijvoorbeeld kunnen beperken door overcapaciteit aan hosts in maintenance mode te zetten. Wij maken daarnaast geen gebruik van vSAN, volgens mij ben je dan spreekwoordelijke "Sjaak" als je dat nodig hebt.
Gaan jullie migreren naar Proxmox, of een ander alternatief?
Proxmox gebruiken we nu enkel bij klanten op locatie die een kleine omgeving hebben met bijvoorbeeld 2 of 3 hosts. In ons eigen DC voorlopig nog VMWare.
Same, daarnaast Nutanix
Ik weet niet in welke branche jij zit, maar wij gaan 140% meer betalen. Ofterwel, dat kunnen we niet betalen.

140% voor HETZELFDE

Wij moeten dus omschakelen naar ...... zeg het maar...... Azure, Hyper-V, Proxmox?
Dat gaat allemaal ook niet vanzelf
Hier naar Proxmox en deels Nutanix
Zo betaalt de firma waar ik werk vandaag ineens een stuk minder aan licentiekosten en zijn wijzigingen die VMware zelf had aangebracht voor de overname, die nadelig waren, teruggedraaid.
Damage is done tho; ik vertrouw ze niet meer en als het aan mij ligt migreren we deze maand nog naar desnoods Hyper-V.

Mijn collega's denken er niet heel veel anders over. Denk niet dat de organisatie zo'n verandering tegen zal willen houden, aangezien ze nog steeds een stuk duurder zijn dan eerst.

[Reactie gewijzigd door deadlock2k op 16 februari 2025 16:07]

Denk het wel, ik zie dat veel partijen zijn overgestapt. Misschien niet de enorme multinationals, maar er is zeker wel een beweging naar alternatieven.
Ja, het standaard business model is:
- Verhoog de prijzen tot het pijnpunt van de klant.
- De (kleine) consument moet afhaken.
- Concurrentie op de markt wordt beperkt, AMD wordt monopolist, verdere prijsverhogingen.
- Maar is er wel even geld verdiend...

[Reactie gewijzigd door Geekomatic op 16 februari 2025 16:21]

Is het grootste probleem dan niet dat 'we' (veel klanten) zich afhankelijk hebben gemaakt van Microsoft tech en op Microsoft gebaseerde tech, daarmee van Windows VM's die altijd goed op VMware daaien (goede leveranciersondersteuning etc) en het daarmee lastig maakt om [anders dan naar HyperV] naar alternatieven over te stappen. Wat "we" dus moeten doen is ons minder afhankelijk maken van de tech die ons op vSphere houd en naar formaten moeten die portable zijn tussen on-prem en verschillende (priviate en public) cloud leveranciers.
Stel je eens voor dat Intel tzt daadwerkelijk overgenomen wordt door een andere partij,
- Welke voordelen heeft dat voor de gewone consument/tweaker?
- Welke nadelen heeft dat voor de gewone consument/tweaker?
als gebruikers denken we daarover na, maar policy-makers, investeerders en aandeelhouders trekken zich daar geen bal van aan. Meer nog zelfs: die willen helemaal geen concurrentie zodanig dat ze helemaal zelf kunnen kiezen hoeveel winst ze gaan maken en dat is altijd zoveel mogelijk.
Grote kans dat er geen losse gpu en cpus voor desktops meer worden uitgebracht als broadcomm het overneemt.
Dat zal waarschijnlijk niet zo het probleem zijn, ik verwacht eerder dat je periodieke licenties op je CPU/GPU moet gaan afnemen.
Een kleine opsomming die ik later nog kan uitbreiden:
  • Voordelen
  • De markt wordt geopend voor meer chipbedrijven
  • Meer concurrentie en lagere prijzen door de opkomst van andere architecturen
  • Nadelen
  • Verwacht verlies van x86 compatibele processoren
  • Propriëtaire software voor x86 processoren zal door middel van emulatie gedraaid moeten worden
Ik zie het positief in. Wellicht moeten mensen in het begin door een zure appel doorbijten, maar op de lange termijn heeft het alleen maar voordelen. Als Intel (na eerdere mislukte pogingen met RISC en EPIC architecturen) niet zo verweven was met x86, had het allang zijn kans kunnen grijpen met ARM processoren voor de massamarkt. AMD is meer agnostisch en werkt al aan ARM processoren.

Nu zie ik liever Intel ruimte maken voor nieuwe bedrijven. Het gaat uiteindelijk om het draaien van software voor het uitvoeren van taken. Als dat op andere processoren goedkoper en beter kan, heeft Intels chipontwerptak geen bestaansrecht meer.
Wacht, hoe zorgt het samengaan van twee giganten voor meer concurrentie? Hoe wordt de markt zo geopend voor meer chip bedrijven? Het is pure consolidatie, meer niet.
Het ligt eraan hoe je het bekijkt. De x86 markt wordt inderdaad geconsolideerd, maar dat opent de markt voor alternatieven zoals ARM en RISC-V. En dat laatste is waar ik voornamelijk in geïnteresseerd ben, omdat er meer bedrijven kunnen deelnemen aan de markt en de concurrentie kan leiden tot een groter aanbod en lagere prijzen.

[Reactie gewijzigd door psychicist op 17 februari 2025 14:24]

De markt voor ARM en RISC-V is al open, dus je maakt alleen maar dat consumenten en bedrijfen even 10+ jaar of iets dergelijks moeten dealen met nog een grotere monopolist voordat ze helemaal omvallen en alle basis software allemaal geport is. Ook in de netwerk tak is het erg jammer als ze samen gaan ze zijn allebei erg groot.

Ik zou durven beweren dat dat helemaal niet nodig is als de ARM boys nou gewoon eens een beter product zouden maken. Zeg maar Apple stijl maar dan zonder de ijzeren controle, zoals bijvoorbeeld AMD en Intel hun CPUs verkopen.

En RISC-V is voor consumenten helemaal een slecht idee want ze kunnen allemaal weer hun eigen smaakje maken waardoor we gewoon weer terug gaan naar de jaren 80 qua compatibiliteit tussen systemen.
Het wegvallen van een grote x86 partij maakt het hele proces evenwel alleen maar gemakkelijker. RISC-V is een prima idee, zolang er vastgehouden wordt aan profielen zoals RVA23. Dan kun je altijd uitgaan van een basis.

Het is nu niet alsof x86 zo geweldig is met al zijn adhoc extensies die uiteindelijk toch niet ondersteund worden in software. ARM doet het qua standaardisatie dan een stuk beter.
Als er vast gehouden wordt aan profielen ja, dat is nu in ieder geval helemaal niet zo. Hielp ook niet dat de vector extensions zo lang op zich lieten wachten. Het grootste probleem is gewoon dat je ze niet kan forceren zich aan de standaarden te houden. Want die basis is gewoon niet genoeg, je hebt gewoon al je vector en matrix extensions nodig in moderne software. Helemaal als je een beetje performance wil. Dan is eigenlijk OpenPOWER een beter idee, heeft ook gewoon alle features al net als ARM, maar dan zonder de kosten.
Ik zie het probleem helemaal niet zo. RISC-V software staat nog in de kinderschoenen en is op de desktop nog helemaal niet uitgekristalliseerd. Op het moment dat er cores uitkomen die desktop/serverwaardig zijn, zullen ze zeker deze profielen willen ondersteunen, omdat het anders inderdaad een wirwar van extensies zal worden. Tot nu toe staat het allemaal in de kinderschoenen zoals 10-15 jaar geleden bij ARM ook nog het geval was.

OpenPOWER was inderdaad een goed idee, maar het zal buiten de server en workstation (van Raptor Computing Systems) ook vanwege de kosten en het gebrek aan mindshare bij chipontwerpers nooit meer het marktaandeel van RISC-V halen. Ook de SVP64 extensie zie ik niet snel opgenomen worden in een POWER standaard.

Dus ik reken uit die hoek eigenlijk nergens meer op en heb OpenPOWER inmiddels op de desktop afgeschreven, hoe spijtig dat ook mag zijn. De meeste ontwikkelaars zullen er dus ook niet snel meer mee in contact komen en hun software ervoor optimaliseren.
Niet dat ARM veel beter is. Daar zit een licentie structuur achter waar je ook niet blij van wordt.
Dan beter direct doorpakken naar een RISC-V systeem. En ver, heel ver weg blijven van ARM.
Competitieve ARM chips zijn in ieder geval goedkoper en nu beschikbaar, wat van RISC-V chips nog niet gezegd kan worden buiten wat low-end implementaties. Dus beter nu ARM pakken en dan de transitie naar RISC-V verder doorzetten.

[Reactie gewijzigd door psychicist op 17 februari 2025 14:24]

Als Intel (na eerdere mislukte pogingen met RISC en EPIC architecturen) niet zo verweven was met x86, had het allang zijn kans kunnen grijpen met ARM processoren voor de massamarkt
Wat voor voordelen heeft het produceren van ARM-cpu's voor Intel? De instructieset is al jarenlang geen bottleneck meer.
Wat bedoelt het artikel precies met " enige Amerikaanse bedrijf is dat geavanceerde chips kan produceren"? En daarna wordt AMD als concurrent genoemd. Maar AMD is toch ook een Amerikaans bedrijf? Wordt hiermee bedoeld dat AMD de chips niet zelf produceert maar alleen ontwerpt? Volg het niet helemaal.
AMD is inderdaad 'fabless'. TSMC (Taiwan) bakt de chips.

Dit jaar opent TSMC ook een fabriek in de VS trouwens. En in Dresden staat er sinds vorig jaar ook één.

[Reactie gewijzigd door PD2JK op 16 februari 2025 11:55]

Ik denk dat produceren letterlijk is. Intel heeft eigen fabrieken, AMD niet, die besteden alles uit. En daarmee ben als Amerika dan afhankelijk van andere landen, iets wat strategisch zwak is. Ook precies de reden dat de EU ook meer eigen fabrieken wil.

[Reactie gewijzigd door Arjant2 op 16 februari 2025 11:58]

Als China Taiwan binnen valt, heeft Amerika zonder Intel geen chips meer voor hun F35s etc.
De F-35 dateert uit 2006 en dus op basis van 20 jaar oude technologie. Die chips kunnen ze bij GlobalFoundries, NXP, en Siemens ook maken.
Global Foundries bestaat ook nog. In feite de voormalige bakkerijafdeling van AMD, die zelfstandig is afgesplitst. Deze zit kennelijk nog wel in Amerika, onder andere, maar is niet bepaald te zien als een Amerikaans bedrijf als je de eigenaren naloopt.

Tevens liepen die reeds achterop op Intel, als ik me niet vergis, terwijl AMD dus vervolgens z’n chips bij TSMC liet bakken.
Global Foundries richt zich op een andere markt. Het meest geavanceerde wat ze hebben is 12nm.
Over het algemeen is het voor de consument ongunstig als de markt in handen is van een handjevol bedrijven. Intel zelf is daar het perfecte voorbeeld van, met hun eindeloze 14nm++++ iteraties. Dat heeft hen nu dan wel de kop gekost, met AMD die ze heeft ingehaald op x86-64 – en dan hebben we het nog niet eens over de toenemende concurrentie vanuit de ARM-hoek.

Intel heeft dit dus volledig aan zichzelf te wijten. Toch hoop ik dat ze hun zaken weer zelfstandig op de rit krijgen, want meer keuze is uiteindelijk beter voor ons als consument.
Het feit dat je kan zeggen dat de keuzes van intel de concurrentie een kans heeft gegeven toont aan dat het niet alleen ongunstig is.

Dat de aandeelhouders van intel een bod krijgen kon altijd al verwacht worden. Als ze het accepteren hebben klanten de gevolgen aan hun te danken. Het is dus vooral de vraag wat die aandeelhouders willen en mogen. Willen de huidige aandeelhouders dit onderdeel verkopen en het bedrijf verder afhankelijk maken van anderen en mag dat? Of willen en moeten ze genoegen nemen met eigen mogelijkheden op lange termijn?
Volgens mij wordt de boel geremd door de storage-markt die pertinent weigert om te paralleliseren. We zouden gelimiteerd moeten zijn door de snelheid van de systeem-bus maar dat halen we nergens omdat alle storage-apparaten monolitisch opgezet moeten zijn. Wat rekenkracht betreft ontstaat daardoor overcapaciteit en wordt het minder waard. Dit baseer ik op gevoel dat ik heb door mijn PC's de afgelopen 5 jaar. Alles is snel behalve de opslag. De aanleiding voor een nieuw systeem wordt minder.
Tenzij je voortdurend number crunching met grote datasets doet, valt dit in de praktijk wel mee. SSD’s hebben t.o.v. van HDD’s al heel veel verbeterd met snel stijgende bandbreedtes zonder de seektijden van mechanische systemen. Zeker als je een RAID systeem opzet met de laatste generatie SSD’s, denk ik dat je systeem zelden geremd zal worden door storage.
Het verschil zou niet door de techniek moeten worden bepaald als je gewoon apparaten laat samenwerken ten koste van een klein beetje transmissie/formaat performance.
Ik haal nu met een ZFS mirror van 2 Seagate schijven dezelfde snelheid als de gemiddelde m.2 SSD maar bij lange na niet die van de PCIe bus. Ook niet als ik schijven ga toevoegen, eventueel met meerdere controllers.

[Reactie gewijzigd door blorf op 16 februari 2025 12:19]

Sorry maar dat is onzin, of je hebt nog nooit iets anders dan een qlc drive gebruikt.

Een harde schijf haalt op een goede dag 120 MBps. En stel nu dat jouw nas perfect werkt en geen bottlenecks heeft, dan heb je dus met twee schijven 240 MBps.

Ik neem aan dat je in reviews al gelezen hebt dat zelfs PCIe gen3 drives makkelijk 1500 MBps halen? Daarom vermoed ik dat je het over sustained speed hebt, maar ook daar worden harde schijven verpletterd.

Als jij opzoekt wat de sustained write speed van een ssd is, dan vind je zo dat tlc drives makkelijk 1 GBps halen. Enkel qlc drives blijven rond de 100 MBps steken. Maar ook deze zijn beter dan harde schijven, omdat ze de eerste paar gigabyte vaak naar een cache wegschrijven die wel enkele GBps haalt.

Wat je zegt klopt dus simpelweg niet.
Een aantal dezelfde samen niet, denk ik. Dat bedoel ik de hele tijd. De prestatie van 1 enkele drive is niet zo relevant omdat de onderliggende kanalen waar het op is aangesloten nog een veelvoud aan bandbreedte over heeft.
Naar mijn idee kan het niet anders dan dat dit kunsmatig beperkt is om de storage-markt overeind te houden. Anders koopt iedereen 20 10 jaar oude m.2 reepjes vam 512GB en maakt een soft RAID-achtig systeem met r/w snelheden die gewoon cumulatief zijn voor het aantal devices. Waarom dat niet en afzonderlijke recente drives wel?

[Reactie gewijzigd door blorf op 16 februari 2025 14:28]

Blijft staan dat je echt wat kennis tekort komt als je dingen zegt als "Ik haal nu met een ZFS mirror van 2 Seagate schijven dezelfde snelheid als de gemiddelde m.2 SSD". Dat is namelijk indicatief voor een hoogst problematisch system.
Dat denk je alleen maar. Ik gebruik een basis-voorbeeld om mijn punt te verduidelijken. Het lijkt niet overal te werken. :+
Ben benieuwd hoe het zit met die PCIe kaarten waar je tot 8 m.2 kaartjes in kan steken
Omdat PCIe ssd's wel de bus kunnen volpompen? Kijk bijvoorbeeld naar gen4 en gen5 ssd's, de betere exemplaren halen respectievelijk 7.5 en 14.5 GB/s sequential. Ook hebben de snelste gen 5 ssd's 1.8 miljoen IOPS, in vergelijking met de 200 van een goede HDD. Dit is de praktische limiet van de 4 lanes die ze tot hun beschikking hebben. Meer dan genoeg voor het overgrote deel van de toepassingen van PCs.
SSD's wel maar mechanische schijven niet? Ok...
Waarom denk je dat een hele industie (storage) het kunstmatig langzaam houden? Ik werk veel met servers, deze drives zijn ook niet sneller veel dan die voor consumenten.
Sinds storage-apparaten alleen maar uit chips bestaan die even goed naast elkaar als op elkaar kunnen functioneren is er geen technisce beperking meer die ervoor zorgt dat de maximale snelheid van een volume onder die van de systeem-chipset ligt. Bij het mechanisme van schijf-opslag was je gebonden aan een vastgesteld medium met grenzen.
2 SSD controllers laat je niet zomaar naast elkaar werken, daar heb je dan weer een controller voor nodig om die data te spreiden op een veilige manier. Dit doen we met servers natuurlijk al heel lang: RAID. Dit zorgt ook voor redundancy wat je in deze situaties ook wel.

Ik denk dat voor 99.9% van de consumenten een enkele snelle SSD meer dan snel genoeg is. Hoe vaak heb je nou echt meer dan 10GB/s nodig?
Ik snap heel goed dat er geen nieuwe standaard wordt gemaakt voor die heeele kleine groep mensen die een snellere SSD wil maar geen RAID.
Ik denk dat 2 SSD-controllers samen hetzelfde kunnen halen
als de snelheden van beide op gebruikers-niveau bij elkaar opgeteld.
In theorie heb je gelijk. Maar dan zal je moeten werken met een PCIe switch ofzo. En als je de snelheden bij elkaar op wil tellen moet je data spreiden. Schrijf je 1 GB weg, moet 0.5GB op de ene SSD en 0.5GB op de 2e SSD terecht komen, want toch redelijk wat rekenkracht nodig heeft en de drivers ook duurder maakt. Nogmaals, bij servers doen we dit al sinds jaar en dag. Maar dit is niet gratis en voor een normale gebruiker ook overkill.

Waar loop je tegenaan dat je deze snelheden nodig heb trouwens? Ik heb een PCIe 5 m.2 SSD, deze haalt al meer dan 10GB per sec.
Geen idee. Wat zorgt voor de limiet bij PCIe 16x? Zelfs met SATA zou die er niet moeten zijn, aangezien je gewoon controllers kan toevoegen. Ik heb alleen maar vage verhalen gehoord over lanes maar nog geen uitleg, laat staan dat er iets stuurbaar is. Zou die limiet niet een beschreven kenmerk moeten zijn van moederborden? Het zou me verbazen als er iets met onbeperkt SATA-controllers over de 400 MB/s heen gaat.

[Reactie gewijzigd door blorf op 17 februari 2025 15:55]

De limiet IS een beschreven kenmerk van moederborden/CPUs.

PCIe is een standaard die een CPU wel of niet ondersteunt. Elke versie van PCIe verdubbelt de snelheid per lane. PCIe 5 is bijvoorbeeld 4GB per sec, per lane. Dus een 16X slot heeft een bandbreedte van 64GB/s. Een M.2 SSD heeft normaalgesproken een 4X slot, dus 16GB/s. PCIe 6 zal 8GB/s per lane worden als het uit komt, PCIe 7 16GB/s.

SATA is ook een standaard, deze is nog gemaakt voor oude HDDs en heeft een max bandbreedte van rond de 600MB/s. Voor een HDD is dit nu nog steeds meer dan genoeg, maar voor SSDs niet. Deze standaarden worden altijd jaren voordat ze echte te koop zij bedacht omdat alle onderdelen geschikt moeten zijn en dit ontwikkeld moet worden.

Het moet in de CPU gebouwd worden, het moederbord moet geschikt zijn, en er moeten SSD controllers ontwikkeld worden. Dit alles kost tijd en geld. Toen PCIe 5 net nieuw was waren er gewoon nog geen SSD controllers die deze maximum snelheid konden halen, dit duurt altijd even.
Het is de maximale system-wide aanvoer van raw data direct naar opslag-apparaten. Hoe snel krijg je 32GB random data van RAM naar opslag? Daarbij zijn 16 SATA schijven langzamer dan 2 nvme's?
Het aantal controllers gaat voor een zekere overhead zorgen maar het lijkt me niet dat de boel dichtslibt boven een bepaald aantal. Dat gaat evenredig omhoog.
Ik snap als ik eerlijk ben je probleem niet helemaal. Ja Sata, wat een oudere standaard is van voor dat SSDs een ding waren, is vele malen langzamer dan de nieuwe PCIe 5 NVME SSDs, dat is toch logisch?

En waarom zou er een nog snellere standaard gemaakt worden als dit voor 99%+ van de gebruikers snel genoeg is en er oplossingen zijn om dit te versnellen zoals RAID?
Het wordt door mensen heel ingewikkeld gemaakt maar mijn kwestie is erg eenvoudig.
Waarom kan een storage-volume van SATA-schijven SSD's niet verslaan met kwantiteit terwijl we nog ver onder de maximale doorvoersnelheid van de computer zitten?
Het fysieke verschl tussen een SSD en een SATA-schijf kan daar helemaal niet mee te maken hebben. Een probleempje wat ik wel begrijp is dat de hele markt in elkaar stort als de prestatie van een enkel apparaat zijn rol verliest als meerdere oude apparaten samen dat evengoed halen. Dat idee moet kost wat kost buiten beeld worden gehouden voor de vekoop van de nieuwste produkten.
lk denk dat storage al lang te schaalbaar is om dat nog lang vol te houden, tenzij de hele industrie collectief iedereen voor het lapje houdt.
Overigens verwacht ik niet dat het bij netwerken en USB ooit anders is geweest. Toen iedereen de 100Mbit RTL8139 van een tientje gebruikte kon die ook voor heel weinig extra produktiekosten in snelheid vertienvoudigd worden, maar dan zouden de Gbit interfaces lang niet zo veel opbrengen. USB trapt verplicht alles achter elkaar door 1 deur. Dat is gewoon gesaboteerd. Doe eens 100 controllers mulitplexed in een PC-chipset en dan niet allemaal bovenop een "root hub" maar apart adresseerbaar zoals alle andere hardware.

[Reactie gewijzigd door blorf op 18 februari 2025 12:14]

Waarom gebruik je niet 10.000 floppy drives tegelijk ipv een SSD? Omdat dat gewoon niet praktisch is.

Waarom zou je nou 10 SATA SSDs aan elkaar gaan knopen via een RAID opstelling als 1 enkele NVME SSD sneller is, goedkoper is, minder ruimte, minder stroom gebruikt?

Ten tweede. Niemand houd je toch tegen 10 SATA schrijven aan een raid controller te hangen en dat te gebruiken? Dit is gewoon mogelijk maar niemand doet het omdat het in geen enkel opzicht beter is.

Geloof jij ook dat de aarde plat is, gezien je nog al van de complot theorieen lijkt te zijn?
Vraag het aan alle mensen die het gebruiken vanwege de prijs per GB. Die omvang en stroomverbruik zijn echt niet alles. De gemiddelde thuisgebruiker zal het een worst zijn dat de storage 10x10x10 cm en 100 Watt vereist. Als het ook veel is, prima.
Waarom koop je dan niet een raid controller met 10 oude schijven? Wie houd je tegen? De storage industrie?
Hardware-RAId heeft denk ik geen zin. Ik heb nog een kaart voor 3 schijven maar je krijgt problemen als je zoiets gaat mixen met iets van software.
Nog wel een hoop SAS2008 em MegaRAID kaarten. Daar kom ik redelijk ver mee maar naast elkaar maken ze geen snelheidswinst meer. Gewoon SATA scijven erop werkt nog steeds beter dan via de bord-SATA. Ze blijven ook veel rustiger.

[Reactie gewijzigd door blorf op 18 februari 2025 15:27]

Is de uitleg die je nu geeft niet een goede reden waarom je liever niet een hoop oude SATA drives wil maar beter een NVME SSD kan nemen?
Er bestaan blijkbaar geen SATA-controllers die dusdanig onafhankelijk van elkaar kunnen werken dat ze niet elkaars beschikbare bandbreedte kunnen be-invloeden. Die grens is dus eigenlijk een kenmerk voor chipsets. Wel moeilijk te verkopen...

[Reactie gewijzigd door blorf op 18 februari 2025 15:41]

Ik zou "Big storage" gewoon de schuld blijven geven hoor....
Eigenlijk de natuurlijke eigenschappen van storage, dat het zo goed als onbeperkt schaalbaar is, en sinds kort niet meer gebonden aan een mechanisme met beperkingen. Exclusiviteit door prestatie per eindprodukt is niet meer echt. Er wordt wel veel meer storage door verkocht en afgedankt.
schijven zijn dan ook niet de snelste technologie en de oorzaak is gewoon inherent aan de opzet van een roterende platter. Net zoals je met een traktor geen snelheidsrecords gaat breken of met een sportwagen gaat verhuizen.
Ik vraag me dan echt af wat je workloads geweest zijn, want de afgelopen jaren is juist gebleken dat storage belachelijk snel is geworden, terwijl er amper of helemaal géén gains zijn voor meer dan 95% van de tijd/gebruikers in het consumer desktop-segment. Cooling en thermal throttling zijn bij storage devices juist een probleem aan het worden waardoor ze voor een fractie van de tijd permanente overbuild solutions vragen.
Het kan ook wel snel maar wel met apparaten die individeel een topprestatie leveren. 3 van 5 jaar terug zouden hetzelfde moeten kunnen. Die prestatie is niet de echte top.
Dat is volgens mij gezeik er zijn NVMe storage SSD's met U.2 PCIExpress drives en die doen iedere 8/16x SAS spinning rust array het loodje leggen performance wise. Dat je de spinning rust niet (veel) sneller krijgt is een gevolg van de technologie erachter. Die heeft zijn beste tijd al lang gehad ookal hebben ze nog een storage/prijs waarde voordeel voor grote residente datasets of thuis situaties.
Met SAS kom je verder. Alleen, wat maakt het verschil? De bedrading is allebei serieel. Toegangsrijd is bij SAS SSD amper nog van toepassing. De patenten van de controllers en de prijs, zou ik zeggen.
Intel heeft dit dus volledig aan zichzelf te wijten. Toch hoop ik dat ze hun zaken weer zelfstandig op de rit krijgen, want meer keuze is uiteindelijk beter voor ons als consument.
Absoluut maar Intel heeft +100.000 werknemers terwijl Nvidia+AMD er samen maar 60.000 tellen.
Marks capitalisatie is niet alles.
O nee, niet Broadcom.... Wat mij betreft staat dit bedrijf in hetzelfde rijtje als EA en Rambus. Het is gewoon een ordinaire investeringsmaatschappij geworden. Bedrijf(stakken) opkopen en verkloten/uitmelken. En anders wel patent-trollen.

[Reactie gewijzigd door PD2JK op 16 februari 2025 11:38]

Ook mijn eerste gedachte. VMware om zeep helpen was nog niet genoeg blijkbaar. Krijgen we straks weer consumenten cpus van 1500€+

Broadcom zou eens wat breder bekeken mogen worden wat mij betreft. Want ze zitten zo ongeveer overal in en slopen voor wat snelle knaken bedrijven die voorheen marktleiders waren op hun gebied.
Dan ontstaat er toch vanzelf een markt voor nieuwe partijen? Zolang gevestigde namen acceptabele prijzen vraagt gaat niemand zich in zo'n markt begeven als nieuwkomer. Je kunt dan immers alleen maar marktaandeel krijgen door tegen extreem lage prijzen te gaan leveren. Misschien wel onder kostprijs. Maar als de gevestigde naam de prijzen omhoog gooit zijn er mogelijheden om daar onder te gaan zitten en toch geld te verdienen. Als X86 te duur wordt is het een mooie kans voor andere architecturen.

[Reactie gewijzigd door Frame164 op 16 februari 2025 13:18]

Maar goed dan kopen ze die ook gewoon, of pakt Qualcomm ze op of Nvidia. Zeg maar het samen gaan van die grote jongens is bijna nooit goed voor de markt. Dat is waarom we er normaal zo moeilijk over doen bij de overheid, maar de huidige overheid in de US niet normaal dus het zal allemaal wel mogen.
gok dat ze alleen mobiel, laptop en server cpus gaan uitbrengen en niks uitbrengen in de desktop markt.
Alles wat Broadcom doet en overneemt gaat kapot of werkt niet. Niet alleen in het echt, ook opensource en werkende drivers op Linux is niet hun ding.
De fabs zijn het grote probleem, zoals het er nu voor staat heeft behalve TSMC niemand veel aan EUV.

Als Amerika/Trump cutting edge fabs in Amerikaanse handen wil houden zie ik maar een optie. Met een hele hele grote zak geld naar TSMC gaan en ze te vragen hun technologie te licenseren. Dat zou voor ASML ook heel goed zijn, die Intel bestellingen waren de laatste stuiptrekking van een hele zieke markt ... maar een echte klant hebben voor EUV is niet goed voor ASML.
Broadcom nam vmware over - we weten allemaal wat het gevolg is geworden! Niet veel positiefs over te zeggen eigenlijk.
Als ik dit zo lees dan weet ik nog zo net niet of ik bij een eventuele upgrade van mijn systeem nog wel voor Intel zal kiezen met deze onzekerheid. Denk dat ik dan toch maar weer richting AMD ga waarmee ik voorheen ook zeker geen verkeerde ervaring heb opgedaan.

Op dit item kan niet meer gereageerd worden.