Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 96 reacties

Bij Intel verdwijnen mogelijk opnieuw banen. Dat zou te maken hebben met tegenvallende bedrijfsresultaten, zo wordt in geruchten gesteld. De chipontwerper heeft in de afgelopen jaren zijn personeelsbestand al meerdere malen verkleind.

De berichtgeving is afkomstig van de Amerikaanse krant The Oregonian, die stelt op de hoogte te zijn gebracht door meerdere bronnen binnen Intel. Er zouden plannen zijn om in totaal 'duizenden' mensen te ontslaan, al werden er geen precieze cijfers genoemd. Door de ontslagen zou het personeelsbestand in sommige takken van het bedrijf met tientallen procenten terug kunnen lopen. Ook zouden sommige kantoren gesloten kunnen worden, als onderdeel van de reorganisatie.

Intel heeft dus zelf nog niet officieel bevestigd dat het zijn personeelsbestand gaat verkleinen. Volgens de bronnen van The Oregonian kan dat op zijn vroegst dinsdag gebeuren, wanneer het bedrijf zijn jongste kwartaalcijfers presenteert.

Het zou niet de eerste keer zijn dat Intel werknemers ontslaat. Vorig jaar werden er in de Verenigde Staten 1100 banen geschrapt, en twee jaar geleden verdwenen er zelfs 5000 banen. De ontslagen hebben vooral te maken met een tegenvallende vraag door de krimpende pc-markt, waar Intel het grootste deel van zijn omzet behaalt.

Moderatie-faq Wijzig weergave

Reacties (96)

Tja, dit zat er natuurlijk al een hele tijd aan te komen. Jaren lang was het een race om de productieprocessen zo klein mogelijk te maken, maar op een begeven moment kom je op een punt aan dat de investeringen die bij het upgraden van de FAB's komen kijken steeds minder rendabel worden. Ik denk dat de huidige x86-x64 fabrikanten (zowel Intel als AMD) zich daar blind op hebben gestaard en er te laat zijn achter gekomen dat o.a. ARM er met de mobiele sector vandoor ging. Traditionele PC's worden al jaren lang steeds minder verkocht. Natuurlijk zijn er de fanatieke gamers, maar die groep zal waarschijnlijk niet groot genoeg zijn om de sector uit het slob te trekken.

Consumenten doen steeds langer met hun apparaat. Zo belachelijk veel sneller zal een PC voor gemiddeld thuisgebruik niet zijn geworden. Dus ja, waarom zou je nog een nieuwe kopen, tenzij de oude kapot is en repareren niet langer rendabel blijkt ? De HP laptop met AMD Turion64 X2 die ik in 2009 voor § 550 kocht voelde echt niet langzamer aan dan actuele laptops die voor hetzelfde bedrag worden verkocht. Als je zo'n apparaat vlotter wilde maken prikte je er een SSD in en eventueel wat extra RAM geheugen. Dan was je met § 100 - 150 klaar en kunt weer jaren vooruit.

Er zijn wel een aantal tablet-achtige apparaten met Intel hardware, maar die worden grotendeels met Windows geleverd - een besturingssysteem dat op mobiel vlak vooralsnog beduidend minder goed uit de verf komt dan Android en iOS. Daarbij hangt er bij apparatuur met Intel hardware veelal een stevig prijskaartje. De meeste mensen die ik ken willen dergelijke bedragen helemaal niet betalen en kiezen overwegend voor een simpele tablet tot zo'n § 200. Voor wat Facebook en Candy Crush is dat natuurlijk rap genoeg ...
Tja, dit zat er natuurlijk al een hele tijd aan te komen. Jaren lang was het een race om de productieprocessen zo klein mogelijk te maken, maar op een begeven moment kom je op een punt aan dat de investeringen die bij het upgraden van de FAB's komen kijken steeds minder rendabel worden.
Het is eigenlijk geen geldzaak. In het geval van Intel was EBITDA in 2011 23.38 miljard, in 2015 was deze 23.58 miljard. Het bedrijf heeft geen moeite om winst te maken, het heeft alleen moeite om te groeien. De vertraging in het tempo volgt uit het loslaten van de wet van Moore, dit was decennia lang DE doelstelling binnen Intel. Die doelstelling is recentelijk losgelaten. De reden daarachter zal een combinatie zijn van de moeilijkheden van nog kleiner in combinatie met een gebrek aan concurrentie.
Ik denk dat de huidige x86-x64 fabrikanten (zowel Intel als AMD) zich daar blind op hebben gestaard en er te laat zijn achter gekomen dat o.a. ARM er met de mobiele sector vandoor ging. Traditionele PC's worden al jaren lang steeds minder verkocht. Natuurlijk zijn er de fanatieke gamers, maar die groep zal waarschijnlijk niet groot genoeg zijn om de sector uit het slob te trekken.
Daarin vergis je je. Intel heeft als doel waarde te creŽren voor haar stakeholders/shareholders. Het gaat ze niet zo zeer om een markt te hebben maar om waarde toe te voegen en dus mooie marges te behalen. Daar is Intel heel goed in. Niet zo gek want in principe wordt een processor gemaakt van wat zand en metaal. Materiaalkosten van een processor zijn daardoor extreem laag. Dat gaat om enkele dollars (niet meer dan 15) per stuk. De kosten voor Intel zitten in R&D, marketing en de investering in de fabrieken (fabs).

Vervolgens is het niet heel ingewikkeld om te zien dat een markt als ARM voor Intel eigenlijk helemaal niet interessant is. Immers op dit moment verkopen ze een i7 voor 350 dollar. Voor een mobiele chip zijn vergelijkbare investeringen nodig, alleen levert die vervolgens maximaal 25 dollar op. De huidige marges zijn daarmee per definitie niet te behalen. (Intel heeft een Gross margin van 35 miljard op de 55 miljard omzet=61%, vervolgens gaat daar 12 miljard R&D vanaf en 8 miljard marketing). AMD is natuurlijk een ander verhaal, die missen de omzet om hun R&D over te spreiden.

http://www.marketwatch.com/investing/stock/intc/financials

Natuurlijk doet Intel wel experimenten in de mobiele tak. Echter het gaat niet van harte, ze gaan niet all-in. Logisch want als je gewend bent om 60% marge te draaien op je productie dan is het tegennatuurlijk om die cijfers flink te gaan verwateren. Iets dat gegarandeerd moet gebeuren voor mobiele dominantie. Immers bedrijven als Qualcom produceren zelf niets, die werken op royalty's. De producenten draaien vervolgens lage marges. Het royalty model gaat voor Intel niet werken omdat die 'toevallig' heer en meester zijn in efficiŽnt produceren en voorop lopen in productietechniek. Die kennis wil je niet weggeven.

Het is in het geval van Intel dus niet zozeer een gebrek aan kennis, middelen of inzicht. Het is puur een strategische keuze om te gaan voor goede marges. Dezelfde reden dat Apple geen budget telefoon uitbrengt. Het zou de omzet van Apple wel doen stijgen, maar de marge zal er van dalen.

[Reactie gewijzigd door sdk1985 op 16 april 2016 22:48]

Tegenover 60% marge zullen ze niet zo snel een ander product kunnen ontwikkelen die dat ook kan.

De mobiele markt is nog steeds in groei, en de pc markt daalt. Als ze vast blijven houden aan hun huidige marges zullen ze hoe dan ook een keer voorbij gelopen worden in de consumenten markt door een fabrikant die een apparaat kan maken voor de huis, tuin en keuken internetter die met minder marge genoegen neemt.

Ze kunnen misschien beter wel all in gaan om er zeker van te zijn dat ze in deze groeiende markt een deel van de taart kunnen pakken.
Wat ook mee telt is het feit dat voor 90% van de mensen niet te rechtvaardigen is om 600/700 euro uit te geven aan een i7 6700k met mobo/ram terwijl ze nu nog een prima werkende i7 2600k hebben. 90% van de gamers is het zelfs niet nodig. En waarom dan geld uitgeven als je oude nog prima werkt.

De elektrische fietsen hebben een flinke boost gemaakt. En elk jaar was er wel een reden om je oude te verkopen. Maar ook dat zal minder worden. En dan blijven mensen ook langer met hun fiets doen.
Dat heeft Intel ook wel een beetje aan zichzelf te danken door de desktopmarkt vast te zetten op processoren met 4 kernen. Gezien kloksnelheden niet veel hoger worden en architecturele optimalisaties ook een beperkt effect hebben, is een nieuwe generatie vaak maar 10% sneller dan de vorige (bij Skylake is het nog minder).

Dat was in de jaren '90 en '00 wel anders en omdat de software in die jaren ook steeds veeleisender werd, kocht je om de paar jaar een nieuwe PC. Dat is geschiedenis.
Meer dan 4 cores vereist een totaal andere manier van programmeren, en 99% van de programmas die we gebruiken is niet in staat daar gebruik van te maken. Sterker nog: de meeste stukken software pakken amper een stukje core als ze idle staan, en misschien een hele als ze vol aan het werk zijn. Ook bij spellen is er nog altijd 1 hoofd-thread, die af en toe wat werk kan doorsturen naar subthreadjes, waardoor ze een quadcore beter kunnen benutten. Alles met meer cores echter is zinloos, hooguit halen ze nog wat winst door de grotere caches.

Gezien er weinig noodzaak is om 'sneller sneller sneller' te gaan nu, en het heel veel tijd en moeite kost om echt efficient multithreaded te programmeren, gaan we voorlopig niet veel verder komen. De revolutie komt vermoedelijk uit een andere hoek, hoewel ik nog niet weet welke ;)
Dat is deels een kip- en eiprobleem: Je kunt stellen dat als de mensen geen processoren hebben met veel kernen, de programmeurs de moeite niet zullen doen hun software aan te passen.

Bij de huidige spelcomputers, die 8 zeer trage kernen hebben, zie je ook dat spellen daarvoor worden aangepast.
Was het maar zo simpel als "een beetje meer moeite doen".
http://www.extremetech.co...re-but-will-games-benefit
Het is verdomd lastig en dan nog zal je nog niet de volle 100% potentie eruit halen. Verre van.
http://www.dualshockers.c...ake-them-run-really-fast/

Om optimaal van meerdere core gebruik te kunnen maken moet je de hardware erom heen heel goed begrijpen en benutten. Dat is met een vast systeem aka een console veel eenvoudiger dan bij de veelzijdige pc's. En dan nog zal je nooit alle cpu cores 100% belasten.

[Reactie gewijzigd door Madrox op 16 april 2016 13:13]

Was het maar zo simpel als "een beetje meer moeite doen".
Daarom juist. Je gaat niet heel veel meer moeite doen, als niemand de juiste hardware heeft om ervan te profiteren.
Dat klopt zeker, maar er zal meer moeten gebeuren dan alleen meer cores in de hardware, anders loop je weer tegen allerlei andere problemen aan. Vandaar ook de socket 2011 CPU's met meer memory channels.

Servers kunnen meerder cores gebruiken omdat ze niet allemaal aan hetzelfde process werken. Als je 1 process geschikt wilt maken voor meerdere threads brengt dat overhead met zich mee om alles te coŲrdineren. En als er teveel afhankelijkheden zijn levert het al snel niet meer op.

GPU's zijn al voorzien van 1000'en cores, dus als het werk wel goed naar meerdere threads schaalt dan wordt het daar wel uitgevoerd. Dus zelfs als b.v. 16 cores standaard wordt dan zal er maar weinig software zijn die daar gebruik van kan maken.

Zelf heb ik nog op een i7 920 en die draait alles prima, de single core performance zou wel iets hoger mogen. Als upgrade kijk ik al tijden naar een i7 5820K maar die is alleen maar duurder geworden sinds de introductie in augustus 2014. Dat geeft ook wel aan hoe het gesteld is met de vooruitgang op CPU gebied.

[Reactie gewijzigd door PuzzleSolver op 17 april 2016 07:46]

Het is wel enigsinds logisch dat de prijs van die CPU omhoog gaat. De productie daalt immers. De prijzen voor de 6700K zit echter wel een dalende trend in.
De juiste hardware is er juist wel, de behoeft om zwaar in te zetten op optimale multi-threading vaak nog niet. Het kot heel veel moeite btw., niet een beetje. En dat staat gelijk aan veel meer ontwikkelkosten.
Zitten wij ook niet op te wachten, games van 100 euro of meer.

Software aanpassen aka mutlithreaded maken == volledig herprogrammeren. Misschien beter om van de grond af opnieuw te beginnen, want het lijkt me een hele klust om een bestaand, singlethreaded om te bouwen.

Nee, ons probleem is een luxe probleem. Iedereen wil de snelste hardware, de mooiste eyecandy. De PC bied dat, tegen een prijs. En daar zit de crux.

Zou de pc markt ook "gesloten" worden, net als consoles is een het een eitje om alle spellen soepel te laten lopen op een 'game-certified" PC. Waar de vereiste hardware inzit waar de game devs zich naar schikken.

[Reactie gewijzigd door Madrox op 17 april 2016 03:10]

zelf dan nog is dat allemaal zeer relatief
op het werk gebruiken we een rekenmodel dat van meerdere kernen kan gebruikmaken:
1 core = 100% van de rekentijd
2 core = 60% van de rekentijd
4 core = 40% van de rekentijd
...
de threads moeten op een gegeven moment syncen en daardoor krijg je best veel overhead
de investering is de winst vaak gewoon niet waard
Dat patroon is al sinds de jaren 60 bekend. Het staat (versimpeld) bekend als Amdahl's Law: ALs je programma voor X% paralleliseerbaar is, en voor 100-X% niet, dan is kun je met N cores het programma in X/N + (100-X)% van de tijd draaien. Naarmate N groeit gaat X/N naar 0 en blijft het 100-X deel over.
Lukt anders aardig om een quad Core i5 al een paar dagen op 105% cpu te houden met een simpel video encoding taakje. Het is vaak ook niet noodzakelijk om de volle rekenkracht te gebruiken, veel taken lopen net zo soepel over een enkele Core.
Dat is echt niet zo moeilijk, elke cpu kan je tot max krijgen. Hoe onnodig dan ook.
Het aantal cores zou voor de applicatieprogrammeur volledig transparant moeten zijn. Efficient gebruik maken van de capabilities is iets voor het OS en/of de compiler. Daar moet je de programmeur niet mee lastig vallen. Als dat goed geregeld wordt, worden het aantal applicaties die gebruik maken van multi-core systemen ook ineens een stuk mee.
Voordat het Łberhaupt mogelijk is van meerdere cores gebruik te maken, zal de programmeur toch eerst zijn programma multi-threaded moeten maken. Dat kan het OS en ook de compiler niet voor hem doen. De programmeur zal zelf moeten bekijken welke stappen van zijn algoritme resultaten van eerdere stappen nodig hebben en welke parallel uitgevoerd kunnen worden.

Bijvoorbeeld, de volgende twee loops lijken heel erg op elkaar:
for (int i = 0; i < SIZE; ++i) { arr[i] = f(arr[i]); }
for (int i = 1; i < SIZE; ++i) { arr[i] = f(arr[i - 1]; }
De eerste loop kan geparallelliseerd worden (mits f geen neveneffecten heeft). De tweede echter niet, omdat de berekening voor elke i afhangt van de vorige berekening.

In veel programmeertalen bestaan er wel frameworks/bibliotheken die de programmeur helpen een programma te schrijven dat in principe met een willekeurig aantal threads kan worden uitgevoerd (bijv. Threading Building Blocks of Grand Central Dispatch). Die bibliotheken proberen dan het werk zo goed mogelijk over de beschikbare cores te verdelen. Om die bibliotheken te gebruiken moet de programmeur er echter nog steeds zelf voor zorgen dat zijn algoritme parallelliseerbaar is.
Precies. En het gaat verder dan alleen domweg threads verdelen over de cores, de programmeur moet ok rekening houden met de caches, waar hij bijv. wil dat sommige taken erin blijven voor snelle toegang. En zo zijn er meer dingen waar de programmeur rekening mee moet houden.

Was het maar zo simpel als gewoon het werk opknippen.
Puur informatief - ben gewoon erg nieuwsgierig hiernaar - maar kan je kiezen wat je in de L1-, L2- en L3-caches zet dan? Ik dacht dat dit iets was wat de CPU zelf besliste aan de hand van welke data meerdere keren opgevraagd wordt of veel nodig is.

Ik ken C (of C++) niet goed genoeg, maar daar zijn er toch ook geen instructies om dit te realiseren? In x86-assembly kan je bijvoorbeeld schrijven of lezen naar registers, maar da's dan nog iets anders. Of vergis ik me nu? :)
Het kan niets eens in assembly, dus ook niet in C, C++ of Java.

Je kunt het wel enigzins beÔnvloeden, omdat het gebruik van caches niet random is. Als je gerelateerde data bij elkaar opslaat (binnen dezelfde 64 bytes) dan past het op 1 cache line. Dat vergroot de kans sterk dat die data iook daadwerkelijk in cache komt: elke individuele access houdt alle data in die cache line actief.
Thanks voor je comment! Ik had al wel 'n vermoeden dat assembly ook niet veel verder zou geraken :)

Toch blijft het op deze manier dan wel enorm ingewikkeld om het hele plaatje te doen kloppen; petje af voor degenen die zich ermee bezighouden. Niet enkel zit je dan met multi-threading opgescheept, hetgeen op zich al genoeg aandacht vergt, maar je moet dan ook rekening houden met dat al je data ook daadwerkelijk in je caches blijft, zoals Madrox zegt, om zo weinig mogelijk swaps van/naar RAM te hebben.

Nu ja, of deze optimalisatie onder de streep zo'n groot verschil uitmaakt, hangt ook sterk van de case af natuurlijk. Het werkgeheugen is vele malen trager, maar als je 't in z'n totaliteit bekijkt, valt dat misschien nog wel mee :)
Dat heeft Intel ook wel een beetje aan zichzelf te danken door de desktopmarkt vast te zetten op processoren met 4 kernen.
Ik vraag me af of dat niet eerder de schuld is van partijen als Microsoft en Apple die met hun besturingssystemen feitelijk de onderliggende hardware-architecturen hebben gedefinieerd. Je kunt als processorfabrikant wel de mooiste multicore-processoren bouwen maar als een OS er geen gebruik van maakt zet dat geen zoden aan de dijk.
Ik denk niet dat het besturingssysteem er gebruik van moet maken, maar de applicaties. Je wilt immers dat het besturingssysteem zo min mogelijk rekenkracht verspilt. Je wilt wel dat het besturingssysteem het mogelijk maakt om zeer parallelle codes te maken. Microsoft doet het wat dat betreft redelijk, want Windows kan goed overweg met machines met heel veel kernen (Linux wint echter). Over Apple wil ik geen oordeel vellen.

Ik heb zelf een Xeon E5-2670 in mijn desktop zitten met en kwa besturingssysteem is er absoluut geen probleem om de 8 kernen/16 threads aan te sturen.
Windows NT was al lang SMP capable voordat de eerste multi-core CPU uitkwam. (Dat was dus voor multi-socket workstaions en servers, waar je 1 CPU core per socket had)
Dat is juist het probleem van de huidige i3/i5/i7

Ze zijn te snel voor regulier werk als kantoor/thuis en te langzaam als game. De grootste concurrent komt ook nog eens van Intel zelf met de atom serie. Zowel de huidige serie als de serie daarvoor doet het prima (mede doordat Windows een stuk lichter is geworden).

De mobiele markt man als verloren worden beschouwt, de servermarkt wordt problematisch omdat de ARM het prima doen als kleine servers en data is helemaal geen probleem,
belangrijkste is dat ze wederom een gigantische markt mislopen.

De nieuwe generatie gpu's bewijzen hun nut niet alleen in games of VR, maar in de automotive en robotica. Om autonoom te rijden heb je gruwelijke rekenkracht nodig die alle signalen talloze malen per seconde kan verwerken. Hartstikke simpel en een gpu kan het bij uitstek en dat is een markt waar Nvidia op dit moment heer en meester in is. AMD heeft met ATI het potentieel, Intel heeft niets wat er bij in de buurt komt zonder dat je meerdere xeons met prijskaartje uit de kast haalt.

X86 Is niet slecht,
maar alles wat niet nodig is (legacy) moeten ze eruit gooien en en vervolgens een heel scala aan fpga's aan gaan plakken zodat ze in ieder geval iets hebben om te tonen.
GPU's gaan zeker een belangrijke rol spelen in de toekomst. Super veel parallelle processing power is straks te toekomst voor allerlei leuke dingen. Denk aan AI's en VR en weet ik het allemaal wel niet. De reguliere CPU is ten einde. Dingen in serie doen is straks ouderwets.
Huidige X86 kan prima parallele opdrachten verwerken,
het zijn allemaal multi-core ;) .


En schrijf Intel nog niet af,
met de aanschaf van Altera moet het ze lukken om iets te presenteren. Alleen is de lat wel extreem hoog gelegd voor zowel de professionel als de consumentenmarkt en ruimte voor fouten is er praktisch niet.
Maar een intel cpu die multicores heeft is peanut met een processor die gigantisch veel kleine micro cpu's heeft. Die moet je ook vaak programmeren in daar voor bestemde functioneel georiŽnteerde programmeertalen.

Programmeertalen zullen verschuiven van Object Oriented Programming naar weer ouderwets functioneel. Want dat is veel beter schaalbaar en makkelijker te debuggen, en veel makkelijker zonder race condities en ga zo maar door.
OOP is heel tegendraads bij multicores.
Dat valt opzich wel mee hoor. Threading is goed te implementeren bij OOP zolang je hier maar goed mee omgaat. Het nadeel van OOP is dat het hetzelfde denk patroon heeft als een mens. Ik heb het object lamp en die kan ik met 2 methodes aan of uit zetten. Het kan zelfs met 1 als ik overseving gebruik. Of in het voorbeeld van de lamp een boolean met huidige staat.

Mensen zijn single threaded. Dus op het moment dat je Object GeoriŽnteerd bezig gaat dan blijft het snel bij single threaded workloads omdat je dat als mens goed snapt.

Multi threaded werken gaat pas goed als je die mindset hebt en je een workload hebt die het toestaat. 100+ artikelen parsen bijvoorbeeld. Dat kan goed in groepen van 4/8 of 10. Zolang je systeem hier mee om kan gaan uiteraard.
Als er iets duidelijk is, is dat OOP vrijwel onvermijdelijk is voor multi-core processing. Kijk naar C++ met std::thread : "Hier is een functor, run 'm in een thread." (Een functor is een C++ object wat aangeroepen kan worden als een functie). Vergelijk dat met de C standaard, pthreads: "Hier is een functie die een void pointer accepteert, en een void pointer" - en dan mag je zelf je data gaan in- en uitpakken.

Aangezien zelfs de meest simpele operaties ingewikkeld worden, kun je in C nauwelijks complexe systemen bouwen. Het equivalent van std::future in C++ wordt een paar pagina's code in C.
De vraag moet zijn: hoeveel cores heb je nodig?
Performance hangt niet af van hoeveel cores je hebt, maar hoeveel threads je kan verwerken per core binnen een bepaalde tijd.

4 intel cores lijkt bijv. weinig tov de 8 cores consoles (Xbox/PS4); maar die intel cores zijn een pak sneller en zullen in de praktijk gehakt maken van die acht console core; om meerdere redenen.
Ik praat over systemen in een cluster met duizenden of miljoenen cores. Of nog meer.
Ik zou m'n adem niet inhouden tot het moment waarop de CPU ten einde is. Tuurlijk is het sneller om via de GPU te programmeren, mits de taak zich daar ook voor leent en de programmeur daadwerkelijk op GPU's kan programmeren (qua kosten en omdat het aanzienlijk moeilijker is dan normaal programmeren).

Er zijn zeker veel taken waarop nieuwe processoren toch echt een stuk sneller zijn dan andere. Ik doe zelf een studie waarbij we veel met grote data werken en programma's die vele duizenden iteraties moeten doen, dan merk je echt wel een verschil tussen een processor van een aantal jaar terug en ťťn van nu.

Er zijn ook programmeertalen (MatLab bijvoorbeeld) die zelf multithreading voor je doen. Dan merk je het ook wel dat je er wat meer heb kan ik je zeggen :P
En waarom dan geld uitgeven als je oude nog prima werkt.
E-penis ;)
Ik denk dat het komt omdat PC's voor de meeste mensen te ingewikkeld zijn. Dat is niet een diskwalificatie van die gebruikers, eerder van de besturingssystemen zoals Windows en Linux.

Veel mensen gebruiken nu tablets of mobieltjes die veel eenvoudiger in gebruik zijn. Deze apparaten werken meestal op ARM processoren.

De PC zal blijven bestaan, er is voor zakelijke toepassingen op dit moment geen echt alternatief. Wellicht dat Android in te toekomst geschikt is voor desktop gebruik, maar Microsoft zal ook niet stil blijven zitten, al zie ik Windows niet veel gebruikersvriendelijker meer worden. Het zal eerder voor Power Users geschikt zijn.
Het probleem is denk ik meer dat het steeds moeilijker wordt om op de huidige single threaded architectuur de processoren sneller te maken. Daarom bestaat onderhand de halve Die uit iGPU.
Tja, dit zat er natuurlijk al een hele tijd aan te komen. Jaren lang was het een race om de productieprocessen zo klein mogelijk te maken, maar op een begeven moment kom je op een punt aan dat de investeringen die bij het upgraden van de FAB's komen kijken steeds minder rendabel worden. Ik denk dat de huidige x86-x64 fabrikanten (zowel Intel als AMD) zich daar blind op hebben gestaard en er te laat zijn achter gekomen dat o.a. ARM er met de mobiele sector vandoor ging. Traditionele PC's worden al jaren lang steeds minder verkocht. Natuurlijk zijn er de fanatieke gamers, maar die groep zal waarschijnlijk niet groot genoeg zijn om de sector uit het slob te trekken.
Daar kan je Intel niet van beschuldigen, ze heeft meerdere pogingen gedaan, al zins begin 2000 de mobile markt te betreden, Xscale PXA210 uit 2002 was gericht op de telefoon markt, alleen liep dat van geen meter, zaten wel in redelijk wat PDA's.

Ik denk dat Intel haar eigen grootste vijand is, ze produceert bewust niet te snelle cpu in low end markt om de high end markt maar niet te verstoren. Intel kan prima Atom op de markt brengen die alle ARM's wegblaast, maar dat doet ze niet. Intel zit vast in het oude patronen die ze al decennia volgt
Tja, dit zat er natuurlijk al een hele tijd aan te komen. Jaren lang was het een race om de productieprocessen zo klein mogelijk te maken, maar op een begeven moment kom je op een punt aan dat de investeringen die bij het upgraden van de FAB's komen kijken steeds minder rendabel worden.
Dit heeft niet zozeer te maken met FAB's. Dat het slecht gaat met Intel is iets wat wij 10 jaar geleden aan hadden kunnen zien komen: eeuwige groei bestaat namelijk niet. Er zijn bedrijven die geen FAB hebben, en daar gaat het vroeg of laat ook een keer slecht met de cijfers. Ik kan geen enkel bedrijf bedenken die alleen en uitsluitend groei heeft meegemaakt ;)
Toch raar dat ťťn van de beste chipmakers ooit het niet voor mekaar krijgt om ook een groot aandeel in de tablet/telefoon industrie te veroveren. Ik denk dat ze veel te laat met die ontwikkeling gestart zijn en een achterstand hadden tegenover de andere mobiele chipmakers? Je zou zeggen dat ze knowhow genoeg hebben om de rest snel in te halen maar blijkbaar lukt dat toch niet. Zeker nu ťťn van de grootste fabrikant (apple) zijn chips zelf maakt.
Ze hebben een schitterende set producten op x86, maar voor mobile is dat niet genoeg. Die hebben hele andere eisen, en effectief zou Intel zichzelf opnieuw moeten uitvinden om daar in mee te doen. Ze zijn een beetje de Kodak of Western Digital aan het worden, iteratief verbeteren, en erachter komen dat je concurrentie de hele andere kant uitgaat. (hoewel WD nu Sandisk gekocht heeft, en vermoedelijk daarmee verder hoopt te komen)
Er zijn veel betere alternatieven voor Kodak.

Voor intel CPU's zijn er niet echt alternatieven die net zo snel zijn.
Het hele probleem is dat sneller in de meeste gevallen niet meer beter is. Het gaat bij mobiele apparaten om zuinigheid. Als ik Intel was, zou ik gauw x86 loslaten, want het Win32 tijdperk is toch echt in z'n laatste jaren. Wat dat betreft is het misschien ook weer een slechte keuze geweest van AMD om hun ARM plan uit te stellen ten faveure van Zen.
Hoe zou AMD ooit iets met ARM kunnen beginnen?

ARM is low margin CPU's die je in bulk moet produceren en die energiezuinig zijn.
Dat lukt AMD dus nooit :)

Om je fabrieken terug te betalen wil je juist high margin cpu's zoals intel heeft. Zoals AMD probeert te bakken. Bij ARM zijn er tig concurrenten die spotgoedkoop die ARM's per miljard produceren :)
Je geeft nota bene precies aan waar AMD z'n geld mee kan verdienen !

De standaard ARM ontwerpen die je kunt kopen bij het bedrijf ARM zijn inderdad energie-zuinige ontwerpen. Daar heb je dan ook veel concurrentie. Maar als je alleen een licentie neemt op de ARM Instruction Set, dan kun je ook een veel snellere implementatie maken. Zaken als register renaming? Niet zuinig, maar je kunt een register een paar nanoseconden eerder hergebruiken.

Overigens hoeft AMD geen fabrieken terug te betalen, ze zijn inmiddels "Fabless". De voormalige AMD fabrieken zijn nu van GlobalFoundries.
Intel heeft het probleem dat elke processor, ook de meest zuinige, compatible moet zijn met de rest van de x86 processoren. Ze kunnen dus niet onbeperkt snijden om energie te besparen.
Volgens mij kan intel juist NU beter investeren om marktaandeel te winnen, op het gebied van game consoles, smartphone en Smart tv, en google terug winnen nieuws: Gerucht: Google wil ARM-chips van Qualcomm gebruiken in datacenters
Dat doen ze ook echt wel, ze hebben geen schoonmakers nodig om betere chips te ontwerpen. Beetje extreem voorbeeld, maar nu maken ze juist kapitaal vrij om te investeren en afdelingen zonder rendement worden geschrapt.
Zonder cleanroom geen yield ;)
Verkeerde veronderstelling , als je minder schoonmakers inzet (in het algemeen) heb je meer vuile oppervlakken (bv wc's als extreem) , dus zal je ziekte percentage toenemen onder de werknemers die wel voor de core activiteiten nodig hebt (en die zijn duurder)

Dit geld ook voor logistiek en veel andere terreinen
Of juist niet, beetje weerstand kweken is nooit verkeerd ;)
Banen schrappen valt altijd goed bij de aandeelhouders, investeren juist niet.
Een kleine dalende lijn (aandeel) naar beneden, en vervolgens weer om hoog. Zal uiteindelijk toch beter vallen, dan een blijvende dalende lijn?
Zo werkt het niet, aandeelhouders kijken vooral naar korte termijnwinsten en een CEO die daar niet aan voldoet wordt snel vervangen door eentje die dat wel doet.

Ma is daar ook te laat achter gekomen: http://www.telegraaf.nl/d..._beursgang_Alibaba__.html

Onderschat nooit de hebberigheid van een belegger ;)
Een beetje socialistische wind is niet zo heel erg naar jaren van het overwoekerde liberalisme. De regeltjes op arbeid van de staat wat jij stelt bijvoorbeeld van de afgelopen jaren:
  • Tot je 67ste doorwerken terwijl iemand na 45+ al is afgeschreven.
  • Bedrijven al de arbeid mogen offshoren wat eigenlijk gewoon moderne slavernij is.
  • Mensen die hierdoor werkloos worden in een uitkeringssituatie komen wat belastinggeld kost,
  • Hervorming ontslagrecht waardoor mensen met 66% korting uitgekocht kunnen worden tav de oude regeling
En daar hebben we dan een gapende PVDA bijzitten met zelfs het woord ARBEID in hun naam. Ze hebben hun ziel en bestaansrecht verkocht aan de VVD.

En als we dan de andere kant opkijken, regels op kapitaal dan kan je toch niet zijn ontgaan hoe vermogende mensen zelf omgaan met hun belasting moraal.

Dus sorry om mkools24 nu gelijk voor socialist uit te maken wanneer hij een deelschuld bij aandeelhouders neerlegt zegt meer over de zijde waar jij staat denk ik. Het is toch een vrij redelijk bekend feit dat de twee vorige krediet crisissen oa veroorzaakt zijn door alleen maar focus op finianciele hebzuchtige korte termijn resultaten?

[Reactie gewijzigd door toet-toet op 17 april 2016 03:20]

Ik voel me niet geroepen de uitwassen van het kapitalisme te verdedigen. Ik voel me wel geroepen de noodzaak ven een gezonde balans tussen kapitaal en arbeid, fors bijgestuurd door regel van de staat, te poneren op het moment dat een van twee even door de mangel wordt gehaald.
Het woord 'socialist' is overigens geen scheldwoord.
Ik verwijs nog even naar de uitwassen van de vroegere WAO, Nederland als land met de meest ongezonde werknemers ter wereld, misbruikt door werkgevers en vakbonden, en ex-werknemers die daar dankbaar van profiteerden. Volkomen onbetaalbaar geworden, en, na hevige interne strijd binnen de PvdA, met hun hulp gesaneerd. Ik ben geen PvdA'er, want ik geloof niet in de maakbare samenleving, maar dat hebben ze dapper gedaan.
Misbruik van de WAO was een win - win voor werkgever en werknemer maar een verlies van de samenleving. Maar wat is er dan gesaneerd, bedoel je het aanscherpen van de regels om er in te komen? Ik ken mensen, al heel lang in de WAO, en alhoewel er sprake was van verplichte herkeuringen ed, krijgen ze nog steeds deze uitkering maand in maand uit. Begrijp me niet verkeerd als mensen echt arbeidongeschikt zijn dan is daar ook niks op tegen. Maar toevallig ken ik er enkele en die hebben allemaal een handeltje of klussen af en toe zwart.

En ik zeg niet eens dat dit niet zou mogen. Er is veel te weinig oog voor wat mensen evt wel kunnen.

Moet je je voorstellen dat iemand met zijn 35ste in de WAO is beland nu 20 jaar later, heeft iemand die een baan heeft gehouden tot zijn 55ste, een slechter vooruitzicht dan de WAO-er met dezelfde leeftijd. WAO is nog steeds het toverwoord voor inkomen zonder tegenprestatie in dit land, behoudens dan de mensen die echt arbeidsongeschikt zijn.

[Reactie gewijzigd door toet-toet op 18 april 2016 10:25]

Dan zijn we het hierin met elkaar eens. Wist je dat de helft van de WAO'ers niet-lichamelijke klachten hebben. Huilen bij de controlerend geneesheer, en zeggen dat je het niet meer aan kunt, kan al genoeg zijn om jaren een uitkering te krijgen. Een vermindering met honderdduizenden uitkeringen vind ik trouwens een behoorlijke sanering. Ik ben overigens voor een forse sociale zekerheid, maar weet ook dat daar veel misbruik van wordt gemaakt. En dat gebeurt niet alleen door de bovenlaag (legaal is twee keer zo brutaal), maar net zo goed door de onderkant en alles wat daar tussen zit. Om diegenen te beschermen die sociale zekerheid echt nodig hebben, zul je dus stevig misbruik moeten aanpakken. De staat moet dat doen, maar durft dat dikwijls niet, en dus krijgen werkgevers de last van de ziektewet en de controle daarop voor hun kiezen. Dat dat kan betekenen dat kleine werkgevers zuchten en kreunen onder dit soort lasten, en dat voor jaren en jaren.
mkools24 had natuurlijk best een punt, maar ik viel over zijn statement "Onderschat nooit de hebberigheid van een belegger ;)".
Dan heb ik de neiging om voor die belegger op te komen, omdat dat statement op zijn minst erg ongenuanceerd is.
Jouw statement dat offshoring moderne slavernij is, gaat ook nogal ver. De strokarton, de textiel, de grote scheepsbouw, allemaal foetsie.Dat is geen moderne slavernij, maar een zegen voor arbeiders elders op de wereld die het belachelijk veel armer hebben dan wij hier. Dat wij hier daar welvaart voor moeten inleveren is niet meer dan rechtvaardig. Je kunt zeggen dat het kapitalisme dat doet uit winstbejag (alleen de negatieve klank van dat woord al), je kunt ook zeggen dat 'ze' hun werk, bedrijven besturen om ze te laten overleven. Ik kan nog lang zo doorgaan, en het is allemaal vreselijk offtopic. Het raakt ons allemaal, en te snelle conclusies zijn daarbij niet gepast, ook niet van mij.
Mee eens behalve het offshore deel.

Dat wij hier daar welvaart voor moeten inleveren is niet meer dan rechtvaardig.

En daarom werkt het juist niet arbeid wegbrengen naar lage lonen landen. Als alle werkgevers dat zouden doen dan leveren we zoveel welvaart in dat we ook hun producten niet meer kunnen kopen. Economie is een keten.

Als ik kijk naar de profiterende IndiŽrs die er vandoor gaan met "ons" ICT werk dan zijn dat niet de zielige arme arbeiders maar juist de mensen, die door het zg afgeschafte kasten systeem, op posities zitten niet door prestatie maar door afkomst, wat direct merkbaar is in de kwaliteit van het werk. Het wordt al een heel ander verhaal als het werk binnen Europa wordt uitgevoerd en daar zou de overheid in moeten stimuleren. Nu verdwijnen er miljarden uit onze economie wat nooit meer terugkomt. Maar inderdaad het is zo langzamerhand aardig off-topic geworden ;-)
En daar hebben we dan een gapende PVDA bijzitten met zelfs het woord ARBEID in hun naam. Ze hebben hun ziel en bestaansrecht verkocht aan de VVD.
Een suggestieve naam gebruiken is iets dat we wel vaker zien (denk aan Federal Reserve bijv).

Het heeft ook vrij weinig met de VVD (op zich) te maken. Er is een (semi-verborgen) neo-liberalistische agenda die gevolgd wordt in de politiek en het maakt vrij weinig uit welke partijen er aan de macht zijn. Ook coalities zonder de VVD gingen gewoon vrolijk door met het afbreken van Nederland namelijk. De VVD is alleen de enige die er ook openlijk voor uitkomt.

De echte machthebbende partijen zijn de grote corporaties/bedrijven en de banken. Zolang bij die partijen de eindeloze drang naar winst blijft bestaan zal het geen drol uitmaken welke politieke partijen er aan de macht zijn.
Als ze die regels dan eens zo opstellen dat bedrijven verplicht belasting betalen over alle activiteiten die ze uitvoeren aan het land waarin ze die uitvoeren. En al die legale constructies om vermogen te maskeren afschaffen, hoeft de regering de staatsschuld niet elk jaar te vergroten.
Hangt er van af waar in wordt geinvesteerd. Als Intel gaat zeggen dat ze meer gaan investeren voor de desktop zal dat inderdaad niet worden gewaardeerd door de eigenaren....
Desktop investeringen zijn x86 investeringen. Ondanks dat hier al beweerd wordt dat dit vergane glorie is is dit ten aanzien van virtualisatie helemaal niet zo. Als je kijkt dat Microsoft azure een 50% installbase vergroting heeft per jaar dan kun je je denk ik maar moeilijk voorstellen op wat voor hardware dit draait. Dit is dan eigenlijk op x86 gebied de absolute summit met dikke xeon processors met heel veel cores. Wellicht minder verkoop in absolute aantallen maar wellicht wel met veel hogere marges. Dus x86 is veel omvattender dan desktops.
Dat hangt er heel erg vanaf in welke sector je zit. McDonalds die banen schrapt door self-service terminals neer te zetten: goed ontvangen. Logisch, dat is een kapitaalinvestering die loon scheelt, in een tijd waar de rente op 0% staat. Maar dat is dus zeker een investering.

In het geval van Intel is er een lange traditie van investeringen. Intel heeft z'n eigen fabs en die kosten miljarden. Tegelijkertijd is dat hun voordeel; Intel had altijd geweldige fabs. Ze kwamen weg met ongelukkige ontwerpen als de Pentium I en Pentium 4 precies omdat de productielijnen zoveel beter waren. Een investeerder die suggereerde dan Intel niet moest investeren werd dan ook weggelachen.
Niet renderende medewerkers behouden (los van of dat hun eigen schuld is of niet) is niet hetzelfde als investeren. Ik vermoed dat het personeel met waardevolle kennis of ervaring niet snel ontslagen zal worden. Maar een bedrijf als Intel zal door de lange succesperiodes het nodige vet opgebouwd hebben en dat vet moet er nu af.
Jawel juist wel. Het is duidelijk dat intel krampachtig vasthoudt aan de enorm dure processoren die ze produceren. Die markt zal krimpen. Dus systematisch zoveel mogelijk personeel dumpen is een hele goede zaak!

Dan natuurlijk eerst het duurste personeel eruit in 1e wereldlanden. Israel volgt dan, is ook geen goedkoop personeel aldaar - terwijl enorm veel personeel in Israel zit.

Gewoon systematisch alles inkrimpen zodat er goed dividend nog betaald kan worden - lijkt me compleet normaal in bedrijfsleven!
Waar reageer je precies op? Volgens mij zeg ik precies hetzelfde als wat jij zegt.
Niet alles inkrimpen, alleen overbodige verlieslijdende projecten.

De mobiele tak kan Intel gerust afstoten, laatste presentaties van Intel werd mobiel niet meer genoemd en de verlies cijfers zijn boekhoudkundig al begraven in een andere tak.

Als ze inderdaad GPU IP bij AMD willen afnemen, kan ook het Intel HD xx00 team naar huis. Op het gebied van NUC /compute stick leggen ze het voor minder vermogende consumenten af tegen Chromecast en RPi, daar kan het ook met minder.

De foundries van Intel hebben nou ook niet bepaald klanten binnen geharkt, kan ook met minder mensen.

En als ze het product gamma inkrimpen, dus minde opties van betalen voor welke cpu delen Intel niet afschakelt, scheelt weer met drivers, website, ondersteuning en marketing.

Data centre, optische interconnects / interposers, 3D RAM (XPoint), daar moet al het geld naar toe, is het enige (met desktops) wat Intel goed kan en wat groeit.

[Reactie gewijzigd door kidde op 17 april 2016 13:02]

Waarom zou de switch van NVidia CPU IP naar AMD GPU IP betekenen dat ze de ontwerpafdeling naar huis kunnen sturen? Die switch betekent alleen maar meer werk, met alle herontwerpen die daarvoor nodig zijn. En de drivers kun je ook weer opnieuw gaan schrijven.
Dat was gebaseerd op een bron van Baron's / SeekingAlpha kom ik nu net achter. Dus dat kan ik met schaamrood op de kaken beter snel vergeten. Beide websites staan wat mij betreft bekend om onbetrouwbaarheid, lulkoek optypen over Intel (met name Ashraf Eassa) en soms pump & dump scams. Eerst maar netjes tot morgen wachten op de Intel kwartaalcijfers en persco.

Mochten er ooit Intel APU's met geintegreerde Radeon uitkomen (wat ik meende te begrijpen) kan ik altijd nog een bloemetje met 'Sorry' naar Baron's sturen.
Ik denk dat de krimpende PC-markt nog wel even zal voortzetten.

Waarom? Processors zijn tegenwoordig zo snel dat ze niet meer zo vaak aan vervanging toe zijn. Oudere generaties (zoals mijn Q9400) kunnen nog prima Windows 10 draaien dus ik zie het nut nog niet.

edit: Lees dus net dat mijn q9400 alweer bijna 8 jaar oud is :o

[Reactie gewijzigd door technomania op 16 april 2016 11:02]

Hier een Phenom II 955, ik durf bijna niet te kijken hoe oud hij wel niet is :P (2010)
Wel voorzien van een SSD, wat meer geheugen en een nieuwe grafische kaart (oude trok Skyrim slecht, en was luidruchtig). Maar verder echt geen reden om te upgraden verder.
Windows 10 draait prima op zo'n beetje iedere dual-core processor. Zelfs een Athlon X2 of Turion X2 is rap genoeg, mits je 4GB RAM en een fatsoenlijke SSD hebt. Daarbij zijn er nog voldoende alternatieve besturingssystemen indien Windows te traag zou worden.
Logisch, het is Intel niet gelukt om buiten de PC-markt zich ook te ontwikkelen op de mobiele markt. Daar zit op dit moment de groei, terwijl Intel zit in een krimpende markt.

Niet dat ze het niet hebben geprobeerd met de mobiele Atom-chips, maar voor zover ik kan nagaan is dat nooit winstgevend geweest.
Data centers staan vol met Intel spul.
Klopt, in die markt is Intel de afgelopen 20 jaar van 5% naar 95% gegaan. De belangrijkste reden voor Google om AMD's te kopen is dat het Intel-compatible is. Google wil Intel geen monopolie gunnen, maar ARM was heel lang een stap te ver, en SPARC of POWER was veel te duur.
Ja die chips worden ook steeds kleiner, dan kan je er met minder mensen tegelijk aan werken natuurlijk. :+
Intel is aan het downsizen omdat AMD met Polaris en Zen uitkomt.
Dat is mijn guess.
Eindelijk een AMD proc op 14nm. Dat zal zo een performance en performance per wat winst opleveren dat misschien wel de performance kroon weer naar AMD gaat.

Voor het argument ARM wint en daardoor mist Intel inkomsten: voor zover ik weet hebben AMD en Intel ARM licenties. Dus dat zou het probleem niet mogen zijn.
AMD is alleen een concurrent op de (krimpende) PC markt.
een paar duizend op 107.000 is % niet zoveel
Ja ach.
Intel was toch al monopolistisch die zijn concurrent weg drukte met prijsafspraken en daardoor ook arrogant werd.
Afgezien van de ontslagen werknemers vind ik het niet zo erg.
Het is erg duidelijk die diaree aan cpu's en nummers - zorgt voor erg hoge kosten. De val waar AMD ingetrapt is, heeft nu ook Intel te grazen.
Als men niet dringend wat doet aan de wijze van fabriceren van cpu's gaat Intel naar de haaien - zie maar hoe de ARM-gebaseerde sector op komt zetten.
Zelf opteer ik eerder voor ARM dan voor Intel - daarvoor hebben ze zich te onetisch gedragen - wie marktleider is heeft een zware verantwoordelijkheid. Wie die niet neemt en wie niet correct is t.o.v. z'n concurrenten - krijgt vroeg of laat een veeg uit de pan.
Ik ben nog lang niet vergeten dat ik jaren lang een intel-tax en windows-tax heb betaald - het is vroeg of laat payback time!
AMD heeft zichzelf gekilled als het om de CPU's gaat.

Grote lompe CPU die veel te veel stroom verbruikt. Intel heeft prima cpu's, maar ze zijn enorm duur natuurlijk en steeds minder toepassingen worden hele dure CPU's voor gekocht...
Gaat het zo slecht bij Intel? Of nee, ze willen nog meer winst maken! Wat doe je dan? Dan schrapje even duizend banen
Zeer goed plan! Ik stel voor 1 medewerker over te houden om maximale winst te behalen. Wat is dit nou weer voor loze reply...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True