Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 28 reacties

Intel krijgt groen licht van de Europese Commissie om Altera over te nemen, waardoor het de grootste deal in zijn historie kan afronden. Tegelijkertijd maakte het bedrijf de kwartaalcijfers bekend, waaruit blijkt dat Intels inkomsten uit cloudcomputing groeien.

De Europese Commissie heeft op zijn website het oordeel over de deal tussen Intel en Altera geplaatst. Volgens de Europese autoriteiten blijft er na de overname nog voldoende concurrentie bestaan op de chipmarkt; de Commissie wijst op het gegeven dat Intel en Altera andere delen van de markt bedienen; laatstgenoemde bouwt chips voor verschillende bedrijfstakken, zoals voor de autoindustrie, medische apparaten en telecom.

Door de beoordeling van de Europese Commissie kan de overname dus doorgang vinden. Met het inlijven van Altera is een bedrag van 16,7 miljard dollar gemoeid, dat omgerekend neerkomt op 14,6 miljard euro. Intel maakte in juni de overname bekend, en liet weten ongeveer zes tot negen maanden nodig te hebben om deze af te ronden.

Intel hoopt met de overname zich verder te kunnen diversificeren op het gebied van chipproductie. Dat bevestigde het bedrijf bij het bekendmaken van de kwartaalcijfers: in een interview met The New York Times liet cfo Stacy Smith weten dat Intel 'geen pc-bedrijf meer is'. Het bedrijf richt zich meer op cloudcomputing, automatisering, wearables en zaken zoals the internet of things.

Die verschuiving van pc naar andere type apparaten heeft te maken met de terugloop in de verkopen op de pc-markt, iets wat ook in de kwartaalcijfers naar voren kwam. Intel haalde in het afgelopen kwartaal een omzet van 8,5 miljard dollar uit de verkoop van chips voor pc en 4,1 miljard dollar voor chips voor servers. Alhoewel Intel daarmee nog steeds een aanzienlijk deel van zijn inkomsten uit pc-chips haalt, daalt de omzet uit deze tak al enige tijd, terwijl die uit servers juist stijgt. Intel verscheepte in het afgelopen kwartaal 15 procent minder chips voor pc, en 14 procent minder voor notebooks, vergeleken met dezelfde periode een jaar eerder.

In het afgelopen kwartaal behaalde Intel een winst van 3,11 miljard dollar, wat omgerekend 2,72 miljard euro is. Dat betekent een daling van 6,3 procent vergeleken met dezelfde periode vorig jaar.

Moderatie-faq Wijzig weergave

Reacties (28)

Ik werk veel met Alter FPGA's en ben nu bezig met een project waarin we een Cyclone V met SoC gebruiken. Ik ben ook benieuwd of Intel de ARM SOC in de FPGA laat zitten of dat ze in de toekomst naar eigen ontwikkeling gaan.

Een FPGA's/CPLD's oftewel programmeerbare chip's zijn enorm interessant , vooral de FPGA, omdat die herprogrammeerbaar zijn en "Echte" parallelle berekeningen kunnen uitvoeren. Nieuwe trend op gebied van data centers is dan ook om FPGA's te gaan inzetten voor acceleratie. Zie
http://www.datacenterknow...o-microsoft-data-centers/
&
http://www.ryft.com/blog/...cceleration-is-the-answer "Datacenter Trends: FPGA Acceleration is the Answer to Enterprise Data Analysis Performance Challenges"

Ook werden de chips van Altera al bij Intel geproduceerd en hadden ze al lange tijd goede samenwerking. Wat de echte reden is van Intel om Altera te kopen zal moeten blijken uit de toekomst. Hopelijk gaan we mooie dingen zien.
Als Intel de focus gaat neerleggen op cloudcomputing, in hoever kunnen we dan echt nog grote verbeteringen gaan zien in de desktop CPU tak? Of komt via de cloudcomputing gewoon het meeste geld binnen waarop het bedrijf draaiende blijft?

edit:
CPU tak moest desktop CPU tak zijn.

[Reactie gewijzigd door Cowamundo op 14 oktober 2015 20:50]

Das redelijk simpel, Intel heeft nu eenmaal een heel kwetsbare positie als het alleen maar PC chips maakt. Immers als de rekenkracht verhuist naar de cloud en iedereen met een energie zuinige (dus ARM of afgeleide) chip rond loopt waar blijft Intel dan?

Het idee is je wapenen tegen een gevaar dat je ziet komen. De cloud is geweldig maar het vereist ook iets dat Intel maar moeilijk kan en dat is heel erg veel treads tegelijk en binnen een zeer kleine power evelope afhandelen. Dat heeft te maken met de x86 architectuur die daar nu eenmaal niet voor gemaakt is.
Concurrenten zo als bijvoorbeeld ARM maar ook enkele nieuwe startups hebben goede ideeen om Intel op dit gebied te verslaan. Als Intel alleen op de PC leunt verliest men zeker. x86 heeft het ook steeds moeilijker om nog echt verbeteringen te brengen getuigen de enorme uitbreiding van de instructie set om maar aan de eisen van deze tijd te kunnen voldoen.

Dus wat doe je dan als je miljarden tot je beschikking hebt en niet van plan bent te stoppen. Simpel als je ze niet kan verslaan doe dan maar mee en koop je in in verschillende takken. Intel verhuurt nu ook productie capaciteit aan derde, ze levert steeds meer andere chips dan PC chips en heeft ook zeer duidelijk een verlangen naar de mobile markt te bewegen al wil dat nog niet zo lukken. Intel heeft een enorme zak geld tot zijn beschikking en kan flink lenen op basis van bewezen resultaten dus ik vermoed dat men nog wel wat meer zal kopen in de hoop de ARM te kunnen bijhouden. Of Intel het aandurft een startup aan te schaffen weet ik niet maar het zou me niet verbazen al was het maar om het talent binnen te halen en de patenten in handen te krijgen.
Immers als de rekenkracht verhuist naar de cloud en iedereen met een energie zuinige (dus ARM of afgeleide) chip rond loopt waar blijft Intel dan?
Really? Zie ook: http://www.anandtech.com/...-vs-x86-the-real-showdown

Daarnaast draait "de cloud" (waarbij nog zeer discutabel is of hiermee Leaseweb of Amazon wordt bedoeld) gewoon allemaal op AMD en Intel. Dat gaat echt niet binnenkort veranderen.

Ik denk dat je daarnaast de mogelijkheden die Intel intern heeft onderschat. Ze zouden het ook gewoon zelf kunnen doen naast de x86 -- sterker nog, dat hebben ze al eerder gedaan. Bijvoorbeeld bij de Itanium. Ze hebben de daadkracht, de mensen, de know-how en de technologie.

Daarnaast hebben ze ook een low-power variant, nl. de Atom en de Core M, die het echt best goed doen irt. andere cpu's.

Ik denk dat er meer dingen spelen. Bijv. dat het strategisch handiger is om gewoon het hele bedrijf incl. de technologie, de patenten, de techneuten en de fabrieken over te nemen. Ben je ook meteen wat concurrentie kwijt in dit geval. Ik kan me herinneren dat Intel in het verleden ook (delen van) DEC heeft overgenomen; ik gok om soortgelijke redenen.

Tot slot 1 punt wat me in het bijzonder opvalt:
x86 heeft het ook steeds moeilijker om nog echt verbeteringen te brengen getuigen de enorme uitbreiding van de instructie set om maar aan de eisen van deze tijd te kunnen voldoen.
Ja en nee. De instructieset wordt inderdaad uitgebreid met andere (SIMD) instructies. Het is alleen goed om te beseffen dat de manier waarop dit wordt gedaan via VEX/XOP instructies gaat, wat betekent dat het (naast de VEX header) niets meer te maken heeft met legacy. Opvallend is dat ze telkens kiezen voor de representatie met de minste bits/bytes voor de instructies. (Grappig feitje: zelfs voor de Itanium) Ik zal je de details besparen -- maar bottom line komt dit omdat de decoder en processor sneller zijn dan het kost om een instructie gedecodeerd te verwerken. Kortom, uitbreiding van de instructieset is juist efficient.

[Reactie gewijzigd door atlaste op 15 oktober 2015 09:29]

Het probleem voor x86, is vooral dat niet alle instructies even lang zijn, in tegenstelling tot andere ISA. Dit maakt het hardwarematig complex, en inefficiŽnt geheugen gebruik.
(variable-length opcodes https://en.wikipedia.org/wiki/Opcode)

Er zijn dan ook heel veel instructies, dit maakt het decoden complex, en bewerkingen moeten in verschillende stappen worden uitgevoerd. Vandaar een lange pipeline. De ALU is ondertussen RISC, dus eenvoudig, maar instructies moeten dan wel vertaald worden, al heft dat niet echt een performance impact.
Los van dit nadeel, kan intel x86 wel heel ver doorontwikkelen, en bewijzen ze, dat je met een niet-ideaal ontwerp, eigenlijk ook enorm veel kan bereiken.
Het is natuurlijk treffend, dat ARM, met een kleiner budget, dus minder mensen, impliceert minder kennis, minder knowhow, toch de grootste stappen zet percentueel.

anderzijds is dat laatste ook weer vertekend. Een economie met een hoge omzet met een kleine groei, van minder dan 1%, groeit in absolute cijfers misschien meer dan een economie met een lage omzet en een hoge groei (van meer dan 10%)
Maar in welk heb je het meeste vertrouwen? in de gestabiliseerde economie, of de opkomende economie?
Nederland of Turkmenistan?
https://en.wikipedia.org/...s_by_real_GDP_growth_rate

[Reactie gewijzigd door g4wx3 op 15 oktober 2015 11:23]

Er zijn dan ook heel veel instructies, dit maakt het decoden complex, [...] al heeft dat niet echt een performance impact.
En dat is dus niet waar. Er is _wel_ een performance impact: kortere instructies zijn sneller, omdat je er meer van in een cache line kan proppen en je veel meer cache hits voor branches krijgt. Probeer maar eens een instructie als mov [eax+ecx*4+8],ebx om te schrijven in RISC, dan zie je meteen wat ik bedoel... en dat is nog maar een simpel voorbeeld.

RISC is vooral handig als je instructies aan het krassen bent en als je instructies in een CPU aan het uitvoeren bent. Daarnaast hoef je niet te hercompileren bij een nieuwe CPU, wat ook handig is. Vwb. performance: alles hiertussen wil je het liefst in zo min mogelijk bytes als mogelijk hebben. That is: dat levert de beste performance op.

Over power... In principe betekent het dat als je netto minder transistors moet aansturen = minder power requirements (om het maar even enorm te oversimplificeren). Nu heeft alleen een Intel i7 Haswell 2,7B transistors en een Apple A8X er 3B... Qualcomm zit ook ergens in die range. Het aandeel CISC/RISC 'vertaal' transistoren hierin is relatief gezien vrij klein (dat zijn een soort lookup tables). Anyways, het gaat dus om aantal transistoren dat je 'raakt' voor een instructie. Voor iedere Intel instructie moet je de lange pipeline door, maar daarmee verwerk je ook een heleboel 'arm code', die je anders allemaal door een kortere pipeline moet heenhalen. Dus een keer veel versus veel keer weinig... Het gaat er echt heel erg om spannen wat nu op de lange termijn meer 'power-efficient' is. Kortom, ik kan oprecht niet inschatten wat op de lange termijn zuiniger gaat werken...

Daarnaast zijn er andere belangrijke dingen die high-impact hebben zoals het feit dat ARM een weak memory model heeft en Intel een strong memory model, etc die naast betere power-ratio's als bijproduct nogal wat impact hebben voor de programmeurs. Simply put: low-level multi-threaded programmeren doe ik echt heel veel liever op een Intel dan op een ARM... maar een strong memory model is denk ik power-wise wel ultimo minder efficient.
Het is natuurlijk treffend, dat ARM, met een kleiner budget, dus minder mensen, impliceert minder kennis, minder knowhow, toch de grootste stappen zet percentueel. [... en nog wat over economie? ...]
Sorry, maar ik begrijp deze redenering totaal niet. Waar baseer je dit op? Welke percentages?

Vwb. Intel / power consumption. Bij de introductie van de Core M technologie gingen ze van +/- 16 TDP naar +/- 3.5 TDP. (-80%). De eerste benchmarks rondom Skylake (ref Toms hardware) laten nog eens een verbetering van zo'n 33% zien. Intel echt enorme grote stappen aan het zetten op dit vlak.

Ik ga niet ontkennen dat ze bij ARM ook enorme stappen zetten; ik begrijp alleen niet waar je dit op baseert...

[Reactie gewijzigd door atlaste op 15 oktober 2015 12:18]

ARM processors zijn te zwak om desktop cpu's te veroveren,op mobiel zijn ze goed en dat komt door de snelle gpu,intel bottleneck is gpu en niet processor,intel cpu zijn 50x sneller dan ARM cpu,als intel dat voor elkaar krijgt dan kijk maar naar de prestatie..Mobiel cpu van intel is net zo zuinig als ARM,ARM wint op GPU niveau...
Als wij naar intel productie kijken dan zien we veel intel cpu's met ingebouwde gpu,ik denk intel is hardbezig zowel in desktop als mobiel zijn gpu's integreren in het processor om losse gpu's overbodig te maken,AMD hoeft geen zorgen te maken,die heeft al x86 licentie maar nvdia heeft wel een probleem die heeft geen x86 licentie..
Als intel slaagt met snelle geintegreerde gpu,dan heeft ARM en nvdia groot probleem...
Intel nooit afschreven,intel heeft meer financiering nodig,daarom koopt hij bedrijven op andere gebied,Altera verkoopt veel militair onderdelen...
Ik denk dat je onderschat hoe dominant x86 is op de PC markt en hoe ontzettend dit de PC wereld vastspijkert op x86. Er zijn zoveel programma's en spellen die alleen voor x86 gecompileerd zijn en ook echt alleen daarvoor werken. Dit betekend dat als er nu een ARM processor zou komen die net zoveel of zelfs meer kracht heeft als een x86 processor dat deze simpelweg niet los zou komen op de PC markt. Waarom zou een consument dit willen? Sinds relatief kort is er een windows editie welke tegen ARM aangecompileerd is, maar wat als je Photoshop wilt? AutoCAD? Matlab? Allemaal alleen tegen x86 aan gecompileerd dus deze software kan simpelweg helemaal niets met een ARM processor: x86 heeft deze markt in een houtgreep.

Dus zijn er niet veel ontzettend sterke ARM processoren. Ik zeg niet veel, want ze zijn er zeker wel: zie de wiki https://en.wikipedia.org/wiki/List_of_ARM_microarchitectures voor voorbeelden die tot 2.5 Ghz werken. Ik heb eens een professor horen praten over een ARM CPU op 4.0 Ghz.

De ARM instructieset is simpeler, de hardware hoeft daarom minder complex te zijn en daarmee moet het mogelijk zijn om een ARM processor te bouwen die een x86 processor outperformed. De x86 sleept zoveel zooi uit 1980 mee dat een x86 processor altijd een groot ding wordt. ARM heeft daar geen last van. Maar wie gaat een processor bouwen voor een markt die zijn niet kan bedienen?
Wat denk je dat er voor cloud computing nodig is?
Er miste 1 woordje maar goed, voor cloud computing worden geen desktop CPU's gebruikt, dus wat gaan we daar nog zien in de toekomst... neem aan dat ze dan geen ladingen verschillende i3, i5 en i7 processoren meer op de markt gaan brengen als er steeds minder verkocht worden?

[Reactie gewijzigd door Cowamundo op 14 oktober 2015 21:02]

Voor cloud computing, heb je nog altijd toegang nodig. Dus een pc/laptop aan de consumenten kant.

Je vervangt het misschien niet meer elke 2-3 jaar maar 4-5, alleen het blijft nodig.

Bovendien, en dat was de laatste tijd al zichtbaar, is Intel een beetje gestopt met de run op sneller-sneller-sneller en zich steeds meer gaan richten op energiezuinig en divers (o.a. door gpu erbij in te bakken). Daardoor krijg je straks hele goedkope laptops en pc's om puur dit werk van een toegang tot de cloud te verzorgen en gaan ze ook steeds meer meedingen met tablets/mobieltjes.

Dus verbeteringen blijf je zien, alleen niet meer zo sterk op het vlak waar we dat gewend zijn.


edit: wat ook al te zien is met de extreme cloud computing, is dat ook grafisch enorm veel kan worden afgehandeld op dat vlak. Dus als daar een beetje op wordt toegelegd, kunnen ze straks best eens serieuze bedreigingen gaan vormen voor Nvidia en AMD. Extreme grafische kaarten zullen niet meer zo nuttig zijn, als je enkel een 'stream' van je spel in de cloud aan het bekijken bent en in de cloud al het rekenwerk al verzorgt wordt.

[Reactie gewijzigd door Xanaroth op 14 oktober 2015 21:22]

Ik weet niet hoor, maar heb je het aanbod xeons al eens bekeken...
En die zijn opgetrokken rond dezelfde cpu cores als de consumenten cpu's.
Wat het artikel niet duidelijk maakt is wat voor een bedrijf Altera is, ik geloof bitcoin mining chips maar weet er niet veel van.

(Staat imiddels in het artikel)

[Reactie gewijzigd door Flaat op 14 oktober 2015 19:11]

Ik ken Altera van FPGA's/CPLD's oftewel programmeerbare chip's. Al heb ik zelf meer met de concurrent Xilinx gewerkt.

FPGA's zijn in die zin programmeerbaar dat je de hardware aan het programmeren bent. Je bepaald dus eigenlijk in code hoe je transistors aan elkaar zitten.
Om een voorbeeldje te noemen, er zijn programma's te vinden waar je een intel 8086 kan programmeren in een FPGA en waar je dus dan nog software op kan runnen.

FPGA's waren in eerste instantie bedoelt om een chip als prototype te bouwen. Maar daar kan je dus ook een bitcoin miner in programmeren.

[Reactie gewijzigd door kluyze op 14 oktober 2015 19:08]

Of een dvd speler of ... eigenlijk zo goed als elektronisch alles :p als je maar goed met je resources omgaat.
Dit bericht is in de routers van het Internet of via een mobiel basestation op zijn minst door 1 FPGA gegaan. Door 2 als je naar een Gsync monitor kijkt.
Staat toch echt in het artikel hoor, eerste alinea zelfs..
Intel en Altera andere delen van de markt bedienen; laatstgenoemde bouwt chips voor verschillende bedrijfstakken, zoals voor de auto, medische apparaten en telecom.
Was wel benieuwd waarom Intel nu dit bedrijf wilde kopen, heb even gezocht en kan met een woord worden uitgelegd:

FPGA

De reden dat het dit bedrijf geworden is is volgens mij dat ze in het verleden al hebben samen gewerkt.
Interessante wiki. Intel wil wellicht (atom) een plekje naast de FPGA's (Doet me trouwens een beetje aan EEPROMs denken van vroegah...) geven in plaats van de nu veelal gebruikte ARM-chip?

Intel gaat op mobiel ook meer met Atom doen (multicores, etc) waar ook veel ARM wordt gebruikt.
(Ook vroegah; Acorn Electron! ook van ARM!)

https://en.wikipedia.org/wiki/ARM_Holdings

edit:typos

[Reactie gewijzigd door ToolBee op 14 oktober 2015 23:12]

Dat heb je verkeerd om.
De Acorn Electron had een 6502 processor. (net als de BBC-micro en BBC-Master computers)
Acorn zocht een nieuwe, sterke processor voor hun volgende computer.
Ze vonden niets wat aan hun eisen voldeed, dus hebben ze zelf maar wat ontworpen; de ARM (Acorn Risc Machine). Die hebben ze in een apart bedrijf ondergebracht en verder onwikkeld...
Yup... Timeline niet helemaal op orde! ;)

Ik heb ooit zo'n doosje met mem-extender/cartridge reader (32kb?) en taperecorder gehad. Fijn in BBC-Basic programmeren! Was beter dan de MSX op sgool! ;)

De vader van een klasgenootje had een BBC en later zelfs nog een Archimedes...

Maar nu we toch over "oude" chips; Is die RISC vergelijkbaar met wat in de eerste Palystation zit? (meerdere chips!)

Ooit was er zelfs een exportverbod naar, ik meen china van de ps, 1 of 2, vanwege "teveel computerkracht"... :P
blijf het toch frapant vinden dat men denkt dat cloudcomputing de zaak over gaat nemen

je blijft met Latency's zitten (data over de kabel gaat al zo snel als het licht en dan heb ik het niet over bandbreedte)
en het feit dat je data dan niet lokaal word opgeslagen/onderbeheer is is ook een probleem.

cloud computing word alleen wat als die servers in iedere verdeel kast op straat worden geplaatst 10KM verder op is namelijk al te ver.

voor simpele applicaties hoeft het geen probleem te zijn maar games in ieder geval niet.

[Reactie gewijzigd door firest0rm op 15 oktober 2015 00:36]

Die latencies vallen echt reuze mee. Heb zelf met VDI in de cloud gewerkt en heb nooit echt gemerkt (ook niet als ik thuis werkte) dat het niet te werken was, vanwege de latency.

Ook begrijp ik niet helemaal, waarom het een probleem zou zijn, als er data in de cloud wordt opgeslagen. Voor zakelijk gebruik, heb je dan immers zelf iets en voor particulier, tja... Veel mensen zullen er niet mee zitten, anderen wel. Je hoeft het niet per se te gebruiken. ;)

Games spelen vanuit de cloud is ook iets wat nog veel te verre toekomst muziek is. Er kleven teveel haken en ogen aan, waardoor gaming in the cloud voorlopig nog wel een no-go is. De resources zijn er gewoonweg nog niet beschikbaar voor en een dergelijke GPU die je voor zulke doeleinden kan gebruiken, zijn er nog niet. Ik weet dat nVidia een GPU heeft, maar daar betaal je een fortuin voor en dan is het nog maar de vraag of het werkbaar te krijgen is, want dat werkt ook niet altijd. En dan inderdaad het derde punt; de kosten, zoiets in de cloud doen zal (zeker in het begin) ook niet goedkoop zijn, dus momenteel is het totaal zinloos om in zoiets te gaan investeren.
Ik vind het wel interessant dat Altera's FPGA SOC's een ARM processor aan boord heeft.
https://www.altera.com/products/soc/overview.html

Intel haalt dus een bedrijf binnen die gebruik maakt van de technology van de concurrent.

We gebruiken de Altera chips hier veelvoudig voor onze insteek kaarten.
...en Intel doet niets in automotive, medical of telecom?.. 8)7
Vind het ook een zeer kwalijke zaak.
Altera is een grote speler in een kleine markt met niet alleen veel specifieke kennis, ze hebben ook een zak met patenten.

Dat ze worden overgenomen door een reus in een net wat andere markt maakt het niet beter op. Chip-productie komt steeds meer bij enkele grote partijen wat nooit goed is.
Initiatieven van Rusland en China om zelf te gaan produceren is niet eens zo slecht om in ieder geval zelf een soort van basiskennis in er land te houden.
de Commissie wijst op het gegeven dat Intel en Altera andere delen van de markt bedienen; laatstgenoemde bouwt chips voor verschillende bedrijfstakken, zoals voor de auto, medische apparaten en telecom.
Staat in het artikel hoor.

[Reactie gewijzigd door dafour op 14 oktober 2015 19:01]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True