Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel stopt met zijn Developer Forum-evenement

Door , 28 reacties, submitter: player-x

Intel heeft bekendgemaakt dat er in de toekomst geen Developer-Forum evenementen zullen plaatsvinden. Het bedrijf zegt op zoek te zijn naar nieuwe manieren om met zijn klanten te communiceren. Op de evenementen werden doorgaans nieuwe producten getoond.

Intel logoIntel heeft een mededeling op de IDF-site gezet, die werd opgemerkt door Anandtech. Daarin bedankt het voor 'bijna twintig jaar IDF' en verwijst het bedrijf naar publieke bronnen met informatie over zijn producten. Eerder had Intel al bekendgemaakt dat zijn evenement in China niet door zou gaan, maar nu blijkt hetzelfde te gelden voor het evenement in het Amerikaanse San Francisco. Vorig jaar toonde Intel bijvoorbeeld nog zijn Optane-ssd op het Developer Forum in China.

In een mededeling aan Anandtech laat Intel weten dat het 'in de afgelopen twee tot drie jaar sterk is veranderd van een pc-bedrijf naar een databedrijf'. Door ontwikkelingen als kunstmatige intelligentie, fpga's, Optane, internet-of-things en automotive zou een evenement als het Developer Forum niet meer toereikend zijn om informatie te verspreiden. Intel zegt naar nieuwe manieren te zoeken om dit proces vorm te geven. Bijvoorbeeld aan de hand van kleinere, gespecialiseerde evenementen.

Het eerste Developer Forum werd gehouden in 1997. Er waren meestal twee evenementen per jaar, één in het voorjaar en het andere in het najaar.

Door Sander van Voorst

Nieuwsredacteur

18-04-2017 • 08:54

28 Linkedin Google+

Submitter: player-x

Reacties (28)

Wijzig sortering
Begrijpelijk.... Het is jammer voor Intel, maar het is gewoon niet meer de dominante kracht die het vroeger was. Dit soort Forum's kosten klauwen vol geld en als je dan eigenlijk ook niets stoers te melden hebt, dan is het jammer maar helaas.

En voordat je nu roept, ja maar... Intel is nog dominant in CPUs. Ja, klopt, maar CPU's zijn niet zo sexy meer. CPUs zijn voor al die algemene taken, maar de wereld gaat nu naar dedicated chips. Google's AI wordt gedraaid op een specifieke Tensor Processing Unit (TPU). Mobiel is het domein van ARM en in dat veld is niemand dom genoeg om Intel weer dominant te laten worden (Alhoewel Qualcomm, wel bijna die rol speelt). FPGA's is niet iets waar Intel een rol speelt. (edit met dank aan Erayan: Even vergeten dat ze twee jaar geleden Altera gekocht hebben, zijn nu nummer twee in de FPGA industrie met 31% achter Xilinx met 51%.) Auto hebben ze net gekocht, maar dat heeft niets te maken met hun traditionele base... Dus ja, waarom dan nog een IDF? Om te laten zien dat je weer een die shrink gedaan hebt?

[Reactie gewijzigd door Raindeer op 18 april 2017 12:28]

Intel heeft Altera, dat is toch geen kleine jongen, samen met Xilinx hebben die echt wel een vinger in de pap in de fpga industrie. Zou zelfs willen zeggen dat ze vrij belangrijk zijn.
ach ja, je hebt gelijk... even vergeten die hebben ze twee jaar geleden gekocht... 8)7
Grappig, eerst ging de trend in de wereld van specialistische chips naar generieke CPU's omdat bepaalde mensen dachten dat iedereen daar alles op kon programmeren. Maar nu die generieke chips niet snel genoeg sneller worden en niet iedereen alles kan op programmeren, zien ze toch weer in dat dedicated chips en programmeurs met dedicated kennis toch effectiever zijn.
Ik denk deels waar. Er worden in specifieke gevallen wel dedicated chips gemaakt, omdat deze specifieke taken veel beter/sneller uit kunnen voeren i.v.m. generieke chips. Denk aan een GPU. Alleen nu zie je dat de markt verandert: i.p.v. single powerhouses (computers), gaan consumenten gebruik maken van een aantal minder krachtige units, zoals smartphones, tablets en iot-apparaten. Ik had eigenlijk wel verwacht dat Intel voet aan de grond zou krijgen in de mobiele markt, maar helaas.
Een cpu voor een smartphone is nog steeds een generieke processor. En dat is ook goed, het heeft veel soorten taken. Een GPU is ook nog een generieke processor. Je kunt een GPU compleet andere taken laten uitvoeren op elk willekeurig moment.
Maar denk aan FPGA' en asic's waarbij de functionaliteit echt vast ligt. Deze werden vervangen door GPU's en CPU's. Nu gaat het weer de andere kant op.
Logisch toch, meerkamper is ook nooit de beste op alle onderdelen.
Generieke CPU lijkt me meer met kosten te maken hebben gehad (massaproductie).
Generieke CPU's, zelfs de meeste zuinige, zijn kachels. Nu steeds meer op batterijen i.p.v. het lichtnet draait (synisch gezien een veel sterkere drijfveer dan het klimaatprobleem), zijn energieslurpende kachels in apparaten het eerste wat je als ingenieur gaat aanpakken.
Dat ben ik helemaal met je eens. Weg met de ventilatoren!
Heb nu een laptopje die bij normaal internetgebruik met 10W toe kan.
Voorgaande laptop deed 30W.
En de 'towers' deden 300W samen met de monitor. Een heel gezin met zulke PC's verstookte meer dan 1kW!!

Binnenkort in dit theater alleen nog geÔntegreerde CPU-GPU. Einde verhaal voor Nvidia/Radeon.
Dat is een uitspraak waarbij je door een klein gaatje kijkt. Er is nog een hele grote wereld waarin er andere vereisten zijn en andere vereisten vragen meestal ook andere oplossingen. Een markt waarin energie zuinigheid absoluut top moet zijn gaat hoe je het wend of keert inleveren op performance. Natuurlijk wordt er hard gewerkt aan componenten die ondanks dat ze energiezuinig zijn ook een relatief hoge performance bieden. Echter zul je deze naast een op dat moment net zo actuele variant zetten waarbij energie zuinigheid niet hoog in het vaandel staat, dan zullen er verschillen zijn. Of deze verschillen groot of klein zijn hangt af van de inzet, doel, eisen en persoonlijke beleving.
Niet iedereen doet alleen maar aan webbrowsen en beedje documenten schrijven.
Er zijn ook mensen die behoorlijk power trekken, en een beedje gamer moet er niet aan denken om op een laptopje te gamen.

Over kachels gesproken, ooit eens een GSM flink aan het werk gezet, die worden aardig warm wanneer je ze echt stevig laat werken.

Voor de gemiddelde consument zullen tablets en GSM in weze voldoende zijn, maar zodra je meer wil als simpel gebruik zijn die apparaten niet of nouwlijks voldoende.
En hoe graag de markt ons wil laten geloven apparatuur als PC op zijn retour zijn, is het tegendeel het geval.
Alleen de markt word wel weer kleiner, dat wel, aangezien de gewone consument inderdaad overstap van PC naar kleine mobile apparatuur, zijn diegene die altijd al een PC nodig hadden, nog steeds aan de PC..
PC verkopen zullen zakken naar de periode van voor de Internet Hype.

Ik zou niet weten hoe ik mijn werk en hobbies op zo'n mobiel apparaatje zou moeten doen, consoles hebben ook niet de specs die ik vereis, nog enige mobile apparaat komen in de buurt, Laptops die in de buurt komen zijn vele malen duurder als de PC variant, en blijven wederom behelpen door hun kleine format.
Ik zou ook niet weten hoe ik mijn hobbies op zo'n mobiel apparaatje moet doen...
Maar dat ligt niet aan de processing power, maar aan het beperkte beeldscherm.
Zelfs op mijn vorige laptop met een AMD turion en 4MB geheugen had ik genoeg power voor CAD en compilers. Ik had er wel een 24" beeldscherm bij staan. Volgens mij is dat de hoofdvoorwaarde voor effectief werken: veel/meerdere beeldschermen.

Ik begrijp inderdaad ook niet hoe veel mensen hier op zoek zijn naar een superlaptop met veel processing power en dan een 13" of 14" scherm willen :(
Of ze willen het (bv CAD) doen op hun mobieltje :( :(
Ik begrijp inderdaad ook niet hoe veel mensen hier op zoek zijn naar een superlaptop met veel processing power en dan een 13" of 14" scherm willen :(
Of ze willen het (bv CAD) doen op hun mobieltje :( :(
Ik snap dat wel, elke high end laptop kan je aan een deftige monitor hangen, maar probeer eens een high end workstation mee te nemen in de trein naar een klant en onderweg nog even iets te editen....
Veel mensen werken tegenwoordig niet meer vanuit 1 kantoor, maar hoppen van vestiging naar vestiging. Je eigen mobiele krachtige workstation met al zijn specifieke software en instellingen is dan wel zo fijn.
Even vergeten dat ze twee jaar geleden Altera gekocht hebben, zijn nu nummer twee in de FPGA industrie met 31% achter Xilinx met 51%.) Auto hebben ze net gekocht, maar dat heeft niets te maken met hun traditionele base... Dus ja, waarom dan nog een IDF? Om te laten zien dat je weer een die shrink gedaan hebt?
Juist dat is een reden om meer met developers te doen. Als je (verder) kijkt naar wat intel doet, en hoe ze hun portfolio (en de zaken er omheen) versterken, dan zie je juist dat er een sterkere focus is op ontwikkeling, integratie met software-producten, en het openen van platformen en producten voor devs. Ik denk dat dit eerder het vervangen van een traditioneel event is, waarbij er iets nieuws in de plaats komt waarmee ze breder ontwikkelaars aan zichzelf kunnen binden. Intel doet beduidend meer dan CPU's :)
Door ontwikkelingen als kunstmatige intelligentie, fpga's, Optane, internet-of-things en automotive zou een evenement als het Developer Forum niet meer toereikend zijn om informatie te verspreiden.
Dus nu stopen we er helemaal maar mee.
Ja, nee, lekker logisch.
Twintig jaar geleden was een heleboel klanten en journalisten bij elkaar roepen om innovaties te presenteren volgens Intel de juiste manier. Let wel: we hadden toen net aan USB, geen videostreaming via internet, geen social media en bellen met de andere kant van de wereld kostte een vermogen; ik vind het niet zo'n raar idee om op zoek te gaan naar een presentatie die beter aansluit bij de huidige behoeftes en mogelijkheden.
Dat kan zo zijn, maar er zullen nog legio producten zijn die zich beter lenen voor een 1 op 1, waarbij je nog niet alles kunt laten zien ivm ontwikkeling. Dan is het handiger als je een besloten evenement hebt.

Bovendien kun je gewoon een online presentatie doen met publiek. Misschien minder groot aanpakken, maar ik zie niet waarom je dan ineens alles moet laten droppen. Een highlights evenement die ook voor consumenten interessant kan zijn voor maximale exposure lijkt me nog zeker een markt voor.

[Reactie gewijzigd door Martinspire op 18 april 2017 12:23]

Ja, dat is best logisch. Er is gewoon teveel om over te praten. Dan kan je beter aparte evenementen houden of andere kanalen gebruiken dan 1 event waar je niet aan alles toekomt.
" Er is teveel om over te praten" - nou, het gaat hier om het Intel Developer Forum. Al die onderwerpen zijn onderwerpen waarin Intel niet zo heel veel te melden heeft. Concreet: AI wordt gedomineerd door moderne Neurale Netwerken, die op GPU's of ASIC's draaien; FPGA"s zijn en blijven niche-dingen en Intel is daarin een relatief kleine speler; en IoT is ARM.
Automotive haakt Intel aan bij BMW maar ze hebben geen serieuze business. 't Is onderdeel van de gekochte FPGA business, werkt vanuit Stuttgart, maar FPGA's zijn geen commercieel haalbare oplossing. Te duur in de volumes die nodig zijn.

Optane is dan wel Intel, maar lijkt een flop (performance cijfers worden geheim gehouden).
FPGA's zijn en blijven niche-dingen en Intel is daarin een relatief kleine speler
Behalve dan dat Intel nu eigenaar is van Altera, wat ongeveer 1/3e van de FPGA markt in handen had (2015)? :? (Xilinx 50%, en de rest nog wat kleinere vendors)

Ik vind het wel een rare zet; Intel lijkt me genoeg verschillende interessante producten en platformen aan te bieden, en dus genoeg over te hebben om over te praten tegen developers. Aan de andere kant proberen ze misschien meer richting de totaal oplossingen te gaan, en willen ze zich minder presenteren als "hardware only" bedrijf. Misschien dat IDF voor hun daardoor niet meer in het plaatje past.

Het kosten argument want iemand hier aanhaalde lijkt me onwaarschijnlijk; het is maar twee keer per jaar, en met die gigantische omzet van Intel en juist de hoeveelheid publiciteit dat dit oplevert is het meer dan waard.
Ik had me niet helemaal gerealiseerd hoe erg FPGA's een niche zijn, als Intel (Altera) al 1/3 van de markt heeft. De FPGA business is namelijk maar een klein onderdeel van Intel, en de totale markt is dus maar 3x Altera.

Niet zo gek ook: FPGA"s zijn vooral handig in prototyping, maar daar zie je steeds meer Raspberry Pi's en dergelijke opduiken.
Niet zo gek ook: FPGA"s zijn vooral handig in prototyping, maar daar zie je steeds meer Raspberry Pi's en dergelijke opduiken.
Hoe in hemelsnaam kun je een Raspberry Pi met een FPGA vergelijken? :? Verder blijkt dat je niet echt op de hoogte bent van waar Intel achter de schermen druk mee bezig is. Je zegt: IoT is ARM, wat deels klopt. Feit is wel dat Intel al jaren bezig is met een behoorlijke transformatie en zich steeds meer richt op low power en low cost voor dat soort toepassingen. Ook hebben ze bijvoorbeeld Silicon Hive overgenomen, en o.a. in Nederland werkt Intel aan een flexibel vectorprocessor platform. Sterker nog, in Atoms van de laatste jaren zit dat geintegreerd voor low power real-time videoprocessing in het camera subsysteem. Wereldwijd werken heel veel mensen aan dit soort technologie. GPU performance wordt ook steeds beter, al zijn ze misschien geen kampioen met bijvoorbeeld OpenCL. De tijd dat Intel gelijk staat aan x86 ligt in ieder geval al een tijdje achter ons.

[Reactie gewijzigd door Exirion op 18 april 2017 11:57]

[...]
Hoe in hemelsnaam kun je een Raspberry Pi met een FPGA vergelijken?
Zeg dat je een kippenslachterij machine maakt, die een controller nodig heeft. ASIC is kansloos, FPGA was reŽel, maar tegenwoordig zie je daar toch echt RPi's en dergelijke in komen. Als je een paar I/O pinnen nodig hebt en een paar regels logica, dan is een PC onhandig (geen GPIO) en een FPGA inflexibel.
Met alle respect, maar een FPGA is primair bedoeld voor totaal andere doeleinden. Voor wat schakelen via GPIO's zijn er al tig jaren embedded ARM/MIPS/AVR platformpjes. Met een 8-bit ATTiny85 kun je al heel wat leuks bouwen. Een FPGA is interessant voor het testen van chipdesigns en realtime zaken die heel snel moeten, bijvoorbeeld signal processing voor SDR, maar is nooit een voor de hand liggende optie geweest voor wat jij beschrijft.
"Testen van chipdesigns" is inderdaad een bekende toepassing, en volgens mij heeft Cisco ze ook jarenlang gebruikt in high-end Ethernet switches. Maar dat zijn beide relatieve niche-toepassingen. Hoeveel bedrijven ontwerpen chips en moeten dan ontwerpen testen?

SDR is natuurlijk een iets breder verhaal, maar heb je daar niet tegenwoordig ASIC's voor? Dat is natuurlijk enigzins ironisch, hardware voor software-defined radio, maar SDR is meestal niet onbeperkt software-defined.
Het levert alleen niets op op dit moment. Server, desk- en laptop maken 5,4 miljard winst Q4 '16. IoT 1/30e daarvan, FPGA 1/70e. NVM maakt verlies, mobiel maakt zo gruwelijk veel verlies dat het met desk- en laptops is samengevoegd, security wordt verkocht. 97% van de winst is x86, zeggen dat Intel daar niet aan gelijk staat lijkt me een dubieuze claim. Intel wil een hele hoop wat door haar eigen cijfers en handelen wordt tegengesproken, een kritische houding tov hun PR is aan te bevelen.

[Reactie gewijzigd door kidde op 18 april 2017 14:09]

Omzetcijfers zijn niet representatief voor de interne activiteiten op allerlei gebieden. Dat er op dit moment weinig aan verdiend wordt zegt weinig over de kennis en R&D binnen het bedrijf. Verder maak je een dubieuze aanname door te stellen dat ik afga op de PR van het bedrijf. Hoe goed ken jij Intel?
Ja, ok, prima, maar zorg dan eerst dat je die kanalen hebt ingericht voor je maar helemaal niks meer zegt.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*