Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties
Submitter: witeken

Een roadmap die van Intel afkomstig lijkt, toont het releaseschema voor de mobiele processors. Te zien is dat Intel de op 10nm geproduceerde Cannonlake-processors in het derde kwartaal van 2017 uit wil brengen, drie jaar na de introductie van de eerste 14nm-chips.

Op de roadmap die Benchlife publiceert, staat wanneer Intel grofweg zijn processors voor laptops, tablets en smartphones wil uitbrengen. Benchlife publiceert vaak authentieke interne Intel-informatie. Halverwege het derde kwartaal van dit jaar verschijnen de eerste Core Y- en U-processors voor laptops van de Kaby Lake-generatie. Kaby Lake is de derde op 14nm-geproduceerde chipgeneratie.

Vorig jaar maakte Intel al bekend zijn tick-tock-releaseschema los te gaan laten. Deze cadans hield in dat Intel het ene jaar op een nieuwe chiparchitectuur overstapte en het volgend jaar het productieprocedé verkleinde. Elke twee jaar stapte Intel dus op een kleinere nm-generatie over, maar met Kaby Lake komt daar een einde aan.

In het derde kwartaal van 2017 stapt Intel volgens de nu gepubliceerde roadmap voor Core U en Y over op 10nm, met de Cannonlake-generatie. Dat is drie jaar nadat Intel met Broadwell zijn eerste 14nm-chip aankondigde. Dat gebeurde in september 2014, al duurde het tot in 2015 voor die chips breed uitgebracht waren.

In het derde kwartaal van dit jaar moet Apollo Lake verschijnen, de opvolger van Braswell voor tablets en zuinige laptops en convertibles. Dat is een kwartaal later dan op een eerdere roadmap stond. Intel heeft ook een opvolger voor Cherry Trail in de planning en dat is een chipgeneratie met de codenaam Broxton. Deze moet tablets en high-end smartphones bedienen en in het vierde kwartaal van 2016 verschijnen. Van Broxton werd vermoed dat deze de concurrentie met bijvoorbeeld de topmodellen in de Qualcomm Snapdragon- en Samsung Exynos-lijnen aan zou gaan, maar de Intel-chip werd uitgesteld van 2015 naar 2016, en lijkt nu dus pas aan het eind van het jaar te verschijnen.

Voor goedkopere smartphones komt Intel halverwege dit jaar met SoFIA-socs met lte-ondersteuning. Die chiplijn moet midden 2017 opgevolgd worden door een nieuwe generatie, die Intel SoFIA LTE2 noemt.

Intel Kaby Lake roadmap Benchlife 2016

Lees meer over

Gerelateerde content

Alle gerelateerde content (19)
Moderatie-faq Wijzig weergave

Reacties (43)

Meerdere reacties hierboven hebben de boodschap dat Intel op haar lauweren rust met twee vingers in de neus vanwege het gebrek aan concurrentie en dus geen prikkel krijgt om te innoveren. Niets is minder waar.

Ik kan hier een heel verhaal gaan tikken over de grenzen van de huidige productiewijze op basis van traditionele DUV fotolithografie (diep ultraviolet licht met golflengte 193nm) en de overgang naar EUV lithografie (extreem ultraviolet licht met golflengte 13,5 nm), maar dat laat ik liever aan de specialisten over. Anton Shilov van Anandtech heeft afgelopen weekend een uitstekend artikel gepubliceerd over de perikelen omtrent EUV en de lastige overgang van DUV naar EUV.

Kortgezegd is EUV nog steeds niet bruikbaar: alle grote chipfabrikanten (Samsung, TSMC, GlobalFoundries en Intel) zijn nog bezig om dit proces geschikt te maken voor massaproductie. Dit gebeurt overigens in strakke samenwerking met ASML. En tegelijkertijd wordt het steeds lastiger om DUV te blijven gebruiken voor massaproductie richting de 7nm-grens. Het is niet dat de chips niet gemaakt kunnen worden (want dat is wel mogelijk), probleem is dat het productieproces nog niet rendabel is en te weinig bruikbare chips oplevert.

Voor degenen die de basics van chipproductie nog eens een keertje willen nalezen: Joshua Ho van Anandtech heeft hierover anderhalf jaar geleden een in-depth artikel gepubliceerd. Een must read als je interesse verder gaat dan het lezen van de dagelijkse hardware-reviews.
Meerdere reacties hierboven hebben de boodschap dat Intel op haar lauweren rust met twee vingers in de neus vanwege het gebrek aan concurrentie en dus geen prikkel krijgt om te innoveren. Niets is minder waar.
Maar je gaat vervolgens niet in op de, volgens mij terechte, claim dat we bij intel de afgelopen paar generaties weinig veruitgang zien in performance, terwijl de prijzen hoog blijven en we voor upgrades toch wel erg vaak nieuwe (dure) sockets moeten kopen....
Performance? Met kleiner wordende chiparchitectuur neemt het energieverbruik af. Ook dat is vooruitgang. Misschien is deze ontwikkeling relevanter dan een verdere groei van performance.

In het professionele segment (simulatie, visualisatie) kan er nooit genoeg performance zijn, maar als software een beetje schaalbaar is ingericht heeft ze voorzieningen om taken over meerdere cores/sockets te verdelen. De (single core) CPU performance zelf is dan minder relevant.

Misschien dat fanatieke high end gamers nog het meeste belang hebben bij de (single core) performance. Voor games is het of te moeilijk, of het kost te veel geld om goed gebruik te maken van multi core/socket opstellingen. Dit is jammer voor deze groep, en dit maakt haar een niche.

Voor veel software kan worden gezegd dat CPU's in capaciteit ver vooruit lopen op wat de software aan resources nodig heeft. In dit algemene beeld is de verkleining en zuiniger maken van de architectuur niet meer dan logisch. Bij GPU's zie je trouwens wel dat de huidige capaciteit de vraag niet bijhoudt. De groei van schermresolutie gaat harder dan wat zelfs high end GPU's kunnen beantwoorden.
Als ik naar de evolutie van onze noden kijk, zijn we zowiezo voor het massieve parallelle rekenwerk aangewezen op GPU of toch al stevig aan het migreren. Ook als de atomische berekeningen per stuk sneller en optimaler in een rijkere instructieset kunnen zoals op een CPU doet een GPU een CPU volledig verbleken kwa throughput van totaal aantal atomaire berekeningen per tijdseenheid. Makes sense, dus op dat vlak hoort een CPU niet meer beter te verbeteren.

Voor CPUs kijk ik vooral uit naar innovaties in bandbreedte met de periferie en branch prediction. Op dat vlak zie ik niet veel bewegen bij Intel, maar gelukkig wel bij de GPU fabrikanten. Hier een laatste opschaling bij NVidea:

http://blogs.nvidia.com/blog/2014/03/25/gpu-roadmap-pascal/

In het vetgedrukt zie je de innovaties en/of evoluties (unified memory) die zeer welkom zijn, en die volop inspelen op enkele van onze meest rekenintensieve use cases, maar ik toch eerder van onze CPU bakker zou verwachten. Het 80GB/s bandbreedte verhaal tussen CPU en GPU mbv NVLink wil ik wel eerst met eigen ogen zien, maar dat geeft toch aan hoe de GPU fabrikanten tegenover evolutie staan.

De enige evolutie van Intel die ik nog aandachtig volg is de prijsevolutie van hun "hoge" bandbreedte producten en hun inzetbaarheid in multi GPU architecturen
Helemaal met je eens, maar deze artikelen zijn vrij ingewikkeld (voor mij) en in het Engels. Voor het nalezen van hoe intelprocessoren worden gemaakt raad ik dan ook ten zeerste deze artikelen van de concurrent collega HWI:

1.
http://nl.hardware.info/r...-moderne-cpu-geproduceerd
Ook al is het een vrij oud (2010) artikel, het is duidelijk en simpel geschreven maar toch uitgebreid. Wat mij betreft een must read!

2.
http://nl.hardware.info/r...een-processorarchitectuur
Ook goed artikel.


De reden dat Intel steeds 'langzamer' innoveert komt inderdaad dus doordat het steeds moeilijker is om transistoren nóg kleiner te laten worden, kort samengevat. Daar kan ik nu wel een heel verhaal over gaan houden, maar natuurlijk heeft HWI een artikel daarvoor klaarstaan:
http://nl.hardware.info/r...og-de-wet-die-geen-wet-is
En dan met name de laatste pagina '10nm en verder' is interessant.

Maar wat ik mij afvraag is of processoren nog veel sneller gaan worden. Intel zegt van niet, omdat dat steeds lastiger en ook minder nodig is. Maar toch, als je overstapt naar een kleiner procede, dan passen er meer transistoren en dus meer verbindingen op een processor. Dan zou het toch wel sneller moeten worden?
Of heb ik dat nu fout?

Edit:
Maar kijk niet in een tunnelvisie naar EUV. Er leiden meerdere wegen naar Rome, Intel onderzoekt namelijk andere manieren om processoren kleiner/sneller te maken ook.

[Reactie gewijzigd door wouterg00 op 16 maart 2016 21:08]

Meerdere reacties hierboven hebben de boodschap dat Intel op haar lauweren rust met twee vingers in de neus vanwege het gebrek aan concurrentie en dus geen prikkel krijgt om te innoveren. Niets is minder waar.
Het is decennialang zo geweest dat computers (lees: CPUs) elk jaar sneller werden. Dat was fijn, want dan kon je er steeds meer dingen mee doen, dus kochten mensen nieuwe computers zelfs als de oude het in principe nog prima deed (computers van drie jaar oud waren niet kapot, maar toch "onbruikbaar"). Ook waren er massa's mensen die voor het eerst een computer kochten. Al met al werden er een heleboel CPUs verkocht en was Intel er alles aan gelegen om mensen te overtuigen een product van Intel te kopen, niet iets van de concurrentie.

Tegenwoordig zijn we aangekomen op het punt dat computers, voor een heel groot deel van de gebruikers, snel genoeg zijn. Zelfs als er iets snellers beschikbaar is... waarom geld uitgeven als je toch niets met die extra snelheid zou doen en je huidige computer het nog prima doet? Op dit moment gaat het er Intel niet zozeer om mensen te overtuigen een Intel chip te kopen in plaats van een AMD, nu moeten ze mensen zo gek krijgen überhaupt een (nieuwe) chip te kopen, in plaats van geen geld uit te geven. In feite is de grootste concurrent van Intel's CPUs uit 2016 de Intel CPU uit 2013 of 2014 die het nog prima doet.

Dus inderdaad, Intel moet nog steeds innoveren, want als ze op hun lauweren gaan rusten dan stort de verkoop van Intel CPUs (nog steeds het grootste deel van hun inkomsten, laatste keer dat ik er iets van hoorde) als een kaartenhuis in elkaar.
Op het gebied van lithografie boeken ze zeer zeker vooruitgang, maar dat vertaald zich niet in snellere producten voor de consument, wel zuiniger. Ondertussen komen de high-end telefoon socs aardig in de buurt van de Intel core i3. Op IGP gebied hebben ze ook veel vooruitgang geboekt de afgelopen tijd, dat is maar goed ook anders waren de High-end mobile socs nu sneller met hun IGP.

Waar ze mij als consument voornamelijk in de steek laten is het niet maken van een betaalbare 8 of 16 core CPU voor consumenten. Je zou zeggen dat na al deze verkleiningen het toch wel mogelijk moet zijn om dat te doen. Wat ik Intel voornamelijk wel zie doen is het afromen van de markt met tig verschillende CPU's waar hun Celeron serie qua performance ver onder de maat zit.

[Reactie gewijzigd door PuzzleSolver op 16 maart 2016 21:31]

en dit is mijn inziens een direct gevolg van het feit dat er total geen concurrentie is voor hun.

waarom elk jaar daar moeite in steken als ze toch al voorop lopen met een flinke voorsprong.....all wasted money in hun ogen
Kijk ook eens op: http://fortune.com/2014/11/17/top-10-research-development/

Intel staat al jaren in die top-10 en er is geen enkele reden om aan te nemen dat ze daar binnenkort uit stappen. Het kost steeds meer geld om een stapje kleiner te gaan, dus is het logisch dat met hetzelfde budget de stappen steeds langer duren.
Ik vermoed dat men bij Intel nog genoeg spendeert aan research.

En geen concurrentie? Wat denk je van de ARM processoren? Volgens mij vindt Intel de trend van mini bordjes met een ARM processor niet zo fijn. Wat jaren geleden kon je er wat sensors mee uitlezen, even later kon je er een media center op draaien, en nu zijn ze bijna snel genoeg om ze als PC te gebruiken.

Op vlak van chip productie zullen ze ook niet stil mogen zitten. Hoewel ze daar nog voorsprong hebben loert de concurrentie om de hoek.

Op de marktsegment van high end desktopprocessoren mogen ze voorlopig op hun beide oren slapen, maar dat wil niet zeggen dat gans Intel mag stoppen met innoveren.
Klopt. En het feit dat cloud-based working in opkomst is.

Zelf werk ik vaak op een Chromebook (en anders in Chrome). Veel rekenkracht is lokaal niet nodig.

Een bekende is een spreadsheet. Als je alles als formule oplost, dan is Excel en lokale compute erg handig. Echter, met wat scripting, dan is dat voordeel maar beperkt en komen andere voordelen van Google Spreadsheet snel naar voren. Zeker bij samenwerking.
Dat klopt, maar meer dan 90% van de servers in de cloud draait op Intel server SoCs, waarop Intel meer marge maakt dan op consumenten CPU's.

Maw, als u uw Intel-CPU outsourcet van uw eigen PC naar Googles data centrum is dat voor Intel niet zo boeiend.

Pas als ARM SoCs op de servers van Google de Google spreadsheets doorrekenen, of FPGA's kunnen het 10x sneller is dat nadelig voor Intel.

ed - gaat in het komende decennium misschien wel gebeuren dat Intel deels wordt vervangen door goedkopere oplossingen in datacentra. ARM hoopt / mikt op 25% in 2020, en zojuist vers van de pers: TSMC en ARM gaan samenwerken voor 7nm voor in datacentra

[Reactie gewijzigd door kidde op 16 maart 2016 11:47]

SoC = System On Chip, een hoog-geïntegreerde CPU die geen moederbord vol chips nodig heeft. Je vindt ze typisch in telefoons. Server CPU's zijn geen SoC's.

Overigens is dit Intel proces relevant over de hele range van Intel processoren, van kleine Atoms tot de Xeons in servers.
U loopt - net als Intel - achter, Applied Micro levert al een poosje ARM Server SoCs (noemen ze soms ook wel Server on a Chip), aangekondigd in 2011.

Deze bevat vaak ook PCIE en Ethernet en SATA- en USB-controllers, naast de al lang geleden door AMD gepioneerde DDR controller geintegreerd. Intel doet er tegenwoordig zelfs ook aan mee, met oa een geïntegreerde FPGA.

http://anandtech.com/show...att-server-soc-champion/2

North en Southbridge en ander moederbord geneuzel is straks niet meer nodig omdat de hele zooi, al dan niet met interposers of TSV's (daarna 3D monolitsch) op 1 brok sillicium zit. Dus wat mij betreft rechtvaardigt dat degelijk de term SoC, maar ik begrijp dat dit voor hen die alleen Intel kennen misschien nog een brug te ver is. Tegen 2020 weten we echter niet beter dan dat een server vol zit met SoCs, want CPU's, da's zoooooo zeros!

[Reactie gewijzigd door kidde op 17 maart 2016 00:42]

Voordeel van Excel vind ik juist dat je makkelijker met add-ins kan werken waardoor je MATLAB en R kan gebruiken, je eigen C++ libraries kan koppelen, en sheets kan koppelen met allerlei 3rd party API's. Dit heb je bij een vrij simpele cloud-service als Google Spreadsheets niet.
Bedoel je: .xlsx parsen of echt C++ libraries aanroepen vanuit Excel?
Ik vermoed LoadLibrary via VBA.
Ik gebruik geen Matlab of R ...maar een snelle google suggereert dat er wel APIs beschikbaar zijn.

Het probleem dat ik heb met alle Office applicaties, is de issues die kunnen ontstaan met versie verschillen en het beheer en onderhoud bij meerdere gebruikers.

Ook het locken van het bestand bij het wat interessantere werk met meerdere gebruikers is doorgaans niet fijn; ook niet op een share.

Uiteraard zijn er genoeg use cases die Excel vereisen en waar google spreadsheet geen oplossing voor is. Echter, zodra meerdere gebruikers in beeld komen, dan legt Excel het al snel af ...voor waar ik het voor gebruik, vrijwel altijd. Samenwerken en volatiliteit is namelijk één van de belangrijkste use cases.
Wát is precies een direct gevolg van het ontbreken van concurrentie?

Als je doelt op het loslaten van het tick-tock schema komt dat ook (minstens) deels door de techniek. Het wordt gewoon steeds lastiger om verder te verkleinen, e.e.a. is inmiddels zo klein dat je gewoon tegen bepaalde natuurkundige limieten loopt.
Het harde limiet op lithografische processen is toch iets van 6nm met de huidige technieken? Kan me voorstellen dat het ontzettend veel tijd en gled kost om een goed procedé op 10nm op te zetten.
Ik ben benieuwd of we 6nm nog gaan zien, ivm kosten idd. Dus na cannonlake gaan ze de architectuur eerst nog eens tot het uiterste rekken en daarna zal het wel eens lang kunnen gaan duren voordat we wat nieuws krijgen. Ik verwacht iets op basis van koolstof (/grafeen) maar het valt te bezien
ASML loopt met de huidige lithografische technieken tegen de limiet aan bij 7 nm. Om nog kleiner te gaan heeft men andere technieken nodig (of aanpassing op de huidige technieken). Hoewel men nu nog niet klaar is met het ontwikkelen van de 7 nm machines, is men wel al bezig met onderzoek naar technieken om tot 4 nm te komen (oa door lucht als medium uit te sluiten). Daar houdt de op lithografie gebaseerde techniek toch echt op.
Of er nog een stap gemaakt kan worden gemaakt naar nog kleiner is nog maar de vraag. Mogelijk wel, maar dan komt men helaas heel dicht bij de natuurkundige grenzen. Voor verdere minimalisering zal men moeten overstappen naar grafeen oid.

Bronnen mag ik niet noemen, maar bovenstaande moet een goede natuurkundige kunnen bevestigen.
3 jaar na introductie van 14nm cpu's willen ze 10nm cpu's introduceren. Dit noem ik toch wel aardige innovatie? Zeker omdat op een gegeven moment de limiet wel bereikt zal zijn.
Welke limiet? de schaal wel, maar uiteindelijk kan men een nieuwe cpu architectuur uitbrengen als de verbeteringen/veranderingen maar zo significant zijn dat dit het waard is. Limieten op andere vlakken zijn wellicht nog meer rekbaar.

Daarom zal de focus van schaalverkleining uiteindelijk verschuiven naar iets anders, dat bijv. weer flinke performance stappen geeft of iets anders. Het loslaten van tick-tock strategie duidt lijkt me al dat ze straks op een andere manier te werk gaan. Daarbij kan me moeilijk voorstellen dat ze bijv. 5 jaar lang niets meer zullen uitbrengen, want dat gaat ze zelf omzet kosten i.p.v. opleveren.
Het feit dat zij koplopen betekend niet dat zij niet innoveren. Uiteraard willen zij de kroon behouden en dat kan alleen door innovatie.

Er is genoeg concurrentie, miss niet op de x86 markt maar de ARM markt wordt steeds gevaarlijker voor Intel.

[Reactie gewijzigd door master.fean op 16 maart 2016 09:26]

tussen elke generatie heeft altijd al zo'n 2 jaar gezeten https://en.wikipedia.org/...el_CPU_microarchitectures
Lol ik denk dat jij onderschat hoeveel moeite het kost om zoon nieuw procede te ontwikkelen. Ze steken er alleen maar meer geld in qua R&D.

Het is wel zo dat zo de door gebrek aan concurrentie bijna kunnen vragen wat ze willen voor de chips en een riante marge hebben.

Positief punt is dat dit wel kansen voor AMD met Zen bied. Hopelijk valt die niet tegen.
De concurrentie is er wel degelijk, Qualcomm groeit in rap tempo richting Intel qua verkoopcijfers, en TSMC/Samsung zitten de Intel fabs heel dicht op de hielen (TSMC is waarschijnlijk zelfs eerder met 10nm dan Intel). Als Intel geen competitieve chips levert, stapt hun grootste klant Apple ook snel over naar hun eigen chips, en dit proces zie je al bij Samsung die inmiddels zijn eigen chips in Chromebooks schuift zodra ze daar vinden dat de aanbieding van Intel niet voldoet.

[Reactie gewijzigd door Dreamvoid op 16 maart 2016 10:36]

Ze hebben alleen maar minimale concurrentie met X86 CPU's (en dat komt ook weer omdat er maar weinig nieuwe leveranciers zijn die het nog zien zitten om in dat segment te gaan investeren). Voor alle andere producten die ze leveren hebben ze juist heel veel concurrentie.
Mijn inziens heb je het mis. Je hebt blijkbaar geen idee hoeveel moeite ze hebben om betrouwbaar op een kleiner procedé te produceren. Dat was bij 14nm al het geval. En het houd een keer op dat ze niet kleiner kunnen. En hoe dichter je bij de grens komt hoe moeilijker en duurder het word.

Ja, je kunt meer schakelingen kwijt op een vierkante mm, maar de kosten per schakelingen op zich zijn veel hoger, dus het is een afweging van wanneer de productie zo geoptimaliseerd is, dat het ook zin heeft wat betreft kosten.
Ik denk dat 10 nm of uiterlijk 7 nm echt wel naar kosten toe het limiet zal worden imo.
Ik denk dat dan het klein genoeg is enerzijds voor de zuinigheid anderzijds voor de ontwikkelingen op mobile gebied.

Maargoed in mijn ogen vind ik dat Intel zijn best nog doet maar dat het binnenkort niet meer kan concurreren met alleen maar het productie proces. Intel zal hun strategie van optimalisaties en betere integrated gpu moeten verder zetten
Einde van de wet van Moore? Ik hoop het niet :(
Dat was vorig jaar al het geval, ze hebben gewoon moeite met yields van 14nm en kleiner op dit moment.
Vergeet niet dat de kosten voor een kleiner procedé steeds hoger worden. Daarmee zal de terugverdientijd navenant langer worden (bij gelijke opbrengsten uiteraard). Ik verwacht daarom de economische haalbaarheid eerder een probleem zal worden dan de natuurkundige beperkingen.

Daarnaast is het natuurlijk de vraag in hoeverre de steeds kleinere performancewinsten (energie, berekeningen per seconde, etc) de consument nog kunnen interesseren. Marktverzadiging zal eerder optreden wanneer je innovatie geen directe meerwaarde voor je klanten meer biedt.
Als je een data center kunt halveren is dat een goede business case om dure componenten te gaan gebruiken. Voor de consumentenmarkt is dit inderdaad minder interessant. Daarvoor moet je vooral focussen op energieverbruik zodat je zo lang mogelijk kunt werken zonder je laptop te hoeven opladen.
Tick-tock-tock?
Rudie_V is vind de naamgeving erg lijken op een tick-tock-tock. kijk maar naar sandybridge-Ivybirdge en dan ook met Hasswell-broadwell. Ik denk dat de codenaam voor de zogehet cannonlake. wel anders zou zijn dan de codenames die er nu zijn.
Ik doelde niet op de naamgeving van de nieuwe generatie, ik doelde meer op dat intel de tick-tock los heeft gelaten. Maar nu is het een verkleining, nieuw design, verbeterd design, dus tick-tock-tock, hoewel voor skylake eigenlijk tock-tock-tick, skylake, caby labe en nu de tick met cannonlake.
Hierna staat voorlopig weer 2x een tock op de planning met ice lake en tiger lake waarna een tick naar 7nm zou moeten komen.
Ik heb het gevoel, dat met een die-shrink, de processors steeds lager geclocked worden.
Of heb ik het nou verkeerd ?

Ik kan me voorstellen, dat hoe kleiner het wordt, des te slechter het tegen warmte kan.
Kan natuurlijk met watercooling e.d. opgelost worden.

[Reactie gewijzigd door martin.M op 16 maart 2016 11:02]

De max clock ligt altijd nog rond 4GHz.
Maar dat zij de turbo frequenties.
Deze snelheden zijn bij normaal gebruik niet nodig, dus de basis clock ligt bij Intel lager. Dat heeft ook zeker te maken met warmte afvoer. Je moet meer warmte zien kwijt te raken op een kleiner oppervlak.

Waterkoeling/luchtkoeling maakt daarvoor niet echt uit.
Als er sneller geklokte processoren in ontwikkeling komen dan zullen ze ook eerst flink moeten gaan innoveren op warmte afvoer.
Vraag me af of wij nog GHz processoren gaan meemaken want met de huidige lucht en waterkoeling gaat dat hem sowieso niet worden denk ik.
En dan eind 2017 wel gewoon hdmi 2.0 en DisplayPort 1.3 standaard in de gpu?
Had verwacht dat dit eigenlijk al in SkyLake zou zitten...[/teleurstelling] :/
Of kunnen wij dan massaal naar socket 1152 (weer een nieuw $$$-mobo aanschaffen)
Vergeef me mijn zuurpruimerij, maar Intel is wel meester in het uitmelken en tijdrekken imo.
Iedere nieuwe cpu een maar Mhz erbij- die tijd hebben wij gehad, nu wil ik gewoon een features update.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True