Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 69, views: 20.033 •

Volgens een roadmap die Intel tijdens IDF toonde, heeft de halfgeleiderproducent verdere productieverkleiningen van zijn Atom-processors op zijn planning staan: over enkele jaren moeten de chips op 15nm gebakken worden.

De roadmap werd door Intels hoofd van de system-on-a-chip-afdeling Raj Yavatkar tijdens het Intel Developer Forum in San Francisco gepresenteerd. In zijn presentatie getiteld Intel Atom Processor Based System-on-a-chip liet Yavatkar nog geen introductiedata van de op stapel staande Atom-processors zien. Wel is bekend dat het volgende Atom-platform, met codenaam Cedar Trail, medio 2011 geïntroduceerd zou worden: dit zouden de eerste 32nm Atom-chips worden.

Na 2011 zouden verdere die-shrinks in het verschiet liggen. De feature-shrink van de chips zou gepaard gaan met een diversificatie van de processors. Momenteel worden slechts één of twee varianten van de processors geproduceerd, maar vanaf 32nm zouden meer en meer varianten moeten verschijnen. Het huidige aantal van zes zou uitgebreid worden naar elf bij de productie op 32nm, naar twintig op 22nm en naar maar liefst zevenentwintig varianten op 15nm. De varianten blijven onderverdeeld in de N-serie voor netbooks, de D-serie voor nettops en de Z-serie voor handhelds. De CE- en E-series zijn respectievelijk voor consumentenelektronica en embedded toepassingen bedoeld.

Intel liet eerder al zien dat de huidige lithografische technieken tot 22 en 15nm geprolongeerd kunnen worden: 193nm-immersielithografie zou toereikend zijn, zonder naar moeilijke technieken als computational lithography of euv-lithografie te moeten uitwijken. Het bedrijf liet al 22nm-wafers zien en in 2013 zouden de 15nm-wafers geproduceerd kunnen worden.

Atom-roadmap IDF 2010

Reacties (69)

Reactiefilter:-169067+152+211+30
Wanneer komt het punt dat ze niet meer kunnen verkleinen ? En wat gaan ze dan doen ?
Meerdere cores and gpu's integreren, tot de die gevuld is of 2de mogelijkheid veel meer socs uit ne wafer halen.
Een nieuwe techniek ontwikkelen waardoor ze juist wel weer kleiner kunnen gaan :P
Quantum Computing is geen verkleining van huidige technologie maar iets heel anders. Sommige algoritmen kunnen met quantum systemen veel efficiënter, maar er is nog geen algemene 'quantum programmeertaal' beschikbaar om berekeningen om te zetten naar iets waar een theoretische quantumcomputer iets mee kan, er al vanuit gaande dat dat wat op zou leveren.

In de toekomst van de normale elektronica die gewoon met nullen en enen werkt zie ik eerder zelf-assemblerende moleculen, lithografie in 3D of ballistische transistoren.
De TU Delft is al met zoiets bezig wat hier uiteindelijk met wat je al zegt kunnen bereiken

http://www.tudelft.nl/liv...-080efbd5c857&lang=nl
Maar het ding is TRAAG!! Ik snap echt niet waarom dit zo interessant is.
Trage troep verkleinen!
AMD doet hetzelfde aan veel hogere snelheid met hetzelfde energie verbruikt.
De Atom is traaaaaaaaaaag...alsof je op een 386 zit te werken als hij even iets moet doen als Winrar..
Nou, ik heb een oplossing voor je: koop gewoon een groot serverpark! Genoeg rekenkracht om de komende 15 jaar geen nieuwe pc meer te hoeven aanschaffen (mits je alleen software draait die héél veel parallelle berekeningen uitvoert). Rekenmachientje is zeker ook te traag? Geen probleem, neem een serverpark in je tas mee!

Nou, welke nuances je mist is zo wel duidelijk. Het gaat er juist om dat dezelfde rekenkracht op kleiner procedé minder kost om te produceren en minder verbruikt. Je kan nog wel zo lopen te patsen met je huidige "dit maakt een atom overbodig"-i7 maar een atom op 15nm zou wel eens pijnlijk dichtbij de performance van een i7-core kunnen komen...
AMD doet hetzelfde aan veel hogere snelheid met hetzelfde energie verbruikt.
Ja, met een andere architectuur waardoor je de kloksnelheid niet 1:1 kunt vergelijken. Zegt niet zo veel dus.

[Reactie gewijzigd door bwerg op 17 september 2010 20:58]

De atom is wel redelijk traag in vergelijking met het andere zuinige chips. Een culv-processor gebruikt ongeveer evenveel en soms zelfs minder energie, maar levert veel betere prestaties.
Ik heb hier een Asus 1401n liggen met een ION board (Atom 330 - dualcore 1.6, Geforce 9400m), en loopt als een zonnetje, toen ik op stage was in Schotland heb ik die 2,5 maand voor internet, gamen (onder andere MW2) en video gebruikt, nooit problemen.

Dus als je vind dat die langzaam is, dan heb je of nog een oude enkel core gebruikt of je eist er veelste veel van. Het is geen desktop processor, maar zelfs met vanalles en nog wat in de achtergrond kon ik er nog op gamen, nou dan slaag je in mijn ogen als zuinige processor.
Atom is in principe een 586 in een nieuw jasje. Low cost Low power CPU.
Mwah,niet helemaal. Er zit dan wel geen fancy execution pipelines of noemenswaardige cache in, maar de instructieset bevat wel MMX, SSE1/2/3, x64 en virtualisatie ondersteuning. In dat opzicht is het zeker geen 586-klasse processor.
Ik denk als de banen slechts uit een rij atomen staan dat dat echt wel het maximum is qua deze techniek. Je krijgt ook stroom verlies door dat elektronen niet meer de banen volgen maar wegvloeien. Dus er moeten dan nieuwe technieken komen. Als het bouwen van de quantum computer grote sprongen vooruit maakt en voor echte prestaties kan zorgen kunnen we verder met het in stand houden van Moore's wet of zelfs nog sneller :)
Moore's law geld niet echt meer he.
Laatst heb ik ergens nog een artiekel gelezen waarin mr Moore zelfs nog zei "It's not a law, but an observation" :P
Op dit moment gaat de "wet" wel weer voor het aantal cores gelukkig, iets wat we naar mijn mening ook door moeten zetten...
Het enige lastige is dat je wat dynamischer moet gaan programmeren, maar dat gaat ook steeds beter :)
Volgens hier gaat Moore's wet nog steeds op en niet alleen voor processoren. Als je je die kunt verkleinen, kun je dus meer transistoren op je die kwijt. Hiermee zal de rekenkracht ook vergroot worden.

Correct me if I'm wrong, maar volgens mij (en hier) gaat Moore's wet door de dual en quad core's nog steeds op. En iedere keer verbaas je je weer hoe ze het steeds toch voor elkaar krijgen om aan die wet te blijven voldoen.
Maar ik snap niet waarom ze steeds meer cores willen maken, aangezien die taakverdeling over de cores er weer voor zorgt dat er vertragingen optreden. De trancistoren worden steeds kleiner. Waarom maken ze dan niet meer trancistoren in 1 cpu/core en laten ze die dual, quad en multicores achterwege? Dan heb je weer iets meer efficientie. Ohh nee ik begrijp het....dan heb je weer meer oppervlakte verlies op de wafers (= duurder), omdat de cores evengroot blijven. Je kunt namelijk meer kleine cores uit een wafer halen dan grote. :S duhh

[Reactie gewijzigd door TwiLighT_DM op 18 september 2010 06:49]

Optimaliseren? Je ziet vaak enorme verschillen tussen procedees van chipbakkers, waarbij er nog wel eens wordt gezegd dat Intel ook op dat gebied een node voorsprong heeft op de rest (dus bv AMD/IBM 45nm is even snel/goed als Intel 65nm), dus op het moment dat het niet kleiner kan is er nog genoeg te optimaliseren om er voor te zorgen dat het wel sneller kan.
Vraag me echt af in hoeverre dat klopt hoor, tenminste in het geval van AMD.

Wie concurreert hier in de server wereld met cpu's op 45nm die qua prestaties per wat bijna niet onder doen voor 32nm Intel cpu's? Denk niet dat het SOI proces van Global Foundries zoveel onderdoet voor Intels high-k proces. Ja ik heb geen bewijzen, maar die zie ik bij jou evenmin.

Zo trouwens ook in het verleden, waar AMD nog hetzelfde ontwerp gebruikte als Intel en op een gegeven moment toch de snelste cpu's kon bakken.

[Reactie gewijzigd door Jut op 17 september 2010 20:24]

Nou... tegen de tijd dat AMD de 40 MHz versies van de 386 en 486 had (terwijl Intel maar tot 33 ging), had Intel meestal de volgende versies.

Overigens has Intel ook de 486DX50 (dus niet DX2-50!), en zo ver is AMD ueberhaupt nooit gekomen.
Ergens bij Angström-technologie (logische opvolger van nanotechnologie).

Transistoren met 'details' van 5 Angström (0,5nm) zijn al voorgesteld, en in 2009 zijn "enkel-molecuul" transistors aangetoond, 3nm voor de gehele transistor schat ik zo in.
Angström is een potentiele opvolger, maar er word hard gewerkt aan meerdere technologieën, zoals licht (de eerste licht/laser transistors zijn al lang ontwikkeld), grafeen chips (ze verwachten komend jaar transistoren te kunnen demonstreren van enkele atomen), biologische logica en quantum technologie.
Wanneer komt het punt dat ze niet meer kunnen verkleinen ? En wat gaan ze dan doen ?
Multi - CPU, Multi GPU, interne geluidskaart interne etc etc.

Wat ze nog wel ééns zouden mogen implementeren in de Atom is Out Of Order Execution.

Aangezien de die wel heel erg verkleind is. Kunnen ze hier ook uiteindelijk deze techniek implementeren.

Al vrees ik helaas dat dit niet of nooit zal gebeuren met de Atom.
Aangezien de Atom de meest goedkope CPU is van allemaal om te produceren.
En daarom het meest winstgevend is. En waarom zou je een niet zo snelle - relatief trage cpu sneller maken als die toch al goed winstgevend is en de mensen het gretig afnemen.
Meer cores is niet echt een goede vervanging voor kleiner procedé. Met meer cores nemen de prestaties namelijk toe maar ook zaken als chipgrootte en verbruik/warmteproductie. Bij een kleiner procedé gebeurt dat niet. Meer cores is een mooie ontwikkeling zolang die afzonderlijke cores kleiner worden (door een kleiner procedé), maar mochten we op een punt komen dat de cores niet meer kleiner worden, dan zal je bij een bepaald aantal cores toch echt ook op moeten houden omdat het geheel te veel gaat verbruiken.

D'r zijn vast ook andere technieken om cores kleiner of zuiniger te maken dan alleen het procedé verkleinen, maar die optimalisaties houden toch echt een keer op en gaan niet zo hard als gewoon een verkleind procedé.

[Reactie gewijzigd door bwerg op 17 september 2010 21:05]

Wat ze nog wel ééns zouden mogen implementeren in de Atom is Out Of Order Execution.
Dat is al beschikbaar als je het echt wil hebben: De VIA/Centaur Nano.
VIA is nog altijd de grootste als het om watt/performance gaat.
[...]
Dat is al beschikbaar als je het echt wil hebben: De VIA/Centaur Nano.
VIA is nog altijd de grootste als het om watt/performance gaat.
Gelijk heb je.

Want de Atom is een extreem slechte performer. Alleen zijn er genoeg mensen helaas die de Atom blijven kopen.

En dus intel geen aandacht vragen voor de slechte performance van hun product.
Als men niet meer kan verkleinen kan men gaan stapelen (Die Stacking) en men is daar nu al mee bezig.

Een recent relevante link: IBM ontwikkelt kleine pipes om chip te koelen

[Reactie gewijzigd door fevenhuis op 17 september 2010 19:21]

waarschijnlijk uitwijken naar een nieuwe techniek met een ander materiaal bijvoorbeeld diamant of grafeen .

http://tweakers.net/nieuw...nten-wafers-mogelijk.html

http://en.wikipedia.org/wiki/Graphene
Wanneer komt het punt dat ze niet meer kunnen verkleinen ? En wat gaan ze dan doen ?
Onder de 10nm gaan gaat heel moeilijk worden. Men is allang van plan om op EUV/XUV (extreem UV) over te stappen maar dat wordt waarschijnlijk nog uitsgesteld tot 2015.
Zie: http://en.wikipedia.org/wiki/Extreme_ultraviolet_lithography

offtopic:
Voor een vraagteken hoort geen spatie.
we naderen de kritische doorsnede van een silicium molecuul, vanaf dat moment kun je dus eigenlijk niet meer verkleinen. wat ze dan gaan doen...
overstappen op andere materialen die minder lekstroom hebben. Zoals germanium ipv silicium.
Het probleem is namelijk: hoe kleiner het fabricageproces, hoe groter de lekstroom.
Ik weet dat we aan het begin van de atom rage nog te klagen hadden over de chipset, die meer verbruikte dan de cpu. Ik verwacht dat ze daar ook rekening mee houden in de toekomst? Anders hoeft de 15nm techniek niet zozeer energie besparend te zijn.

Daarnaast juich ik de atom serie toe in moderne apparaten. Ik gebruik de Atom D330 als desktop en ben zeer tevreden over de prestaties/verbruik verhouding(als internet machine(s) in mijn thuisnetwerk, waar alle data op een NAS staat en de Atom Ion's booten vanaf een SSD).

Ik verwacht veel van de cpu's in andere zaken zoals auto's en tv's en zelfs in een eventuele andere NAS als ik daar ooit aan begin. Ik ga er vanuit dat ze daar in de toekomst dus ook een goede afweging tussen prestaties en verbruik kunnen maken.
Ik weet dat we aan het begin van de atom rage nog te klagen hadden over de chipset, die meer verbruikte dan de cpu. Ik verwacht dat ze daar ook rekening mee houden in de toekomst? Anders hoeft de 15nm techniek niet zozeer energie besparend te zijn.
Het gaat hier in principe niet alleen over CPU's, het gaat over SoC's. Dus alles zit netjes geïntegreerd (in een dingetje dat volledig op 15nm gebakken is).
Ja, ze gaan net als de concurrentie proberen "alles op 1 plakje" te stouwen.

ed3: Het Moorestown-platform bestaat uit drie chips, als ik het goed begrijp: De Atom (CPU,GPU, memory controller), "controller HUB" (crypto, audio codec, USB, voedingsregelaar), en gemixt signaal IC (touch screen controllers, sensors, meer voedingsregelaars, en naar ik vermoed draadloze communicatie)

ze hebben hulp van Freescale / Renesas ingeroepen om SoC's te maken, en in het verleden hebben ze ook RTL-ontwerpen van Imagination Technologies ingekocht (PowerVR SGX 535 zit in Moorestown, Intel noemt het "GMA600") om de GPU te integreren.

Verder hebben ze Infeneon gekocht voor de draadloze communicatie-meuk, en licenseren ze wat ontwerpen van ST/Ericsson, ook voor draadloze meuk. (ed: Valt hier te lezen.

ed2: Wel jammer dan dat het nog niet eens bekend is wat de line-up / specs voor de Z-serie Atom's wordt (die hun weg gaan vinden in het Moorestown-platform), want dat is toch interessanter / concreter dan "vage beloften voor in de toekomst" zoals dit.

[Reactie gewijzigd door kidde op 17 september 2010 17:49]

Probleem voor Intel is dat ze met Moorestown wel een mooie SoC hebben, maar de smartphone fabrikanten eerst nog moeten overtuigen om van hun ARM platform over te stappen. In feite heeft Intel hier precies hetzelfde probleem als ARM op de desktop/laptop markt: je cpu/SoC kan nog zo goed zijn, als fabrikanten 'm niet gebruiken is het moeilijk voet aan de grond krijgen.
ze gaan bijna eeuwig door :p ons eigen brein kent geen grenzen in wat het kan tot nu toe
Het is leuk dat er nu dan quadcore en hexacore processoren komen voor de netbooks, maar het aantal dualcore netbooks is op één hand te tellen. Ik ben zelf best geinteresseerd in een netbook, maar dan wel één met minimaal een quadcore eigenlijk. Het stroomverbruik is toch bijna te verwaarlozen met de nieuwe generatie Atoms.
Vraag me af wat het verschil zou zijn tussen de verschillende Atom processors behalve Mhzen. 27 verschillende procs is vrij veel. Aantal cores? Meer/minder cache? Geheugenbandbreedte? Sockets?

[Reactie gewijzigd door N11 op 17 september 2010 16:31]

Ik verwacht dat Atom een monolitische opbouw zal krijgen.
Dus meerdere modules met een CPU, GPU, cache en geheugencontroller, die ze vervolgens in een soort multi-module (multi-core idee) chip die kunnen bakken zoals AMD dat wil doen met de Bobcat architectuur.
Sockets hebben we het hier al lang niet meer over, dit gaat allemaal over de SoC markt waar de hele boel (cpu, gpu, north/southbridge, audio, netwerk, wifi) allemaal in 1 chip zit. Binnen zo'n SoC kan je eindeloos varieren, dus krijg je veel varianten.
Atom D510 (Pine Trail) heeft al het grootste gedeelte van de chipset in zich. GPU zit daar ook al in; alhoewel GPUs niet Intel's specialiteit is.

Persoonlijk kijk ik liever naar AMD's Bobcat/Ontario; wat grofweg twee keer de performance van Atom biedt, een snellere GPU en waarschijnlijk een vergelijkbare prijs. Dat maakt het een interessant platform en zou al begin 2011 leverbaar moeten zijn.

[Reactie gewijzigd door CiPHER op 17 september 2010 16:33]

Tot nu toe zijn de AMD neo's al een stuk sneller dan de atoms, maar het verbruik is veel hoger. Performance is niet echt wat veel uitmaakt in het netbook segment, het gaat om het verbruik. En wat dat betreft mist AMD op dit moment een beetje de boot. Atoms kunnen 11 uur halen op een accu, terwijl AMD's niet verder komen dan 4-5 uur.
De strategie die Intel volgt met Atom is inmiddels wel duidelijk: elke generatie is niet veel sneller als de vorige, maar een slag zuiniger.
En wat dat betreft mist AMD op dit moment een beetje de boot. Atoms kunnen 11 uur halen op een accu, terwijl AMD's niet verder komen dan 4-5 uur.
En een ARM zal veel meer dan 24 uur halen op de zelfde accu.

Daarom is het IMO de ARM de toekomst in dit type devices.

[Reactie gewijzigd door worldcitizen op 17 september 2010 17:37]

En een ARM zal veel meer dan 24 uur halen op de zelfde accu.
Maar niet met dezelfde prestaties. Waar het uiteindelijk om gaat draaien is performance per watt.
De performance per watt van een ARM is minstens zo goed als van een Atom...
Dat was zo een jaar geleden - maar Intel heeft meer vooruitgang geboekt dan ARM op dit gebied. Op puur integer performance-per-watt is ARM nu nog wel beter, maar floating point blijft ARM nog heel ver achter. Dat maakt een ARM nu nog wel interessant voor toepassingen met integer berekeningen (of je zet er een coprocessor bij, maar dan gaat je zuinigheid weer achteruit), maar er zit niet zoveel verschil meer in. Grootste probleem van Intel is niet de performance, verbruik of performance-per-watt, maar of smartphone fabrikanten hun software wel willen porten naar x86 voor een hooguit marginaal betere processor. En omgekeerd geld hetzelfde voor ARM: na het commercieel floppen van eerdere Linux netbooks, welke fabrikant laptop fabrikant wil een ARM Linux laptop lanceren? En denken serverfabrikanten dat ze servers met weliswaar laag verbruik maar beroerde floating point performance te kunnen verkopen?

[Reactie gewijzigd door Dreamvoid op 17 september 2010 21:34]

Dat was zo een jaar geleden - maar Intel heeft meer vooruitgang geboekt dan ARM op dit gebied. Op puur integer performance-per-watt is ARM nu nog wel beter, maar floating point blijft ARM nog heel ver achter. Dat maakt een ARM nu nog wel interessant voor toepassingen met integer berekeningen (of je zet er een coprocessor bij, maar dan gaat je zuinigheid weer achteruit), maar er zit niet zoveel verschil meer in.
Gek he dat de ARM gene goede FPU prestaties heeft. Terwijl een ARM SOC zoals een OMAP3/4 die dit goed maakt d.m.v. een DSP. Een DSP is ook een goede FPU.

Dus kortom je opmerking over een coprocessor klopt niet de OMAP is oom nog zeer zuinig met een DSP.
En omgekeerd geld hetzelfde voor ARM: na het commercieel floppen van eerdere Linux netbooks, welke fabrikant laptop fabrikant wil een ARM Linux laptop lanceren?
Erg kort door de bocht. Het is ook Intel die nog steeds inzet op Meego is Linux alsmede op de Netbook.

Hier zijn wat voorbeelden van Linux ARM netbooks:
Toshiba AC100
HP AirLife 100
En deze Lenovo:
nieuws: Lenovo dumpt eigen smartbook-OS SkyLight voor Android
En denken serverfabrikanten dat ze servers met weliswaar laag verbruik maar beroerde floating point performance te kunnen verkopen?
Zoals gezegd, dit wordt goedgemaakt door de DSP, bij de ARM worden altijd zaken toegevoegd die nodig zijn voor de situatie. Deze wordt gebruikt als een soort kameleon processor.
Minstens zo goed ja, dus met een Accu waar je met een Atom 11 uur uit haalt, haal je met een gelijkpresterende ARM geen 24 uur mee...
Hoera voor de ASML machines die voor vrijwel alle kritieke lagen bij dit soort chips worden gebruikt!
Helaas, Intel gebruikt practisch alleen maar Nikon voor de huidige 32nm productie. Hoewel het schijnt dat ASML de wedstrijd voor 22nm gewonnen heeft.
Daarom worden de Nikons bij Inter retour afzender gestuurd en worden de NXTs van ASML naar binnen gereden. En volgend jaar een EUV tooltje voor Intel van ASML.
Komt er een moment dat een pc niet meer is dan een chip op een superklein plankje met een paar ubersnelle USB aansluitingen voor eventueel randapparatuur?

Ik hoop het :)

[Reactie gewijzigd door MrShibby op 17 september 2010 16:46]

Ik hoop dat er iets snellers dan USB is tegen die tijd ;)
Ja, die kant gaat het wel op.
Nu al zie je dat de GPU en de CPU geïntegreerd worden. Als je deze lijn doortrekt mag je verwachten dat binnenkort er nog veel meer geheugen in de CPU/GPU wordt opgenomen. (level 4 cache ?). SSD's worden straks zo snel dat de noodzaak voor DDR-geheugen gaat verdwijnen.
Dan krijg je dus een piepklein supersnel chipje met daarin gecombineerd CPU, GPU en geheugen. Dan nog een supersnelle micro-SSD erbi en je PC is compleet.

Maar daarnaast gaan deze superzuinige atoms en arms en soortgelijke extreem zuinige chips ook ingezet gaan worden in tig verschilende domotica apparaten.
Over 10 jaar eens kijken wat er van deze voorspelling uitgekomen is.
het gaat wel een beetje die kant op, maar waarom hoop je dat?
ik zelf denk dat je dan een stuk minder met je hardware kunt klooien.
Waarom zou je er dan nog mee willen klooien? Je koopt gewoon elke drie maanden een nieuwer model in de supermarkt.
[sarcasme]
Ja, waarom zou een tweaker willen klooien (tweaken) met hardware?
Eigenlijk kan ik me dat niet voorstellen van iemand die op tweakers.net ronddwaalt
[/sarcasme]

Ontopic

Ik ben ook bang dat er straks niets meer mogelijk is met hardware anders dan een andere monitor, toetsenbord en muis aan te sluiten.
Maar hopelijk duurt dat nog wel een tijd.

PC's uit de supermarkt, de horror.
Komt er een moment dat een pc niet meer is dan een chip op een superklein plankje met een paar ubersnelle USB aansluitingen voor eventueel randapparatuur?
Zijn die er nog niet dan?

Enfin, het wordt in de toekomst natuurlijk allemaal draadloos. Je hangt de toekomstige PC gewoon aan je sleutelbos of 't zit in je mobieltje (daar zijn we eigenlijk al beland natuurlijk). Inclusief 40" monitor - want dat gaat met een ingebouwde beamer. Zelfs de ouderwetselingen kunnen tegelijkertijd een toetsenbord meenemen in zo'n micro-PC. Ook dat wordt gebeamd - op je bureau. Voor diegenen die nog een muis willen meenemen: die is dan 30x zo groot als de PC.
;)
als ze de clockspeed en totale processing power nou ook maar eens verbeteren, stroomverbruik verlagen is goed, maar als de prestaties op het niveau van mainstream 7 jaar geleden blijft, schieten we dr niet mee op.
Uit het succes van de iPad (met nog niet eens de helft van de processing power van een simpele Atom netbook), smartphones en netbooks zal Intel toch een andere conclusie trekken: de markt voor trage en zuinige cpu's groeit harder dan snellere en onzuinigere.

[Reactie gewijzigd door Dreamvoid op 17 september 2010 20:44]

en ondertussen zit ik met een netbook volgens intels design, die amper youtube filmpjes en andere flash dingen en spellen kan afspelen met 100% cpu load. de cpu zal sneller moeten, of flash zal moeten uitsterven tov een beter geoptimaliseerd iets..

het enige waar deze netbook wel goed in is, is dus "gewoon" office werk, een beetje browsen en tekstbewerken, precies wat je ook kan met een 7 jaar oude pc, maar dan in een draagbaarder formaat, en 10% van het energieverbruik, en de helft van de prijs, dat zal vast zijn waarvoor intel het doet, maar als ze de cpu gewoon net ff de helft sneller per core kunnen maken dan scheelt dat echt veel. (maargoed, daarvoor is core2 ulv en i3 tegenwoordig..)
Och... Als flash uitsterft, juich ik dat alleen maar toe. Want het is erg lastig om alleen die flash-objecten te blocken die ads zijn.

Op dit item kan niet meer gereageerd worden.



Populair: Gamecontrollers Websites en communities Smartphones Beheer en beveiliging Sony Microsoft Games Politiek en recht Consoles Besturingssystemen

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013