Door Willem de Moor

Redacteur

De Wet van Moore is jarig

Al vijftig jaar leidraad naar kleinere chips

19-04-2015 • 06:00

106

Multipage-opmaak

Inleiding: geen natuurwet

Wie naar de Wet van Archimedes, de Wet van Ohm of de wetten van de thermodynamica vraagt, zal bij velen nul op het rekest krijgen. Noem je daarentegen de Wet van Murphy, dan kun je waarschijnlijk op meer begrip rekenen. Ook de Wet van Godwin zal, zeker bij forumbezoekers, zonder veel problemen opgedreund worden. De Wet van Moore bevindt zich tussen beide categorieën in, want als je daarnaar vraagt, is de kans groot dat je verschillende interpretaties hoort. Desalniettemin is het een uitspraak die de technologiesector als geen ander heeft gevormd en voortgedreven.

De gevleugelde uitspraak van Gordon Moore is in de loop der tijd hier en daar wat getweakt en viert op 19 april zijn vijftigste verjaardag. Moore deed zijn voorspelling, want zo begon de Wet van Moore, toen hij nog niet bij Intel werkte. Drie jaar na de uitspraak richtte hij met zijn compagnon Robert Noyce het bedrijf NM Electronics op, wat later Intel zou worden.

De wet is inmiddels bijna synoniem voor de snelheid waarmee processors evolueren, maar is eigenlijk veel meer dan dat. De Wet van Moore gaat niet alleen op voor processors, maar ook voor veel andere technologische ontwikkelingen. Bovendien is het niet zozeer een beschrijvende wet, maar eerder een drijvende kracht die innovatie en vooruitgang al decennia lang stimuleert en uitdaagt de grenzen te verleggen. Ter gelegenheid van de vijftigste verjaardag van de Wet van Moore bekijken we welke invloed deze wet had op een halve eeuw technologische vooruitgang.

Geschiedenis: de beginjaren van de halfgeleiderindustrie

Wie is toch die Gordon Moore die zomaar een wet die al vijftig jaar standhoudt naar zich vernoemd kreeg?

Portret Gordon E. MooreGordon E. Moore studeerde scheikunde en natuurkunde aan de Caltech-universiteit en werkte na zijn promotieonderzoek korte tijd bij het Shockley Semiconductor Laboratory. Hij vertrok daar echter al snel en richtte met acht man, waaronder Robert Noyce, het bedrijf Fairchild Semiconductor op. Dat bedrijf pionierde onder meer met het gebruik van silicium als basismateriaal voor transistors en tweedimensionale, platte geïntegreerde circuits op substraten.

Uit het r&d-lab van Fairchild Semiconductor, waarvan Gordon Moore het hoofd was, kwamen ook ontwikkelingen op het gebied van mosfet-technologie en op-amps, en het bedrijf was verantwoordelijk voor de chips van de Apollo Guidance Computer die in de Apollo-missies gebruikt werd.

In de eerste helft van de jaren zestig ging het Fairchild Semiconductor voor de wind, maar vanaf 1967 ging het zowel organisatorisch als financieel minder. In 1968 besloot de tweede man van het bedrijf, Robert Noyce, om samen met Gordon Moore een nieuw bedrijf te beginnen. Aanvankelijk noemden ze hun bedrijf NM Electronics, met de eerste letters van de achternamen van beide oprichters. Het bedrijf zou die naam maar kort voeren. Moore en Noyce noemden het bedrijf voortaan Intel, een samentrekking van Integrated Electronics.Gordon Moore bij het Robert Noyce-gebouw

De Wet van Moore

Het 19 april 1965-nummer van Electronics MagazineHet was nog tijdens zijn functie als hoofd r&d bij Fairchild Semiconductor dat Gordon Moore zijn inmiddels vermaarde wet opschreef. Hij deed dat in het aprilnummer van de vijfendertigste jaargang van het tijdschrift Electronics Magazine. Hij schreef in dat nummer, dat op 19 april 1965 uitkwam, een beschouwing over de toekomst van de halfgeleiderindustrie. De titel van het artikel luidde Cramming more components in electronic circuits. Daarin voorspelde hij hoe de industrie waarin hij werkzaam was er in 1975 zou uitzien.

In zijn beschouwing voorspelde Moore de komst van personal computers, mobiele telefoons en zelfrijdende auto's, allemaal mogelijk gemaakt door steeds complexere geïntegreerde circuits. Bedenk dat dit ten tijde van de beginjaren van chips was. De siliciumchip was in 1959 uitgevonden en de eerste processor voor computers, de Intel 4004, zou pas in 1971 verschijnen, met 2300 transistors aan boord. Moore voorspelde chips met 65.000 transistors voor 1975. Ter vergelijking, rond 1965 liep het aantal componenten in chips in de tientallen transistors en passieve componenten.

De eigenlijke Wet van Moore betreft niet zozeer de hoeveelheid componenten in een geïntegreerd circuit, maar het aantal componenten in zo'n chip, waarbij de kosten per component minimaal zijn. Naarmate de complexiteit, het aantal transistors dus, groeit, nemen de kosten per component af. Tegelijk leiden lagere aantallen correct functionerende chips, ook bekend als lagere yields, tot een kostenstijging.

De Wet van MooreHet optimale punt, waar de prijs per onderdeel het laagst is, afgezet tegen het aantal componenten, is waar de Wet van Moore vandaan komt. De eigenlijke wet zegt dat het aantal componenten dat tegen de laagste prijs geproduceerd kan worden elk jaar verdubbelt. Tot ten minste 1975 zou die trend aanhouden, zo voorspelde Moore. In 1975 corrigeerde Moore zijn voorspelling, met een tweejaarlijkse verdubbeling van chipcomplexiteit versus componentenprijs in plaats van een jaarlijkse verdubbeling.

Een makkelijkere verwoording van de Wet van Moore, zoals bovenstaande voorspelling vanaf 1975 bekend zou worden, is dat de transistordichtheid van chips elke twee jaar verdubbelt. Daarbij wordt de optimale verhouding tussen dichtheid en yields, en dus de productieprijs van een chip en de prijs per transistor, impliciet gehouden. Door ook de snelheid van processors in de vergelijking te betrekken, is de Wet van Moore inmiddels dan ook vooral bekend als de uitspraak dat processors elke anderhalf jaar in snelheid verdubbelen. De laatste interpretatie gaat niet echt meer op, maar tot op de dag van vandaag verdubbelt het aantal transistors in chips elke twee jaar.

Een voorbeeldje: stel, een chip kost 10 euro om te maken en er zitten 100 transistors op. De prijs per transistor is dan 10 cent, maar 20 procent van de chips functioneert niet goed. De kosten zijn dan 12,5 cent per transistor op een goed functionerende chip. Twee jaar later kunnen we 400 transistors op een chip kwijt. De chip maken kost inmiddels, omdat het procedé lastiger is, 20 euro. De toegenomen complexiteit heeft bovendien tot gevolg dat nog maar 64% van de chips goed functioneert. De kosten per 'goede' transistor zijn dan nog maar 4 cent. Twee jaar later kunnen er weer meer transistors op een duurdere chip, met iets lagere yields, maar de helft van de prijs per transistor. Deze versie van de Wet van Moore gaat tot op de dag van vandaag op.

Meer dan een observatie

De Wet van Moore mag dan in 1965 begonnen zijn als een observatie van de technologie-industrie, die destijds nog in de kinderschoenen stond, en als voorspelling voor de nabije toekomst, in zijn vijftigjarige bestaan is de wet veel meer dan dat gebleken.

Het is niet toevallig dat de wet al vijftig jaar, of na zijn revisie veertig jaar, overeind is gebleven. De technologie-industrie doet zijn uiterste best eraan vast te houden; hij is verworden tot een leidraad voor chipfabrikanten. Het is niet voor niets dat samenwerkende halfgeleiderbedrijven in de International Technology Roadmap for Semiconductors, kortweg ITRS, de Wet van Moore aanhouden voor de planning van de roadmap.

Alternatieve visualisatie van de Wet van MooreHoewel de afmetingen in die roadmap niet elke twee jaar halveren, zoals Moore's Law weleens foutief geïnterpreteerd wordt, verdubbelen de dichtheden van chips wel elke twee jaar. We zijn inmiddels bij de 14nm-node aangekomen, met dichtheden voor mlc-flashgeheugen van 128GB. Voor de 10nm-node is dat 256GB; voor 7nm 512GB. In hoeverre de nodes daarna nog haalbaar zijn, is lastig te schatten, maar de corresponderende dichtheden van de 5nm-node en de 3,5nm-node voor respectievelijk 2019 en 2021 verdubbelen nog steeds naar 1 en 2TB per chip.

De wet van Moore is ook de reden waarom onze elektronica niet alleen steeds goedkoper wordt, maar ook waarom in steeds meer apparaten processors zitten. Met het internet-of-things zou volgens sommigen bijna alles onderling verbonden zijn, maar we zijn al lang zo ver dat in apparaten waarin vroeger geen elektronica te bekennen was inmiddels een krachtige microprocessor zit. Denk aan auto's, waarin koplampen meedraaien met de weg, airbags zich opblazen bij ongelukken, de motor zuiniger is geworden dankzij precies gereguleerde brandstofmengsels en onboard-entertainmentsystemen passagiers bezighouden.

Toepassingen microchips

Of kijk naar je waterkoker, die je inmiddels via je smartphone kunt aanzetten. De tijd van cd's of dvd's branden ligt achter ons, mede doordat usb-drives zo goedkoop zijn geworden. Over prijsdalingen gesproken, voor enkele tientjes koop je nu 4GB werkgeheugen; in de jaren negentig betaalde je ettelijke honderden guldens voor een paar megabytes. We krijgen, dankzij de steeds verdere integratie van miljoenen en zelfs miljarden transistors op een chip en alsmaar dalende prijzen, steeds meer rekenkracht en opslag voor alsmaar dalende prijzen.

Dat is niet de enige invloed van de Wet van Moore. Elektronicabedrijven zijn inmiddels van enorme invloed op onze economie. Bedrijven als Apple, Google, IBM, HP, Dell, Microsoft, Foxconn en Samsung hebben omzetten van tientallen miljarden dollars, samen goed voor zo'n biljoen euro.

Ook in het dagelijks leven is de invloed van de Wet van Moore, of ten minste de exponent ervan, goed zichtbaar. Een mooi voorbeeld is de komst van draagbare elektronica, enerzijds met walkmans via diskmans naar mp3-spelers, anderzijds van 'draagbare' telefoons via gsm-telefoons naar smartphones. We hebben allemaal tablets, ultraportables, laptops, pc's en smart-tv's in huis, wat allemaal niet mogelijk zou zijn zonder steeds kleinere én goedkopere processors.

Self-fulfilling prophecy?

Als we van de eerste microprocessor, de Intel 4004 uit 1971, naar de nieuwste Broadwell-chips van 14nm uit 2015 gaan, zien we verschillende belangrijke innovaties die steeds kleiner wordende transistors mogelijk hebben gemaakt. Ten eerste zijn er in die 44 jaar geen 22 nodes geweest, maar slechts 19. Wel zijn we bijna duizendmaal zo kleine transistors gaan gebruiken. De 4004 was op een 10µm-procedé gemaakt, terwijl Broadwell op 14nm wordt gemaakt. Bovendien bevatte de 4004 slechts 2300 transistors op 12mm², terwijl een Broadwell-Y-processor zo'n 1,3 miljard transistors op een oppervlak van 82mm² herbergt. Kijken we naar de snelheid, dan zijn die getallen 740kHz tegen ruwweg 2GHz, waarmee de moderne processors zo'n drieduizend keer sneller zijn. Daarbij is het energiegebruik duizenden keren lager, terwijl de prijs zonder inflatiecorrectie ongeveer gelijk is gebleven. Dat betekent uiteraard dat de prijzen per transistor tienduizenden keren lager zijn geworden.

Moore's Law in actie

Is het nu zo dat de Wet van Moore zonder moeite kan opgaan gedurende vijftig jaar halfgeleiderproductie? Een kwestie van elke twee jaar de transistors half zo groot maken zou je zeggen, maar zo eenvoudig is het uiteraard niet. Om de trend door te zetten worden fabrikanten gedwongen om steeds weer innovatieve trucjes te bedenken om transistors kleiner, goedkoper en zuiniger te maken. Al menigmaal is voorspeld dat de Wet van Moore toch echt niet langer kon opgaan en steeds is er een manier gevonden om de transistordichtheid te blijven schalen.

Om steeds kleinere transistors mogelijk te maken heeft de industrie door de jaren heen diverse innovaties ontwikkeld, zoals de overstap naar cmos-transistors, het gebruik van koperen interconnects en de ontwikkeling van betere isolatiematerialen als vervanging van siliciumdioxide voor de gates van transistors. Ook bekende ontwikkelingen zijn het gebruik van strained silicium en de overstap naar finfets. Deze hebben steeds kleinere transistors mogelijk gemaakt en elke keer heeft zo'n innovatie de Wet van Moore nieuw leven ingeblazen, waar volgens kenners de grenzen bij 90, 45 of 22nm echt bereikt zouden zijn.

Instandhouding Moore's Law

Inmiddels zijn we aangeland bij de 14/16nm-generatie processors en moeten producten die op een 10nm-procedé gemaakt worden in 2016 of 2017 verschijnen. Hoe houdt Moore's Law stand beneden de 10nm-grens?

De toekomst

Het ontwikkelen van processors en de bijbehorende technologie vergt vanzelfsprekend jaren werk. Aan de 10nm-node is al gewerkt en hoewel producten nog minstens een jaar op zich laten wachten, zijn er al 10nm-testchips geproduceerd. Ook aan de 7nm-node wordt al gewerkt, maar veel informatie is nog niet vrijgegeven. Intel heeft al wel aangegeven dat silicium waarschijnlijk niet het materiaal is dat voor dat proces zal worden gebruikt. In plaats daarvan zou een materiaal als indiumgalliumarsenide, uit de groep zogenoemde III-V-halfgeleiders, gebruikt kunnen worden.

De nabije toekomst van chipproductie

Een andere methode om de Wet van Moore langer in stand te houden is het gebruik van euv-licht om de wafers te belichten. Nu wordt daarvoor nog licht met een golflengte van 193nm gebruikt, maar met euv zouden kleinere structuren tijdens het belichten gerealiseerd kunnen worden. Het overstappen op grotere wafers kan eveeens de kosten per chip drukken. Nu worden nog 300mm-wafers gebruikt, maar de industrie maakt zich, overigens al geruime tijd, op voor wafers met een diameter van 450mm.

Voor nog kleinere transistors wordt ook gekeken naar andere materialen en transistorstructuren, buiten de III-V-halfgeleiders en finfets. Voor 7nm zouden fets met een ronde gate-structuur rond nanodraden gebruikt kunnen worden. IBM heeft al transistors gemaakt van koolstofnanobuisjes. Voor nog kleinere structuren zou uitgeweken kunnen worden naar grafeen en atomaire transistors. Ook technologieën als spintronics en zelfs bio-organische computers zouden in de toekomst de Wet van Moore in stand kunnen houden. Voor hoe lang, dat blijft een vraag.

Reacties (106)

106
105
68
5
0
7
Wijzig sortering
Moore's originele quote, verstopt in een artikel waarin hij, op verzoek, de ontwikkeling in de komende 10 jaar van de halfgeleider industrie voorspelt luidt:
The complexity for minimum component costs has increased at a rate of roughly a factor of two per year. Certainly over the short term this rate can be expected to continue, if not to increase. Over the longer term, the rate of increase is a bit more uncertain, although there is no reason to believe it will not remain nearly constant for at least 10 years. That means by 1975, the number of components per integrated circuit for minimum cost will be 65,000.
Iets waarover hij later ook nog heeft gezegd:
Moore admitted later his prediction “was a wild extrapolation of very little data” and he was surprised how accurate it turned out. “There was no reason, really, to believe quantitatively that it was going to be that close.”
Nog een interessant infographic die hier binnen intel nu circuleert ter viering van het 50-jarig jubileum van Moore's Law:

http://download.intel.com...rs-infographic-entire.pdf
Ik weet niet heel veel van de achterliggende theorieën -- wellicht dat iemand hier een antwoord heeft op de vraag waarom bedrijven als Intel met name bezig zijn met het steeds kleiner en zuiniger maken van haar chips? Waarom is het zo moeilijk om boven die grens van 4Ghz per core uit te komen?

Ik begrijp dat er op de mobiele markt veel te verdienen valt en dat kleiner / zuiniger te toekomst is, maar ik krijg het gevoel dat je op de "high-end" markt gewoon de afgelopen jaren de top bereikt hebt. Een processor van een jaar of 5 geleden, pak bijv. een Ivy Bridge of een Sandy Bridge processor, is maar een klein beetje sneller geworden nu als je naar de top modellen kijk van toen. Ook de komende jaren staat er werkelijk niets interessants op de map als het om desktop processoren gaat. Broadwell lijkt pas begin 2016 met een opvolger te komen van de high-end Haswell-E series en ook hier lijken de verbeteringen weer minimaal te zijn.

Het lijkt er niet op dat we de komende 5 jaar een grote upgrade zoals we dat zagen met de Nehalem gaan krijgen en ergens vind ik dat toch wel heel jammer :P Is de grootste upgrade van dit decennium de (PCI-E) SSD of komt er nog iets dat de daadwerkelijke ervaring voor desktop gebruikers nog meer kan verbeteren? Er is veel geschreven online over Moore de afgelopen week, trouwens. Best interessant, zelfs als je er maar weinig over weet, zoals ikzelf :P

Hier is trouwens de roadmap van Intel voor de komende periode: http://cdn4.wccftech.com/...l-E-2015-2016-Roadmap.jpg (source)

[Reactie gewijzigd door Mmore op 22 juli 2024 13:22]

Het is niet moeilijk, kijk naar AMD. Als ik me niet vergis hebben zij CPUs die tot 6GHz gaan. Ook Intel CPUs laten zich overclocken tot ver boven de 4GHz. Het is alleen niet zo zuinig om te doen.

En hebben we voor de thuisgebruiker wel meer CPU kracht nodig? Het lijkt mij dat we daar voor de komende jaren voldoende hebben. Waar je 10 jaar terug elk jaar je PC ging upgraden om een nieuwe, snellere processor te hebben om het meeste eruit te halen kun je nu met een 5 jaar oude CPU nog altijd de nieuwste spellen spelen en dan nog word de CPU niet maximaal belast.

Daarnaast heb je natuurlijk nog het gebrek aan concurentie. Concurentie doet innoveren en duwt een fabrikant naar nieuwe hoogtes. AMD is uit de snelheidsrace gestapt en richt zich nu op APUs en de mobiele markt.
'niet moeilijk' is wel een understatement... Het is verschrikkelijk moeilijk en hoe sneller je data gaat klokken, hoe moeilijker het wordt om bits te scheiden en je timing te houden. Op een gegeven moment schakelt je transistor niet snel genoeg meer en komt er ook geen blokgolf meer uit maar eerder iets dat op een zaagtand lijkt en als die tand te klein wordt gaat ook geen enkele volgende schakeling dat nog kunnen corrigeren. Dat is de moment dat het gedaan is met de logica. Als je ziet dat 1 transistor maken die 600GHz aan kan een enorme opdracht is, hoe ga je dan meer dan 2 miljard transistroren op zo'n frequentie synchroon laten lopen?

Dat staat natuurlijk los van commerciële en ecologische motivieven. Een grotere koelblok kost een pak meer en in het huidige klimaat wordt een cpu met een exorbitant verbruik niet meer getolereerd...
Klopt, een zaagtand met een parabolische slope erop. Zeer irritante resultaten geeft het, ja het werkt, ow niet ja het werk, ja het werkt! ow niet behh
En hebben we voor de thuisgebruiker wel meer CPU kracht nodig? Het lijkt mij dat we daar voor de komende jaren voldoende hebben. Waar je 10 jaar terug elk jaar je PC ging upgraden om een nieuwe, snellere processor te hebben om het meeste eruit te halen kun je nu met een 5 jaar oude CPU nog altijd de nieuwste spellen spelen en dan nog word de CPU niet maximaal belast.
Dit is toch juist de drijvende kracht van de hele industrie? Al velen jaren geleden hadden we al "genoeg". Er is nog steeds voortgang in vrijwel alles, games worden mooier, simulaties gaan sneller, het opstarten van programma's gaat sneller, enz.

Juist door steeds snellere processoren te maken blijft de technologie vooruit gaan. Als we nu zouden stoppen met processorontwikkeling zal dit een erg grote invloed hebben op de technologie binnen een paar jaar...
Processor ontwikkeling gaat door, en cpu s worden krachtiger, maar niet door gewoon de clock frequentie te verhogen. Dat was de easy en cheap manier om hetzelfde te bewerkstelligen, snelle proc nodig? Freq verhogen en klaar is Kees.

De goedkope snelheidswinsten hebben er trouwens ook voor gezorgd dat we met slechtgeschreven en inefficiente software zitten. Een software ingenieur schreef voor systemen die binnen vijf jaar uitkwamen en kon zich al wat meer permitteren.

Met de komst van smartphones en tablets waar zuinigheid even belangrijk is als pure snelheid, zag je ineens een mastodont als Microsoft voor de eerste keer software uitbrengen die een pak efficiënter met resources omging dan zijn voorganger (windows 8, Windows 7 Was misschien beter dan vista maar het verschil is kleiner dan met 8).
Ja inderdaad, je slaat de spijker op zijn kop. Als je software ontwikkeling van nu vergelijkt met bijvoorbeeld de jaren 80 en daarvoor, dan is het belangrijkste verschil de manier van programmeren en het resultaat ervan. Nu is er ook sprake van een bepaalde luiheid, weinig aandacht voor efficiëntie. Er wordt nu vaak gedacht dat de compiler het wel oplost en dat de systemen zo krachtig zijn dat een arraytje meer of minder een loopje meer of minder of een lees/schrijf actie meer of minder niet zoveel uitmaakt.

Daarnaast verschuift programmeren meer richting modeling met al die routing frameworks dat lang niet altijd de software efficiënter maakt. Waar het vroeger zo kort mogelijk moest vanwege de gelimiteerde hardware is het nu verschoven naar human logic, het werken volgens een bepaald model maar dat hoeft dus niet te betekenen dat het voor de hardware het meest efficiënt is (handig en logisch hoeft dus voor het systeem niet te betekenen dat het efficiënt is).

Nieuwe programma's bestaat dan over het algemeen uit meer code. Je zou kunnen stellen dat de hardware vooruit gaat maar de optimale kwaliteit van de software voor de hardware achteruit gaat.

Dan heb je natuurlijk nog het aantal bits. Een 64bit programma is groter dan een 32bits,16bits of 8bits. Er staan dus meer gegevens op schijf en dat moet worden gelezen. Data dat het programma opslaat is ook weer x keer zo groot.

Vind het wel leuk dat je in je laatste alinea het voorbeeld van Microsoft aanhaalt, is een typisch voorbeeld van slordigheid/luiheid. Heb altijd het idee gehad dat MS denkt in vooruitgang van de hardware (upgrade carrousel) zodat je bij nieuwe software ook weer nieuwe hardware nodig hebt. Dat is eigenlijk raar want je zou verwachten dat nieuwe software sowieso sneller zou draaien op bestaande hardware. Ook wanneer je nieuwe hardware koopt zou je verwachten dat de nieuwe software soepel draait wat bij MS ook geen garantie is/was. Hoe komt dat? Niet efficiënt geschreven software, MS lijkt te denken: "Daar komt wel weer een oplossing voor".

Goed voorbeeld is dat ik een keer software heb geschreven om een harddisk na te bootsen (virtual harddisk). Dan pas zie je hoe inefficiënt Windows (Windows 7) eigenlijk is, gigantisch veel disk i/o. Hoe is dit op te lossen? Neem een SSD en je merkt van de inefficiëntie vrij weinig, upgraden dus. Het voorbeeld dat jij ook aandraagt met de smartphone en de tablets is een goed voorbeeld dat het zonder luiheid ook kan. Dus wanneer het vereist is om efficiënt te denken dan pas gaan we/ze efficiënt denken.

Ik heb een overstap in het verleden gemaakt van systeemprogrammeur naar webprogrammeur. Ik zie een groot verschil met collega's die andere achtergrond hebben. Ik denk naar de werking van een CPU/interpreter, wat er in de achtergrond gebeurd en zij denken in een oplossing (ik denk ook in een oplossing maar dan zo efficiënt mogelijk). Zij zien een pagina als een document met extra mogelijkheden en ik zie het als een programma. Vind het ook wel fijn van Google (chrome bijvoorbeeld), Google ziet een webpagina als een programma. Naar mijn idee is dat ook zo. We programmeren dus op een andere manier, we kijken er anders naar.

Probleem is dus dat een hoop programmeurs door de modeling human logic niet meer weten wat er in/op de achtergrond gebeurd. Daar krijg je dus inefficiënte software van en dat merk je. Ben van mening dat wanneer dit niet gaat veranderen de winsten in de toekomst marginaal blijven. Snellere en betere hardware heeft alleen zin wanneer we scherp en efficiënt blijven programmeren.
Helemaal met je eens. Toch komt dit probleem op veel meer gebieden voor. Nieuwe elektrische apparaten gaan steeds efficiënter om met de stroom die ze verbruiken. Maar als er straks thorium-reactoren beschikbaar komen en stroom mogelijk nagenoeg onbeperkt beschikbaar wordt, wat is dan nog het nut van optimaliseren? En als snelwegen worden vergroot en verbreed waardoor de file afneemt, waarom zou je nog het OV nemen?

En zo heeft technologische vooruitgang soms negatieve gevolgen. Hoe meer processorcapaciteit er beschikbaar komt, des te inefficiënter de software wordt. Toch wordt efficiëntie tot op zekere hoogte nog wel beloond, als je bijvoorbeeld kijkt naar Windows Phone, dat soepel draait op goedkope hardware en zo langzamerhand de onderzijde van de smartphonemarkt veroverd.

Ik denk dat dit probleem vooral veroorzaakt wordt door de markt waarin we leven. Waarin door aandeelhouders steeds weer om innovatie en groei gevraagd wordt. Optimalisatie wordt in dat licht nauwelijks beloond. En daar profiteren wij als consument lang niet altijd van.
Niet helemaal, want de kosten voor development werk zijn wel enorm gedaald. Ja, er wordt "slordiger" geprogrammeerd, maar daar zijn de budgetten en de tijdslijnen ook naar.

Ook het feit dat alles cross-cpu moet zijn helpt natuurlijk niet mee. Vroeger moest je voor elke CPU de boel op zijn minst los compileren wat meer efficientere code opleverde. Als je dat nu zou moeten doen zou je gek worden met alle ARM/Integer/AMD processoren.

Developers krijgen gewoon niet de tijd om optimalisatie aan te brengen. Alles moet zo snel mogelijk productie in gedouwd worden tegen zo laag mogelijke kosten.

En wees eerlijk, niemand zit meer te wachten op een amber kleurige command line interface ;)

[Reactie gewijzigd door Standeman op 22 juli 2024 13:22]

Dit wil ik inderdaad beamen,

mijn werkstation draait nog op een 1e generatie core i7 ( de 920) om precies te zijn.
die heb ik ergens in q2 of q3 2009 aangeschaft,

er is geen haar op mijn hoofd die eer aan dengt op de cpu te upgraden.
Alles draait snel genoeg, en ja natuurlijk zijn er door de tijd heen wel wat upgrades aan de graka geweest, maar kwa cpu, dat gaat nog altijd perfect.

moet er wel bij zeggen dat ik er toen wel een klein vermogen voor betaald heb. maar blijkbaar betaald zich dat uit :)
10 jaar terug hadden we geen games die in eerste instantie voor consoles gemaakt werden om vervolgens naar PC geport te worden. Games waren er toen echt op gericht het maximale uit de PC te halen.

Sinds games alleen voor consoles gemaakt worden en die consoles vervolgens ruim 6 jaar dienst moeten doen voordat de volgende upgrade (generatie) beschikbaar is, kun je dezelfde games op PC dus ook met hardware draaien die 6 jaar meegaat.

Soms worden er wel wat betere textures bijgestopt, dan moet je de grafische kaart upgraden. Maar in de basis kun je alles gewoon 6 jaar lang op dezelfde PC draaien (qua games).
6 GHz bron? Volgens mij laten ze FX 9370 naar 4.7GHz turbo clocken, met oververhitting tot gevolg.
Ik weet niet heel veel van de achterliggende theorieën -- wellicht dat iemand hier een antwoord heeft op de vraag waarom bedrijven als Intel met name bezig zijn met het steeds kleiner en zuiniger maken van haar chips? Waarom is het zo moeilijk om boven die grens van 4Ghz per core uit te komen?
Het doel is niet meer om meer GHz CPUs te maken, dus gebeurt het ook niet. De focus ligt op systemen met meerdere CPUs/cores. Dat geldt over de hele range: Van de 4-core in je telefoon tot super computers met vele 10000-en processoren. Op deze manier kan je ook veel eenvoudiger schalen: Meer rekenkracht nodig? Dan stop je meer CPUs in je systeem.

Door het integreren van meerdere cores op 1 chip ontstond initieel wel een uitdaging aan de software kant. Hoe schrijf je programma's die efficiënt gebruik maken van meerdere CPUs? Vroeger was dat geen issue: Je kon een programma schrijven dat van a tot z lineair een taak uitvoerde, en het jaar daarop was hij sneller omdat een enkele CPU sneller werd. Nu moest je opeens nadenken over zinvolle manieren om de rekentaak te verdelen over meerdere CPUs, tenminste als de taak genoeg rekencapaciteit vergt om dat de moeite waard te laten zijn.

Inmiddels hebben alle grote leveranciers van rekenintensieve software de programmatuur (al lang) herschreven voor meerdere parallel gebruik van meerdere CPUs (of zelfs rekenwerk op GPUs). Hiermee vervalt de vraag naar snellere processoren eigenlijk volledig, maar meer, kleiner en zuiniger blijft...

[Reactie gewijzigd door KopjeThee op 22 juli 2024 13:22]

Behalve meer cores of meer GHz worden processoren ook sneller op andere manieren: betere voorspelling van branches, patroon herkenning in geheugen access, optimalisaties van bepaalde operaties, parallel uitvoeren van instructies (binnen een thread!), etc. Daar worden ook heel veel transistoren voor ingezet.
Ja, ongetwijfeld. Ik ben niet zo'n expert. Komt op mij als leek niet heel verstandig over. Ik zou (naast waarschijnlijk direct failliet gaan in deze wereld :) ) inzetten op zo eenvoudig mogelijk cores en er daar zoveel mogelijk van op een chip planten.
Dat is juist het grootste probleem, het overgrote deel van de applicaties en programmas gebruiken niet meer dan een paar cores volop.
Dat komt ook gedeeltelijk omdat het schrijven van software die eenvoudig schaalt naar meerdere core's nog niet zo eenvoudig is. Het gaat ons als mens heel wat eenvoudiger af om in sequentiele processen te denken dan in parallelle.
Dat is waarschijnlijk waarom jij niet bij Intel werkt :) (en ik ook niet.)

Het paraleliseren van programma's schaalt maar tot op beperkte hoogte. Heel veel cores brengen je voor het werken met een programma dus maar heel beperkt meerwaarde. Een groot deel van de tijd wordt verspild aan het wachten tot een andere thread klaar is. Soms is dat een kwestie van slimmer omgaan met het probleem, maar soms schaalt het probleem ook gewoon niet.

Een groot probleem waar moderne CPU's mee moeten zien om te gaan, is het enorme snelheidsverschil tussen geheugentoegang en de snelheid waarmee de CPU kan werken. Kort door de bocht: geheugen is tegenwoordig bizar traag ten opzichte van je CPU. Vroeger (nog niet eens zo heel lang geleden) koste het ophalen van gegevens of instructies uit het geheugen maar heel weinig ten opzichte van het uitvoeren van die instructies. Tegenwoordig kan het wel 200 cycles van je CPU duren voordat een gevraagd deel geheugen beschikbaar is voor je CPU. Je wil dus echt dat je CPU daar zo slim mogelijk mee om gaat: alvast data opvragen uit het geheugen als hij nu al ziet dat hij dat straks nodig heeft, patronenen van geheugentoegang herkennen en daarop anticiperen, alvast twee mogelijke uitkomsten uitrekenen en aan de hand van wat er straks uit het geheugen terugkomt maar zien welke de juiste is, etc. etc. Daar is heel veel complexiteit op gericht. Caches in meerdere lagen proberen dit probleem natuurlijk ook te verhelpen of te maskeren, maar dat lukt maar ten dele.

Kortom: heel heleboel supersimpele cores gaan lang niet voor alle problemen goed presteren.
Zie NetBurst artikel op Wikipedia : sinds 2006 is Intel gestopt met die architectuur, waarmee ze 10 Ghz wilden bereiken maar wat hopeloos was wegens te hoge lekstromen en bijhorende hitte.
Core architectuur kwam toen net op tijd, want ze verloren veel aan AMD. Core, zelfs single core in het begin, was zo veel efficiënter dat de eerste reviews op ongeloof werden onthaald, weet ik nog.
Heel veel Ghz betekend ook heel veel meer warmte en energie verbruik..

Kijk naar de P4 die zo onzuinig als de neten was.. Dat terwijl een i5 CPU die veel lager geklokt is een veelvoud in kracht heeft dan de P4 op 3,2 Ghz..

De techniek staat niet stil een een CPU van 5 jaar geleden is allang niet meer hetzelfde als nu..
Jij denkt dat de CPU niet verder vooruit wordt getrokken. maar de techniek staat ook niet stil. Er zijn meer functies bij gekomen. Zo hebben de meeste CPU's nu ook GPU aan boord dat terwijl dit 5 jaar geleden nog niet eens kon.

De instructie sets zijn uitgebreider. Echter zal een software ontwikkelaar daar ook gebruik van moeten maken wil dit ook gebruikt kunnen worden. Kijk naar 1998 met MMX mooie toevoeging maar pas in 2000 waren er genoeg spelen die gebruik maakte van MMX technologie...

In die tijd was ook de Ghz oorlog aan de gang.. Intel en AMD die tegen elkaar opboden over de snelste CPU.. Tweakers staat vol met GHZ artikelen.
@Mmore, ja gek dat niemand het expliciet hier noemt - maar als je iets omhoogklokt dan gaat het stroomverbruikt "tot de macht 3" mee omhoog.

Dus om het onnozel in formule uit te drukken:

VerbruikProcessor = Ghz * Ghz * Ghz * C2

Waarbij Ghz al een bewerkte waarde is maar groter dan 1.

Dus per definitie is het zo dat een 4Ghz processor veel meer stroom verbruikt dan een 1ghz processor met 4 cores.

Dan zien verder sommige wetenschappers nog een probleem in de snelheid waarmee electronen door een materiaal heengaan. Zeg grofweg op 1/3 van de lichtsnelheid.

In de HPC wereld, zeg maar de high performance supercomputing, waar wel vraag is naar meer rekenkracht, daar loopt de wet van Moore gewoon nog door.

Zij het dat dat ook meer richting de manycores gaat, die simpeler vallen te produceren dan CPU's zoals wij die klassiek kennen.
Dat is onzin. De benodigde energie die nodig is om de parasiete capaciteit van een transistor te laten schakelen, is recht evenredig met de schakelfrequentie:

Energie = 0.5 * schakelfrequentie* spanning ²

Edit: natuurlijk is een CPU veel complexer, maar bovenstaand feit blijft staan.

[Reactie gewijzigd door mohf op 22 juli 2024 13:22]

De moeilijkheid is niet de transistor te laten schakelen maar om de benodigde energie op die plek te krijgen. Geleiders hebben een weerstand en worden dus ook warmer als je er meer energie door jast. En als ze warmer worden neemt ook de weerstand toe waardoor je nog meer energie moet gebruiken om uiteindelijk genoeg te hebben bij de transistor om het op de gewenste snelheid te laten schakelen.
Weerstand naar waar? Er is geen belastingsweerstand, alle verliezennworden veroorzaakt door transistoren.
De parasiete weerstand naar de transistor beinvloedt niet de energieverbruik, maar de RC tijd, de piekstroom om de capaciteit op te laden, en dus de tijd die je nodig hebt om te schakelen. Dat is wat wij leken de GHz race noemen.
Dan zien verder sommige wetenschappers nog een probleem in de snelheid waarmee electronen door een materiaal heengaan. Zeg grofweg op 1/3 van de lichtsnelheid.
Het zijn niet de electronen die op die snelheid gaan maar signalen. De electronen zelf bewegen amper.
Er waren plannen om de opvoler van pentium 4 naar 5+ GHz te laten clocken, maar er waren nogal wat problemen. Op 2.8 GHz gebruikte die chips al 150+ watt. Hierdoor heeft intel besloten om over te stappen naar een andere achitectuur wat uiteindelijk de eerste intel core duo en quad was. Voor ietswat extra info: http://www.extremetech.co...u-to-make-upgrades-a-snap
Het heeft met 2 dingen te maken, afstand en temperatuur. Bij hogere snelheden wordt er met energie verbruikt en omgezet in warmte. Die moet je kwijt kunnen.

En groter probleem is dat er intern timing problemen ontstaan. Op dergelijke snelheden ga je echt merken dat een puls eerder of later aan komt omdat het lijntje iets korter of langer is dan een andere lijn van die bus.

Beide kunnen alleen worden opgelost door kleinere structuren te maken. Daar zit nou net de uitdaging :).
Je vergeet blijkbaar dat we jaren lang een soortgelijke "stilstand" aan de kant van Intel hebben gezien. Na de introductie van de Northwood Pentium 4 2,54 Ghz ging het allemaal niet meer zo snel. Die processor heb ik zelf ruim 5-6 jaar kunnen gebruiken als "high end". Toen pas kwam er weer een grote doorbraak in de vorm van Conroe (Core 2 Duo). Sandy bridge was weer een klapper die velen niet zagen aankomen (waaronder tweakers.net zelf).
Over je cpu-verhaal, pure onzin. Cpu's zijn al zo snel, die hoeven niet sneller en Sandy Bridge gaat niets toevoegen aan het gamen. Ook betwijfel ik het nut niet van DX11, maar de adoptie zal toch nog even duren, vanwege meerdere factoren.
Het is historisch gezien helemaal niet zo vreemd dat we nu 4 jaar lang niet echt opschieten.

Diezelfde Sandy bridge haalt overigens 4.4 Ghz op luchtkoeling zonder al te veel moeite. Dus zo moeilijk is het anno 2015 niet. In 2001 was dat echter wel lastig en is de richting verschoven naar prestaties per mhz. Echter, het lijkt er sterk op dat de laatste jaren de focus is verschoven naar prestaties per Watt. De vraag is even of er over 2 jaar niet weer 'onverwachts' een nieuwe "sandy bridge/Conroe/North wood" aan komt of dat die trend door zet.

Verder lijkt me die "moeilijkheid" gewoon natuurkundig. De formule voor verbruik bestaat onder andere uit 2x V x frequentie dus op een gegeven moment verbruik je gewoon meer energie en wordt het te warm. Dan kun je beter multithreaden op een lagere frequentie en voltage.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:22]

Een goeie reden zou zijn, dat mensen voor een i3 gaan, want die is snel genoeg, op dit moment is de i3 niet helemaal 100% vloeiend, terwijl de i5 dat wel is.
Quantumtechnologie. Daar gaan de snelheden weer flink mee omhoog ;-)
Snelheid van je processor is abstract bekeken in principe: kloksnelheid * IPC factor (per core) * aantal cores.

Kloksnelheid en aantal cores spreken voor zich. IPC is instructions per clock tick, en is een redelijk vaag begrip wat zo veel zegt als "wat kan de processor gemiddeld per 1 Hz doen". Hoe beter je architectuur en hoe uitgebreider de instructies in je CPU, hoe hoger de IPC.

Kloksnelheid is inderdaad redelijk constant te noemen, alhoewel daar ook stappen gemaakt worden (intel heeft nu een boost frequentie van max 4.4GHz), maar de IPC en aantal cores zijn echt wel flink omhoog gegaan. Dus Intel mikt niet enkel op verbruik, vergelijk maar eens een P4 3GHz met een moderne Core i5 op 3GHZ, met maar 1 core enabled. Dat is echt een wereld van verschil en dat komt door de hogere IPC vanwege de verbeterde architectuur etc.

Qua cores zijn we in pak 'em beet 10 jaar tijd van 1 core naar 4 cores als mainstream gegaan, en er zijn zelfs al een tijdje 8 cores processoren voor consumenten.
Wat ik mij afvraag, De wet van Moore schrijft dus voor dat met de tijd de dichtheid van de processor verdubbelt wordt maar het percentage van de daadwerkelijk werkende units achteruit gaat. we komen dus op een punt uit dat ik dus een maar half werkende processor koop ook al is die sneller dan een oudere processor. wat nu als met dit niet werkend deel van dor processor werkend probeert te krijgen. natuurlijk kan het niet gerepareerd worden met mogelijk wel het productieprocess aanpassen zodat er minder defect gaan?
De wet van Moore schrijft dus voor dat met de tijd de dichtheid van de processor verdubbelt wordt maar het percentage van de daadwerkelijk werkende units achteruit gaat.
Nee, dat zegt moore niet. Hij heeft het alleen over de hoeveelheid transistors op een chip, niet dat die transistors ook kleiner moeten. En het is juist het verkleinen dat ervoor zorgt dat het productieproces onbetrouwbaarder wordt.
Het komt er op neer dat het de wil om moore's wet te volgen is die ervoor zorgt dat chips onbetrouwbaarder geproduceert worden.
Het gaat hierbij om de die, dus het aantal goed werkende chips op een wafer. Procentueel gezien werken er steeds minder met het verkleinen van de transistors maar in aantallen wordt dat meer of blijft het minimaal gelijk.
20% van 10 stuks is 8 werkende, 40% van 100 is 60 stuks werkend op een gelijke grootte van wafer. Het is dus niet zo dat bv 50% van een chip niet werkt.
Het wordt nu toch steeds lastiger. We zijn binnenkort aangekomen bij transistors met zo'n kleine afmetingen dat ze elementen bevatten die slechts 1 atoomlaag dik zijn. Dunner gaat niet en dus ook niet meer kleiner.

Bedrijven worden wel steeds innovatiever in de manier waarop computers werken om toch snelheidswinst te kunnen halen. Dit is erg veelbelovend: The Machine. Het is een projekt van HP research labs waarbij we de traditionele 'volatility chain' achter ons laten.

Weliswaar worden de processors niet kleiner gemaakt, maar wordt de manier waarop de processor met de wereld om zich heen communiceert fundamenteel anders aangepakt.

Dat zal op redelijk korte termijn in ieder geval in de servermarkt heel veel gaan betekenen (binnen een jaar of 5).

Kan niet wachten op mijn photonic laptop ;) zal nog wel even langer duren.....
Ik heb sterk het idee dat steeds minder chipproducenten de Wet van Moore weten vol te houden. Intel duidelijk wel en zit op 14nm, maar AMD zit nog immer op 28nm, wat de achterliggende reden is dat AMD niet bij kan benen. De investeringen die nodig zijn om de Wet van Moore vol te houden zijn zo hoog, dat alleen de rijkste chipproducenten dat vol kunnen houden. Zelfs TSMC begint nu af te buigen doordat ze i.p.v. naar 14nm naar 16nm zijn gegaan (en de eerste GPU op 16nm pas volgend jaar geproduceerd gaat worden).

[Reactie gewijzigd door dmantione op 22 juli 2024 13:22]

De HPC wereld gaat steeds meer richting manycore technologie nu.

Je moet dus de vraag omkeren - heeft de gemiddelde gebruiker wel behoefte aan enorm veel meer rekenkracht?

Enkel de grafische kaarten, ondertussen in veel processoren ingebouwd, wil men vaak nog beetje meer van hebben - de CPU crunching power an sich daar heeft men niet zo'n enorme behoefte aan.

De jeugd van tegenwoordig krijgt zelfs een PC'tje niet meer gebouwd - ze weten niet eens meer wat het is.
Als er alleen gemaakt wordt at de gebruiker vraagt, in plaats van wat mogelijk is, dan komen we nooit vooruit.
Zoals wel vaker wordt gezegd, als je mensen uit 1800 vraagt wat ze willen qua vervoer zullen ze het hebben over paarden die minder eten en drinken, of sneller gaan. Het idee van een auto zal niet (of bijna niet) genoemd worden.
Rond 2000 zouden mensen over een nieuwe CPU alleen maar zeggen dat ze een hogere kloksnelheid willen, terwijl men nu bezig is met hexacores en octacores.
En bij beeldschermen moest het groter en platter, de vraag naar hogere resoluties kwam pas later toen fabrikanten zelf met hd ready en full hd kwamen.

Vanuit de mensen zelf is er eigenlijk nooit behoefte aan iets. Een fabrikant produceert iets en probeert dat dan te verkopen waarna de vraag komt naar verbeteringen van dat product.

Zodra je begint te zeggen van iets dat het niet nodig is ben je de vooruitgang aan het tegenhouden. Voor alles is een functie, alleen duurt kan het even duren voordat die functie gevonden is. Elektriciteit werd aan het begin alleen gebruikt om aan te tonen dat het bestond door een ijzerdraadje op te warmen. Dit groeide 10 jaar later uit om water te koken en 70 jaar later uit tot de gloeilamp. 100 jaar na de electriciteit kwam pas het idee om het te gebruiken voor verzenden van stroompjes voor morse wat weer 100 jaar later resulteerde in het internet.

Misschien vinden we over enkele jaren wel iets compleet nieuws uit waarvoor we de behoefte hebben aan zeer veel CPU power.
* verwarmen met cpu's, doordat we zoveel weten over efficiente en warmte vermindering bij rekenkracht, dat we het om kunnen draaien en een cpu gaan inzetten als warmte-element of iets dergelijks.
* het moment dat we een computer aan een mens kunnen koppelen willen we allemaal zoveel mogelijk rekenkracht hebben voor ons eigen brein.

kortom, gewoon doorgaan met het ontwikkelen ook al is er nu geen vraag naar meer, dat komt in de toekomst wel weer.
Daar zit wat in, maar uiteindelijk staat of valt alles bij de bereidheid van de consument ergens geld voor neer te tellen. Op het moment dat de consument zegt "mijn PC is snel zat", dan stopt hij met kopen en is er geen geld meer om de Wet van Moore in stand te houden.

In wezen is dit al gebeurd: Consumenten doen tegenwoordig langer met een PC. Dankzij inventiviteit van de industrie werden er nieuwe produkten geschapen, zoals netbooks, tablets en smartphones, wat het voorlopig compenseert. Ook dit kan niet eeuwig doorgaan, wat een extra reden is om aan te nemen dat de Wet van Moore kraakt in haar voegen.
Het wordt nu toch steeds lastiger. We zijn binnenkort aangekomen bij transistors met zo'n kleine afmetingen dat ze elementen bevatten die slechts 1 atoomlaag dik zijn. Dunner gaat niet en dus ook niet meer kleiner.

0.1nm (Groote van een waterstof atoom). Het duurt in ieder geval nog wel even voordat we daar zijn.
Maar zelf dan geef je de wetenschap te weinig krediet.

Het ei van Columbus ?

De architectuur van de "processor" verder onder de loep nemen
Of buiten de doos om, Kwantummechanica / kwantumverstrengeling ?
Of richting externe berekeningen, dat is de gemakkelijkste volgens mij.

Dat de NAS in huis niet alleen meer voor de opslag is, maar ook voor de processorkracht.
dat elk apparaat de berekeningen (of een deel ervan) laat uitvoeren door een centrale processor zoals nu gebeurt bij bedrijven waar thin clients staan en een grote centrale server.
Dan kan deze processor groter zijn, en dus meer transistoren bevatten om sneller/beter te worden.
En voor mensen met een klein huis waar je niet zomaar een kuub aan processorkracht in kwijt kan zal er een soort cloud komen, een beetje zoals OneLive heeft gehad voor gaming en nu ook al voor cloud opslag.

Op deze manier kan er gegaan worden richting energie efficiëntie en kostprijs van productie als er niet meer kleiner kan vanwege natuurkundige problemen.

Zal wel leuk zijn als het niet kleiner dan 0,1nm kan worden, de cpu zal dan (volgens mij) de eerste uitvinding zijn van de mensheid die zal zijn uitontwikkeld vanwege de natuurwetten.
Dat gebeurt nu ook al bij eigenlijk alles wat je op het internet doet; het probleem daarmee is dat het eigenlijk alleen geschikt is voor langzame batch berekeningen, waar de gebruiker wel even op kan wachten. De processor in je PC is toch vooral voor directe, realtime berekeningen. Een game moet bijvoorbeeld minimaal elke 16 ms een volledig frame berekend hebben; als dat over een netwerk moet gaan heb je enorm veel vertraging en onvoorspelbaarheid.

[Reactie gewijzigd door YopY op 22 juli 2024 13:22]

Ik denk dat je gelijk hebt wat betreft de grootte van atomen. Maar het zou me ook niet verbazen als men op den duur in de kwantumfysica ook daar toch een antwoord op vindt.

Het atoommodel van Bohr blijkt ook al lang niet meer correct te zijn. Wie weet wat voor ontdekkingen ze nog doen en krijgen we over jaren multidimensional stringcore computing. Ik verzin maar een term en het is nu onzin, maar wie weet zit het over 30 jaar in elke comchip die wij in ons hoofd laten implanteren, want wie wil er dan nog gezien worden met een smartphone!

:D
Het atoommodel van Bohr blijkt ook al lang niet meer correct te zijn.
Eeh, dat model (uit 1913) was al incorrect bevonden nog voordat de eerste digitale computer bestond. De gehele ontwikkeling van computers was dus in een tijd dat Bohrs model eigenlijk al niet meer voldeed.
Dat zeg ik, het is al lang niet meer correct :D

Maar het wordt zover ik weet nog steeds geleerd op school om zo een concreet idee te kunnen vormen van wat atomen zijn. Ik heb het tenminste op school nog geleerd, maar goed dat was ver in het vorige millennium.

Ik lees op Wikipedia dat een theorie uit 1910 accurater is zelfs, maar goed ik ben geen chemicus.

Misschien moet ik vast mijn MDSC processor idee patenteren zodat ik later iemand kan aanklagen voor het uitvinden ervan. Apple of zo voor als ze de iPhone 37 uitbrengen :D
Het blijft verbazend dat iemand in de jaren zestig een voorspelling doet die 50 jaar later nog steeds als leidraad voor de hele industrie wordt gebruikt.

Of er nog veel kleinere transistoren zullen komen blijft een vraag. De atomen hebben een vaste afmeting en nog kleiner is in mijn ogen niet mogelijk. Andere technieken om de snelheid te verhogen zou wel kunnen.

Ben wel benieuwd wanneer de eerste quantumprocessor voor de consument op de markt zal komen.
Niemand heeft het over kleiner: het gaat over meer. Kleiner maakt meer makkelijker, maar meer kan ook anders. Door te stapelen bijvoorbeeld.
Die leidraad is wat dan genoemd wordt de "afgeleide wet van Moore". Als je dat schrijfsel van Moore bekijkt en je ziet dan de interpretatie daarvan - waarbij het belangrijk is te vermelden dat hij indirect Intel heeft gestart en dat intel graag zijn oprichter eert - dan krijgt Moore ook wel enorm veel krediet hoor - die in andere vakgebieden wetenschappers niet krijgen - want de afleiding ervan geven ze dan weer een nieuwe naam en dat claimt een andere bobo dan.
De technologie-industrie doet zijn uiterste best eraan vast te houden; hij is verworden tot een leidraad voor chipfabrikanten.
Inderdaad, dat is precies wat het is: een (tijdelijke) leidraad, niets meer dan dat. Het is geen echte wet. Als het een wet was geweest, hoefde de technologie-industrie niet zijn uiterste best te doen eraan vast te houden, want dan zouden ze er helemaal niet onderuit kunnen. Net alsof je zou zeggen dat je je uiterste best doet om aan de zwaartekracht te houden. Bovendien kun je echte wetten niet om de zoveel tijd eventjes aanpassen om het verhaal kloppend te houden. Ik vind het een beetje veel hype om niets. Over honderd jaar blijft er misschien niets meer over van die hele wet van Moore.
Honderd jaar geleden hadden we net vliegtuigen. Da's ook wel heel lang. De kans dat die wet nu nog zo'n periode overleeft en dat de dan nog steeds transistors gebruiken voor onze computers lijkt me heel klein.

Volgens mij wordt die wet ook voor een groot deel door commercie nagestreeft. Het 'ideale' ervan is dat het een monolitisch model van een computer inclusief software nastreeft wat een soort wegwerpcultuur met zich meebrengt. Op paralellisatie of schaalbaarheid in de breedte zit niemand te wachten. Dat zou de vraag naar performance aantasten en hardware veel sneller waardeloos maken.
Ik vraag het me af. Er komen wellicht alternatieven voor de transistor (en haar varianten), maar dat wil niet zeggen dat die mainstream gaan worden. Net zoals raketten en helicopters een alternatief zijn voor (fixend wing) vliegtuigen, worden die in de praktijk maar voor beperkte doelen ingezet. De bulk van het gebruik is gebaseerd op de ouderwetse technologie. Datzelfde ga je denk ik zien in de computing hoek: transistoren mainstream, maar technieken als quantum computing in gespecialiseerde toepassingen.
Er is toch wel enorm verschil tussen een joekel van een object zoals een raket, met iets kleins als een chip.

Als jij een chip weet te drukken die op licht werkt en je krijgt dat goedkoop genoeg voor elkaar - dan gaan we vanzelf allemaal op gegeven moment over op die chip hoor.
Ik gebruikte het voorbeeld van blorf. Bovendien gaat het niet over groot of klein, het gaat er om of iets de dominante technologie is om iets te bereiken.
Het gaat wel om groot of klein.

Een chip is gewoon heel klein. Als je een fabriek hebt die er 30 miljoen per maand kan drukken of meer, dan hoort zo'n chippie heel goedkoop te zijn - terwijl een grote raket nooit goedkoop valt te bouwen natuurlijk.
Maar een vliegtuig is ook niet zo goedkoop hoor. Zijn punt is dat toptechnologie niet altijd door hoeft sijpelen naar consumenten-producten of in geval van vliegtuigen in het door jan-met-de-pet wereldje.
De prijs per transistor is dan 10 cent, maar 20 procent van de chips functioneert niet goed. De kosten zijn dan 8 cent per transistor op een goed functionerende chip.
Deze berekening klopt niet. De prijs per goed functionerende transistor gaat omhoog als een deel uitvalt.

Het is natuurlijk fantastisch om te zien hoe we in staat zijn om een technologie steeds verder te perfectioneren. Ik ben benieuwd wat er gaat gebeuren zodra we genetische manipulatie kunnen en mogen toepassen.
Correct gesteld door f.v.b, want in het voorbeeld
Een voorbeeldje: stel, een chip kost 10 euro om te maken en er zitten 100 transitors op. De prijs per transistor is dan 10 cent, maar 20 procent van de chips functioneert niet goed. De kosten zijn dan 8 cent per transistor op een goed functionerende chip. Twee jaar later kunnen we 750 transistors op een chip kwijt. De chip maken kost inmiddels, omdat het procedé lastiger is, 20 euro. De toegenomen complexiteit heeft bovendien tot gevolg dat nog maar twee derde van de chips goed funcioneert. De kosten per 'goede' transistor zijn dan nog maar 4 cent.

10 EUR, 100 transistors waarvan 80% goed functioneert levert 1000/80=12,5ct
Edit: Hier stond onzin, je hebt gelijk in je uitkomst hoewel je berekening onduidelijk is!

10€ / 80 transistors = 0,125€ / transistor
20€ / 500 transistors = 0,04€ / transistor

[Reactie gewijzigd door StGermain op 22 juli 2024 13:22]

Volgens futurist Ray Kurzweil leidt de wet van Moore tot de Singulariteit: het moment waarop technologie de menselijke capaciteit evenaart en passeert.

[Reactie gewijzigd door Tweddy op 22 juli 2024 13:22]

Yup, hoewel veel sectoren nog niet exponentieel vooruitgaan door gebrek aan begrip. Denk bijvoorbeeld aan de ontwikkeling van antibiotica: we zijn nog steeds voor een groot deel afhankelijk van toevallige vindingen uit de natuur (veel antibiotica beginnen in die zin als 'natuurgeneesmiddelen'*). Op die natuurlijke antibiotica voeren we dan een soort trial-en-error tests uit met verschillende simpele chemische reacties die hier een atoom toevoegen, hier er eentje afhalen - en dan testen we of die nieuwe stof een krachtiger effect heeft, en/of minder bijeffecten.

Als we genoeg begrip opbouwen om dit soort stoffen te kunnen ontwerpen, d.w.z. dat we precies begrijpen (danwel met macroscopische natuurwetten, danwel met simulaties) hoe een molecuul zich gedraagt in de gigantisch complexe biologie van het menselijk lichaam, dan zouden we ook in deze sector een exponentiële vooruitgang kunnen gaan zien. Hetzelfde geldt voor genetische modificatie - als we (epi)genetische code zouden begrijpen als een soort programmeertaal (daar wordt aan gewerkt, maar is op grotere schaal nog lang niet het geval), dan zouden we exponentieel ingewikkeldere ontwerpen kunnen gaan maken (bouwend op eerdere, simpelere ontwerpen).

Daarbij moet wel gezegd worden dat de kosten van het lezen (sequencing) van genetische code (en in het bijzonder het hele genoom) al jaren lang meer dan exponentieel omlaag gaat. Van een aantal miljard dollar voor het Human Genome Project, naar zo'n $5000 een jaar of twee terug, en hopelijk binnen afzienbare tijd nog veel goedkoper. Dat is natuurlijk een voorwaarde voor meer begrip - zonder een heleboel genomen tot je beschikking is het moeilijk om een goed begrip van de structuur te krijgen.

Daarnaast kan met statistiek al aardig wat bereikt worden - zo zou je bijvoorbeeld correlaties kunnen bijhouden tussen mensen met bepaalde genoomstructuren en bijeffecten bij medicijnen. Dan kan een dokter met je genoom meteen al zien dat je dit medicijn moet hebben, en niet die andere, omdat je anders bijwerkingen gaat krijgen. In principe veel preciezer dan risico door familiegeschiedenis, maar nu nog niet haalbaar omdat van niet veel mensen het volledige genoom beschikbaar is.

Edit: Oh, en daar moet nog even de kanttekening bij gezet worden dat veel mensen "chimera's" schijnen te zijn, een combinatie van twee bevruchte eicellen met andere genetische code (zelfs een ander geslacht!). Dan moet je rekening houden met de mogelijkheid dat het wangslijmvlies een andere genetische code kan hebben dan bijvoorbeeld je lever. Vind ik persoonlijk fascinerend ;)

* Maar niet homeopathie, want dat is een heel specifieke, belachelijke pseudowetenschap - een oude concurrent van pathologie, van voor het ontstaan van de scheikunde, die nergens op slaat. Helaas wordt het label 'homeopathie' in Nederland ook gebruikt voor natuurgeneesmiddelen waar wel degelijk wat in zit. Dat is een irritante kronkel in de Nederlandse wet. Sorry, dat moest ik even kwijt :)

[Reactie gewijzigd door Mitsuko op 22 juli 2024 13:22]

Tegenwoordig zijn er wel al heel wat wiskundige modellen beschikbaar om molecuul-interacties te simuleren. Mijn zusje werkt oa op dit soort thema's :p.
Cool! Ja, tot op zekere hoogte begrijpen we tegenwoordig al heel wat, maar enzymen bestaan uit zoveel delen dat we projecten als Folding@Home nodig hebben om er iets van te snappen. Ik ben altijd benieuwd of dergelijke simulaties tot doorbraken zullen leiden waardoor het allemaal veel simpler wordt - of er bepaalde macroscopische wetmatigheden te vinden zijn waardoor we ineens veel meer kunnen doen met bestaande computers. Anders blijft het wachten tot computers parallel genoeg zijn om het direct voor elkaar te krijgen.
Alleen het belangrijkste onderdeel daarvan - de software, zelflerend en zelfontwikkeld - zal nog even op zich wachten denk ik.
Hoe zit het eigenlijk met de houdbaarheid/slijtage van transistors? Je ziet nu al dat bij elke shrink het aantal schrijfcycli verminderd bij ssd. Is een processor ook onderhevig aan slijtage?
De slijtage in een SSD komt omdat flash-geheugen in principe read-only is. Het schrijven gaat op zich nog wel, maar het terug wissen... is een nogal lompe met-de-botte-bijl methode, waarbij je in feite tegen een isolatie-laag zegt "en jij gaat nu toch geleiden" (door er een "zeer hoog" voltage op te zetten). Tja... het werkt, maar het is er niet goed voor.

De reden dat SSDs slijten is puur en alleen de storage zelf; de controller chip bijvoorbeeld kan "oneindig" lang mee. Er is wel zoiets als slijtage in processoren, maar dat zou in de praktijk geen problemen mogen veroorzaken.
Let wel even op dat overklokken (of, strikt genomen, overvolten) dit effect drastisch kan verergeren; ik zou niet weten of je je CPU daarmee zo snel kunt verslijten dat het echt een probleem wordt... Zo hard overvolten dat het ding finaal doorbrandt is zeker mogelijk, maar dan hebben we het eigenlijk niet meer over "slijtage".
In dat rekenvoorbeeld gaat het mis. Als de kost 10 cent per stuk is en dan nog 20 procent uitval, daalt het niet naar 8 cent, maar stijgt naar 12,5.

Op dit item kan niet meer gereageerd worden.